Está en la página 1de 20

Universidad Nacional Autónoma de Honduras (UNAH)

Departamento de Informática Administrativa

RESUMEN II PARCIAL

Lic. Sandra Janeth Quan Gómez

Tegucigalpa, Francisco Morazán

Ciudad Universitaria

Página 1 de 20
COMPUTACIÓN EN LA NUBE
La computación en la nube (del inglés cloud computing), conocida también como servicios en la nube, informática en la nube,
nube de cómputo o simplemente «la nube», es un paradigma que permite ofrecer servicios de computación a través de una
red, que usualmente es internet.

La nube no es un lugar, sino un método de gestión de recursos de TI que reemplaza las máquinas locales y los centros de datos
privados con infraestructura virtual. En este modelo, los usuarios acceden a los recursos virtuales de computación, red y
almacenamiento que están disponibles en línea a través de un proveedor remoto. Estos recursos se pueden aprovisionar de
manera instantánea, lo que es particularmente útil para las empresas que necesitan escalar verticalmente su infraestructura o
reducirla rápidamente en respuesta a una demanda fluctuante.

La computación en la nube es la disponibilidad a pedido de los recursos del sistema informático, especialmente el
almacenamiento de datos y la capacidad de cómputo, sin una gestión activa directa por parte del usuario. El término se usa
generalmente para describir los centros de datos disponibles desde cualquier lugar para muchos usuarios a través de Internet
desde cualquier dispositivo móvil o fijo.

El concepto de «nube informática» es muy amplio, y abarca casi todos los posibles tipo de servicio en línea, pero cuando las
empresas predican ofrecer un utilitario alojado en la nube, por lo general se refieren a alguna de estas tres modalidades: el
software como servicio (SaaS, por sus siglas en inglés), plataforma como servicio (PaaS) e infraestructura como servicio (IaaS).

El software como servicio es un modelo de distribución de software en el que las aplicaciones están alojadas por una compañía
o proveedor de servicio y puestas a disposición de los usuarios a través de una red, generalmente internet. La plataforma como
servicio es un conjunto de utilitarios para abastecer al usuario de sistemas operativos y servicios asociados a través de Internet
sin necesidad de descargas o instalación alguna. Infraestructura como servicio se refiere a la tercerización de los equipos
utilizados para apoyar las operaciones, incluido el almacenamiento, hardware, servidores y componentes de red.

El concepto de la computación en la nube empezó en proveedores de servicio de Internet a gran escala, como Google (Google
Cloud Services), Amazon AWS (2006), Microsoft (Microsoft Azure) o Alibaba Cloud y otros que construyeron su propia
infraestructura. De entre todos ellos emergió una arquitectura: un sistema de recursos distribuidos horizontalmente,
introducidos como servicios virtuales de TI escalados masivamente y manejados como recursos configurados y mancomunados
de manera continua. Este modelo de arquitectura fue inmortalizado por George Gilder en su artículo de octubre de 2006 en la
revista Wired titulado Las fábricas de información. Las granjas de servidores, sobre las que escribió Gilder, eran similares en su
arquitectura a la computación en malla, pero mientras que las redes se utilizan para aplicaciones de procesamiento técnico
débilmente acoplados, un sistema compuesto de subsistemas con cierta autonomía de acción, que mantienen una
interrelación continua entre ellos, este nuevo modelo de nube se estaba aplicando a los servicios de internet.

La computación en la nube establece su arquitectura a partir de una fragmentación entre aplicación


informática, plataforma y hardware, dando como resultado según NIST. Los siguientes métodos de entrega: software como
servicio, plataforma como servicio e infraestructura como servicio

➢ Software como servicio


El software como servicio se encuentra en la capa más alta y caracteriza una aplicación completa ofrecida como un servicio
bajo demanda a través de multitenencia —una sola instancia del software que corre en la infraestructura del proveedor sirve
a múltiples organizaciones de clientes—. Las aplicaciones que suministran este modelo de servicio son accesibles a través de
un navegador web —o de cualquier aplicación diseñada para tal efecto— y el usuario no tiene control sobre ellas, aunque en
algunos casos se le permite realizar algunas configuraciones. Esto le elimina la necesidad al cliente de instalar la aplicación en
sus propios computadores, evitando asumir los costos de soporte y el mantenimiento de hardware y software.

➢ Plataforma como servicio


La capa del medio, la plataforma como servicio, es la encapsulación de una abstracción de un ambiente de desarrollo y el
empaquetamiento de una serie de módulos o complementos que proporcionan, normalmente, una funcionalidad horizontal
(persistencia de datos, autenticación, mensajería, etc.). De esta forma, un arquetipo de plataforma como servicio podría
consistir en un entorno conteniendo una pila básica de sistemas, componentes o APIs preconfiguradas y listas para integrarse

Página 2 de 20
sobre una tecnología concreta de desarrollo (por ejemplo, un sistema Linux, un servidor web, y un ambiente de programación
como Perl o Ruby). Las ofertas de plataformas como servicio pueden servir a todas las fases del ciclo de desarrollo y pruebas
del software, o pueden estar especializadas en cualquier área en particular, tal como la administración del contenido.

Ejemplos comerciales son Google App Engine, que sirve aplicaciones de la infraestructura Google; Microsoft Azure, una
plataforma en la nube que permite el desarrollo y ejecución de aplicaciones codificadas en varios lenguajes y tecnologías como
.NET, Java, Go y PHP o la Plataforma G, desarrollada en Perl. Servicios PaaS como estos permiten gran flexibilidad, pero puede
ser restringida por las capacidades disponibles a través del proveedor. En este modelo de servicio al usuario se le ofrece la
plataforma de desarrollo y las herramientas de programación por lo que puede desarrollar aplicaciones propias y controlar la
aplicación, pero no controla la infraestructura.

➢ Infraestructura como servicio


La infraestructura como servicio —también llamada en algunos casos hardware as a service, HaaS)—[10] se encuentra en la
capa inferior y es un medio de entregar almacenamiento básico y capacidades de cómputo como servicios estandarizados en
la red. Servidores, sistemas de almacenamiento, conexiones, enrutadores, y otros sistemas se concentran (por ejemplo, a
través de la tecnología de virtualización) para manejar tipos específicos de cargas de trabajo —desde procesamiento en lotes
(“batch”) hasta aumento de servidor/almacenamiento durante las cargas pico—. El ejemplo comercial mejor conocido es
Amazon Web Services, cuyos servicios EC2 y S3 ofrecen cómputo y servicios de almacenamiento esenciales (respectivamente).
Otro ejemplo es Joyent, cuyo producto principal es una línea de servidores virtualizados, que proveen una infraestructura en
demanda altamente escalable para manejar sitios web, incluidas aplicaciones web complejas escritas en Python, Ruby, PHP y
Java.

Tipos de Nube
Existen 3 tipos principales de nube:
Privada
Las nubes privadas son aquellas que ofrecen servicios informáticos a través de una red interna privada, exclusiva a algunos
usuarios y no disponible al público general. Es también conocida como nube interna o corporativa.
Pública
La nube pública son aquellos servicios informáticos que son ofrecidos por proveedores externos a través del internet, por lo
tanto, están disponibles a todo el mundo.
Híbrida
Este tipo de nube combina ambas características, lo cual permite una dinámica entre nubes, dependiendo de las necesidades
y los costos con los que se cuente. Esta solución es claramente la más flexible de todas.
Tipos principales de servicios de informática en la nube:
✓ Infraestructura como servicio (IaaS): acceso a almacenamiento y capacidad de cómputo. Es la categoría más básica y
permite “alquilar” infraestructura de IT de un proveedor de servicios en la nube (servidores y máquinas virtuales,
almacenamiento, redes y sistemas operativos).
✓ Plataforma como servicio (PaaS): ofrece a los desarrolladores herramientas para crear y hospedar aplicaciones web.
Está diseñado para dar acceso a los usuarios a los componentes que necesitan para desarrollar y utilizar con rapidez
aplicaciones web o móviles, sin preocuparse por configurar y administrar la infraestructura de servidores,
almacenamiento, redes y bases de datos subyacentes.
✓ Software como servicio (SaaS): método de entrega de aplicaciones de software donde los proveedores de servicios en
la nube hospedan y administran de forma integral las aplicaciones. Facilita tener la misma aplicación en todos sus
dispositivos a la vez porque toda la inteligencia y datos de aplicación están alojados en la nube.
✓ PaaS para el Desarrollo Rápido: En 2014, Forrester Research definió Plataformas empresariales públicas para
desarrolladores rápidos como una tendencia emergente, nombrando a varios proveedores incluyendo a Mendix,
Salesforce.com, OutSystems y Acquia Acquia.

Servicios que ofrece la nube


Cómputo: los servicios de cómputo en la nube están diseñados para soportar la capa de procesamiento de las aplicaciones. De
esta manera, el usuario puede escoger la cantidad de núcleos de procesamiento y memoria que requiere, mientras que el
proveedor de nube se encarga de tenerlos disponibles para cuando el usuario lo requiera.

Página 3 de 20
Almacenamiento: la nube ofrece una capacidad de almacenamiento virtualmente ilimitada para los usuarios, además, tiene la
posibilidad de replicar la información en múltiples ubicaciones geográficas.

Networking: cada uno de los proveedores de nube ofrece un conjunto de servicios que busca virtualizar la capa de red de las
soluciones de infraestructura física. Así, se definen nuevas herramientas para controlar la comunicación entre los diferentes
servicios de la nube, al igual que para la gestión de la seguridad de los recursos.

Aspectos de seguridad
La seguridad en la computación en la nube puede ser tan buena o mejor que la que existía en los sistemas tradicionales, porque
los proveedores son capaces de proporcionar recursos que resuelvan problemas de seguridad que muchos clientes no pueden
afrontar. Sin embargo, la seguridad todavía sigue siendo un asunto importante, cuando los datos tienen un matiz confidencial.
Esto atrasa la adopción de la computación en la nube hasta cierto punto.

➢ Seguridad como servicio

En el entorno de la nube, la seguridad es provista por los proveedores. Se pueden distinguir dos métodos: El primer método,
es que cualquiera puede cambiar sus métodos de entrega incluidos en los servicios de la nube. El segundo método es que los
proveedores de servicio de la nube proveen seguridad solo como servicio en la nube, con información de seguridad de las
compañías. Los servicios de seguridad están clasificados en categorías, según la organización Cloud Security Alliance:
 Gestión de identidades y acceso
 Prevención de pérdida de datos
 Seguridad en la web
 Seguridad para el correo electrónico
 Evaluación de la seguridad
 Gestión de instrucciones
 Seguridad de la información y gestión de eventos
 Cifrado
 Continuidad del negocio y recuperación de desastres
 Red de seguridad

➢ Seguridad del navegador

En el entorno de la nube, los servidores remotos son usados para la computación. Los nodos del cliente se usan solo para
entrada/salida de operaciones, y para la autorización y autenticación de la información en la nube. Un navegador web
estándar es una plataforma normalmente utilizada para todos los usuarios del mundo. Esto puede ser catalogado en dos
tipos diferentes: software como servicio, aplicaciones web, o Web 2.0. La seguridad en la capa de transporte (TLS) se suele
emplear para la encriptación de datos y la autentificación del equipo anfitrión.

➢ Autenticación o identificación

En el entorno de la nube, la base para el control de acceso es la autentificación, el control de acceso es más importante que
nunca desde que la nube y todos sus datos son accesibles para todo el mundo a través de internet. Trusted Platform Module
(TPM) es extensamente utilizado y un sistema de autentificación más fuerte que el nombre de usuario y la contraseña. Trusted
Computing Group (TCG) es un estándar sobre la autorización de usuarios y otras herramientas de seguridad de comunicación
en tiempo real entre el proveedor y el cliente.

➢ Pérdida de gobernanza

En las infraestructuras de la nube, el cliente necesariamente cede el control al proveedor de la nube en varios asuntos, los
cuales influyen negativamente sobre la seguridad. Al mismo tiempo, el acuerdo de nivel de servicio no suele tener el cometido
de surtir este tipo de servicios en la parte del proveedor de la nube, lo que deja una brecha en las defensas de seguridad.

➢ Dependencia

Esta es una pequeña oferta en este tipo de herramientas, los procedimientos o estándares de formatos de datos o interfaces
de servicios que podrían garantizar los datos, las aplicaciones y el servicio de portabilidad. Esto puede hacer difícil para el
cliente migrar de un proveedor a otro, o migrar los datos y servicios de nuevo a otro entorno informático, bloqueándolo en el
ecosistema elegido. Esto introduce una particular dependencia en el proveedor de la nube para la provisión del servicio,
especialmente en lo referente a la portabilidad de los datos, el aspecto más fundamental.
Página 4 de 20
➢ Protección de los datos

En España, la Agencia Española de Protección de Datos y el Instituto Nacional de Tecnologías de la Comunicación (INTECO) son
los organismos que se encargan de la privacidad y de la protección de los datos personales; aspectos claves para operar en la
nube. La computación en la nube pone en riesgo la protección de datos para los usuarios de la nube y sus proveedores. En
muchos casos, ocasiona dificultades para el proveedor (en el rol del controlador de la información) para asegurar la efectividad
práctica del manejo de los datos del proveedor de la nube y para cerciorar que los datos van por el camino correcto. Este
problema se suele agravar en casos de múltiples transferencias de datos, por ejemplo, entre sistemas federados. Por otra
parte, algunos proveedores de la nube, proporcionan información de sus prácticas de cercenamiento de datos. También hay
algunas ofertas de certificaciones en el procesamiento de datos, las actividades de seguridad, y los controles de datos que
tienen lugar; ejemplo, la certificación SAS70. Las corrientes de datos de Internet están unidas al malware y de paquetes señuelo
para meter al usuario en una desconocida participación en actividades delictivas.

EL INTERNET
El internet es sino una red informática descentralizada, que nos permitir la conexión de la computadora opera a través de un
protocolo de comunicaciones.
Principales herramientas de función en el uso del internet:
1. Dominio: Dominio de internet es un nombre base que agrupa a un conjunto de equipos o dispositivos y que permiten
proporcionar nombres de equipo más fácilmente recordables en lugar de una dirección IP numérica. Los Dominios se dividen
en 3 partes: • Las muy conocidas 3 ve dobles (WWW) • El nombre de la organización o página • EL tipo de organización
(.COM) Tipos de Dominio A.Los Dominios Territoriales Son los dominios mantenidos por cada país. Estos dominios
territoriales son utilizados por las organizaciones y empresas que desean establecerse en Internet y proteger la identidad de
su marca o su nombre comercial en un país concreto. Los dominios territoriales tienen sus terminaciones compuestas por 2
letras. .HN .MX .ES .ARG B. Los Dominios Genéricos Son los dominios básicos en Internet y los más utilizados a nivel mundial.
Están organizados de forma conceptual según sus terminaciones. Ejemplo: (.COM .NET .ORG .INFO .ASIA .PRO .CAT)
2. Protocolos Los protocolos, son reglas de comunicación que permiten el flujo de información entre equipos que manejan
lenguajes distintos, por ejemplo, dos computadores conectados en la misma red pero con protocolos diferentes no podrían
comunicarse jamás, para ello, es necesario que ambas “hablen” el mismo idioma. Tipos de Protocolos • TCP/IP (Transmisión
Control Protocolo/Internet Protocolo) Fueron los dos primeros en definirse, y que son solos más utilizados de la familia. •
UDP (User Datagram Protocol) Permite el envió de datagramas a través de la red sin que se haya establecido previamente
una conexión. • DHCP (Dynamic Host Configuration Protocolo) Es un protocolo de red que permite a los nodos de una red IP
obtener sus parámetros de configuración automáticamente. • HTTP (Hypertext Transfer Protocol) Es el que se utiliza para
acceder a las páginas web. • FTP (File Tranfer Protocol) Es usado para transferencia de archivos. • SSH (Secure Shell Remote
Protocol) Sirve para acceder a maquinas remotas a través de una red. • IMAP (Internet Message Access Protocol) Es un
protocolo de red de acceso a mensajes electrónicos almacenados en un servidor.
3. Hardware Es un aparato informático que facilita el uso de una red informática.
Tipos de Hardware
• Router Es un dispositivo que conecta dos redes locales y es el responsable de controlar el tráfico entre ellas y calificarlas. •
Bridge o puente Es una unidad funcional que interconecta dos redes de área local que utilizan el mismo protocolo de enlace
lógico, pero distintos protocolos de control de acceso al medio. • Adaptador RDSI Esta red facilita conexiones digitales
extremo a extremo para proporcionar una amplia gama de servicios y la que los usuarios acceden a través de un conjunto de
interfaces normalizadas. • HUB o Concentrador Es un elemento de hardware que permite conectar el tráfico de red que
proviene de múltiples ordenadores y regenera la señal. • Adaptador Ethernet Es un dispositivo hardware que permite
conectividad a equipos de red inalámbrica. • Módems Se encarga de modular y desmodular la señal de internet es decir que
interpreta dicha señal que llega a él y la envía de forma directa. • Switche Los puertos son los elementos del switch que
permite conexión al mismo. • Gateway o puerta de enlace Es un dispositivo con frecuencia un ordenador que permite
interconectar redes de protocolos y arquitecturas diferentes a todos los niveles de comunicación. • Firewalls o contrafuego
Proporciona un modo de filtrar la información que se comunica a través de la conexión de red. • Tarjeta de interfaz de red Es
el software específico de red que se comunica en el controlador de dispositivo de red y la capa IP.

Página 5 de 20
INTERNET 2
El internet 2 es una red telemática que fue originada por un grupo de universidades en Norteamérica, fue creada con la idea
de tener páginas para compartir información si las molestas páginas comerciales. . Con Internet 2, se potencia el intercambio
de información académica mejorando los sistemas educativos y permitiendo desarrollos tecnológicos importantes.
Principales diferencias entre Internet e Internet 2
• La diferencia de usuarios Una notable diferencia, puesto que, Internet 2 es solo utilizado como una red de pruebas entre
universidades, empresas y dependencias de gobiernos registrados, mientras que, Internet es utilizada por cualquier tipo de
usuario para compartir información.
• La velocidad de transferencia Ya que, al estar Internet 2 implementado bajo el uso de la fibra óptica como principal medio
de transferencia, las velocidades de carga y descarga son mayores a las a la proporcionadas por la Internet.
• El origen Puesto que, Internet 2 nace con fines educativos, y de mejoramiento de las aplicaciones existentes, sobre todo en
mejorar calidad de transferencia de audio y video, mientras que el Internet se originó con fines militares.
• El futuro de cada red Debido a que Internet tiende a desaparecer tal cual lo conocemos, migrando a utilizar las tecnologías
desarrolladas para Internet 2 como el nuevo protocolo IPv6, sustituyendo así paulatinamente a su antecesor y quedando
instaurada como la plataforma única para la transferencia de información a través del ciberespacio.
Servicios de Internet 2
• Bibliotecas digitales, con capacidad para almacenar y recuperar a distancia contenidos en audio y video, para escanear
imágenes con aparición instantánea en la pantalla, y dotadas de nuevos procedimientos de visualización de datos.
• Entornos de colaboración, a través del soporte a laboratorios virtuales, instrumentación remota, telemetría, discusiones en
tiempo real con apoyo de audio, video, texto y pizarra electrónica.
• Entornos de inmersión, con el uso de presencia virtual en tres dimensiones, gracias a recursos masivos de
supercomputación. Procedimientos de instrucción musical con alta fidelidad multicanal, interactividad para la improvisación
y la sincronización de audio, video y anotaciones.
• Telemedicina, incluyendo el diagnóstico remoto y el seguimiento a distancia de enfermos crónicos
• Computación de alta intensidad de datos, para aplicaciones de correlación entre las ciencias físicas y las sociales.
Aplicaciones administrativas, gracias a bases de datos compartidas y a modelos en 3D.

LAS REDES INFORMATICAS


Se entiende por redes informáticas, redes de comunicaciones de datos o redes de computadoras a un número de sistemas
informáticos conectados entre sí mediante una serie de dispositivos alámbricos o inalámbricos, gracias a los cuales pueden
compartir información en paquetes de datos, transmitidos mediante impulsos eléctricos, ondas electromagnéticas o cualquier
otro medio físico.

¿Para qué sirven?


Una red informática tiene varias finalidades, la principal de ellas es permitir que ordenadores y dispositivos puedan conectarse
y realizar un intercambio de información, e incluso compartir datos. Algunas de las funciones de las redes informáticas que
tenemos que conocer son:
 Realizar un intercambio de información:
Es la función principal de estas redes. Un ordenador puede intercambiar datos con otro de manera rápida y segura, de esta
forma dichos archivos podrán ser visualizados y editados por otros usuarios como vos.
 Compartir Software:
Otra de las funciones de estas redes es permitir la instalación de un programa dentro de un solo ordenador, que podrá ser
utilizado por el resto de los equipos de la red sin que ellos tengan que instalarlo.
 Compartir Hardware:
Una de las mejores funciones, ya que, si tenemos una impresora o un Router ADSL, podemos compartirla con el resto de los
ordenadores de tu red.
Características de las redes.
1. Velocidad
2. Seguridad de la red
3. Confiabilidad
Página 6 de 20
4. Escalabilidad
5. Disponibilidad
Elementos de una red informática.
Usualmente en las redes informáticas se presentan los siguientes elementos:
• Servidores:
En una red no siempre los computadores poseen la misma jerarquía o funciones. Los servidores son los que procesan el flujo
de datos, atendiendo a todos los demás computadores de la red (“sirviéndolos”, de allí su nombre) y centralizando el control
de la red.
• Clientes o estaciones de trabajo:
Se llama así a los computadores que no son servidores, sino que forman parte de la red y permiten a los usuarios el acceso a
la misma, empleando los recursos administrados por el servidor.
• Medios de transmisión:
Se llama así al cableado o a las ondas electromagnéticas, según sea el caso, que permiten la transmisión de la información.
• Elementos de hardware:
Aquellas piezas que permiten el establecimiento físico de la red, como son las tarjetas de red en cada computador, los módems
y enrutadores que sostienen la transmisión de datos, o las antenas repetidoras que extienden la conexión (en caso de ser
inalámbricas).
• Elementos de software:

Por último, están los programas requeridos para administrar y poner en funcionamiento el hardware de comunicaciones, y que
incluye el Sistema Operativo de Redes (NOS, del inglés Network Operating System), el cual además de sostener el
funcionamiento de la red le brinda soporte de antivirus y firewall; y los protocolos comunicativos (como los TCP e IP) que
permiten a las máquinas “hablar” el mismo idioma.

TIPOS DE REDES INFORMATICAS.


Se clasifican según su tamaño:

REDES LAN REDES MAN. REDES WAN.


LAN son las siglas de Local Area Network, Este tipo de redes es una versión más En informática, se denomina red WAN
Red de área local. Una LAN es una red que grande que la LAN y que (Siglas del inglés: Wide Área Network, o
conecta los ordenadores en un área normalmente se basa en una sea, Red de Área Amplia) a las conexiones
relativamente pequeña y predeterminada tecnología similar a esta, La principal informáticas de mayor envergadura, es
(como una habitación, un edificio, o un razón para distinguir una MAN con decir, las más abarcativas y de mayor
conjunto de edificios). una categoría especial es que se ha velocidad, que cubren una extensa
adoptado un estándar para que porción geográfica del planeta, cuando
Las redes LAN se pueden conectar entre funcione, que equivale a la norma no al mundo entero.
ellas a través de líneas telefónicas y ondas IEEE.
de radio. Un sistema de redes LAN Las redes WAN incorporan diversas redes
conectadas de esta forma se llama una Las redes Man también se aplican en de menor tamaño en una sola,
WAN, siglas del inglés de wide-area las organizaciones, en grupos de interconectando así usuarios separados
network, Red de área ancha. oficinas corporativas cercanas a una por enormes distancias, con mayores
ciudad, estas no contienen elementos tasas de transmisión y con diversos
Las estaciones de trabajo y los de conmutación, los cuales desvían niveles (capas) de datos.
ordenadores personales en oficinas los paquetes por una de varias líneas
normalmente están conectados en una red de salida potenciales. Estas redes Esto implica la necesidad de máquinas
LAN, lo que permite que los usuarios pueden ser pública o privada. dedicadas por completo a la ejecución de
envíen o reciban archivos y compartan el programas de usuario (hosts), la
acceso a los archivos y a los datos. Cada Las redes de área metropolitana, presencia de aparatos enrutadores y
ordenador conectado a una LAN se llama comprenden una ubicación conmutadores, o la utilización de
un nodo. geográfica determinada "ciudad, máscaras de subred para conectar varios
municipio", y su distancia de hosts.
cobertura es mayor de 4 Kmts. Son
redes con dos buses unidireccionales,
cada uno de ellos es independiente
del otro en cuanto a la transferencia
de datos.

Página 7 de 20
También suele clasificarse según su tecnología con que estén conectados los computadores de la siguiente manera:

REDES DE MEDIOS GUIADOS. REDES DE MEDIOS NO GUIADOS.


Se conoce como medios guiados a aquellos que utilizan unos Los medios no guiados o sin cable han tenido gran acogida al
componentes físicos y sólidos para la transmisión de datos. ser un buen medio de cubrir grandes distancias y hacia
También conocidos como medios de transmisión por cable. cualquier dirección, su mayor logro se dio desde la conquista
espacial a través de los satélites y su tecnología no para de
Guiados: cambiar. De manera general podemos definir las siguientes
• Alambre: se usó antes de la aparición de los demás características de este tipo de medios: La transmisión y
tipos de cables (surgió con el telégrafo). recepción se realiza por medio de antenas, las cuales deben
• Guía de honda: verdaderamente no es un cable y utiliza estar alineadas cuando la transmisión es direccional, o si es
las microondas como medio de transmisión. omnidireccional la señal se propaga en todas las direcciones.
• Fibra óptica: es el mejor medio físico disponible gracias
a su velocidad y su ancho de banda, pero su No guiados:
inconveniente es su coste.
• Par trenzado: es el medio más usado debido a su • Infrarrojos: poseen las mismas técnicas que las empleadas
comodidad de instalación y a su precio. por la fibra óptica, pero son por el aire. Son una excelente
• Coaxial: fue muy utilizado pero su problema venia opción para las distancias cortas, hasta los 2km
porque las uniones entre cables coaxial eran bastante generalmente.
problemáticas. • Microondas: las emisiones pueden ser de forma analógica
o digitales, pero han de estar en la línea visible.
• Satélite: sus ventajas son la libertad geográfica, su alta
velocidad…. pero sus desventajas tienen como gran
problema el retardo de las transmisiones debido a tener que
viajar grandes distancias.
• Ondas cortas: también llamadas radio de alta frecuencia,
su ventaja es que se puede transmitir a grandes distancias
con poca potencia y su desventaja es que son menos fiables
que otras ondas.
• Ondas de luz: son las ondas que utilizan la fibra óptica para
transmitir por el vidrio.
Según su medio físico:

REDES ALAMBRICAS. REDES INALAMBRICAS. REDES MIXTAS.


Se comunica a través de cables de datos Es una red en la que dos o más terminales Las topologías mixtas son aquellas en
(generalmente basada en Ethernet). Los (ordenadores portátiles o agendas las que se aplica una mezcla entre
cables de datos, conocidos como cables electrónicas) se pueden comunicar sin la alguna de las otras topologías: bus,
de red de Ethernet o cables con hilos necesidad de una conexión por cable. Se estrella o anillo. Principalmente
conductores (CAT5), conectan basan en un enlace que utiliza ondas podemos encontrar dos topologías
computadoras y otros dispositivos que electromagnéticas (radio e infrarrojo) en mixtas: Estrella - Bus y Estrella - Anillo.
forman las redes. Las redes alámbricas lugar de cableado estándar. Permiten que
son mejores cuando usted necesita los dispositivos remotos se conecten sin CARACTERÍSTICAS:
mover grandes cantidades de datos a dificultad, ya se encuentren a unos En la topología Estrella - Bus podemos
altas velocidades, como medios metros de distancia como a varios ver una red en bus al que están
multimedia de calidad profesional. kilómetros. Asimismo, la instalación de conectados los hubs de
estas redes no requiere de ningún cambio Pequeñas redes en estrella. Por lo
Ventajas significativo en la infraestructura tanto, no hay ningún ordenador que se
existente como pasa con las redes conecte directamente al bus. En esta
• Costos relativamente bajos cableadas. Tampoco hay necesidad de topología mixta, si un ordenador falla,
• Ofrece el máximo rendimiento agujerear las paredes para pasar cables ni entonces es detectado por el hub al que
posible de instalar porta cables o conectores. está conectado y simplemente lo aísla
• Mayor velocidad – cable de Esto ha hecho que el uso de esta del resto de la red. Sin embargo, si uno
Ethernet estándar hasta 100 tecnología se extienda con rapidez. de los hubs falla, entonces los
Mbps ordenadores que están conectados a él
• Mayor rendimiento de Voz Tipos de redes inalámbricas en la red en estrella no podrán
sobre IP. • LAN Inalámbrica. comunicarse y, además, el bus se
partirá en dos partes que no pueden
Página 8 de 20
• Mejores estándares Ethernet • GSM (Global System for Mobile comunicarse entre ellas. En la topología
en la industria. Communications). Estrella - Anillo encontramos que el
• Mayor capacidad de ancho de • D-AMPS (Digital Advanced cableado forma físicamente una
banda por cables. Mobile Phone Service): estrella, pero el hub al que se conecta
• Aplicaciones que utilizan un • Wi-Fi. hace que la red funcione como un
ancho de banda continuo. • Fixed. anillo. De esta forma, la red funciona
como un anillo, pero con la ventaja de
Desventajas Ventajas que, si uno de los ordenadores falla, el
hub se encarga de sacarlo del anillo
• El costo de instalación siempre • La instalación de redes para que éste siga funcionando.
ha sido un problema común en inalámbricas suele ser más
este tipo de tecnología, ya que económica.
el estudio de instalación, • Su instalación también es más
canaletas, conectores, cables y sencilla.
otros suman costos muy • Permiten gran alcance; las redes
elevados en algunas ocasiones. hogareñas inalámbricas suelen
• El acceso físico es uno de los tener hasta 100 metros desde la
problemas más comunes base transmisora.
dentro de las redes alámbricas. • Permite la conexión de gran
Ya que, para llegar a ciertos cantidad de dispositivos móviles.
lugares, es muy complicado el En las redes cableadas mientras
paso de los cables a través de más dispositivos haya, más
las paredes de concreto u otros complicado el entramado de
obstáculos. cables.
• Dificultad y expectativas de • Posibilidad de conectar nodos a
expansión es otro de los grandes distancias sin cableado,
problemas más comunes, ya en el caso de las redes
que cuando pensamos tener un inalámbricas corporativas.
número definido de nodos en • Permiten más libertad en el
una oficina, la mayoría del movimiento de los nodos
tiempo hay necesidades de conectados, algo que puede
construir uno nuevo y ya no convertirse en un verdadero
tenemos espacio en los problema en las redes
switches instalados. cableadas.
• Permite crear una red en áreas
complicadas donde, por
ejemplo, resulta dificultoso o
muy cara conectar cables.

Desventajas

• Calidad de Servicio: La velocidad


que posee la red inalámbrica no
supera la cableada, ya que esta
puede llegar es a los 10 Mbps,
frente a 100 Mbps que puede
alcanzar la cableada. Hay que
tomar en cuenta la tasa de error
debida a las interferencias.
• Costo: Es más barato cablear una
casa que colocar un servicio de
red inalámbrica.
• La señal inalámbrica puede
verse afectada e incluso
interrumpida por objetos,
árboles, paredes, espejos.
Página 9 de 20
TOPOLOGIAS DE LA RED.
Las topologías de red son las diferentes distribuciones de los dispositivos, tales como enrutadores, computadoras, impresoras,
y las distintas conexiones que puede haber en la red.
Por tanto, se refieren al diseño físico o lógico de una red de computadoras. Definen la forma en que se colocan los diferentes
nodos y cómo se interconectan entre sí. De igual manera, pueden describir cómo se transfieren los datos entre estos nodos.
1) Topologías físicas
Se refiere al diseño de las interconexiones entre los dispositivos y las conexiones físicas de la red, como cable (DSL, Ethernet),
microondas o fibra óptica.
2) Topologías lógicas
La topología lógica para una red es algo más estratégica y abstracta. Generalmente consiste en lograr comprender
conceptualmente cómo y por qué la red está organizada de la forma en que está, y cómo se mueven los datos a través de ella.
Se refiere a la relación lógica entre los dispositivos y las conexiones. Una conexión lógica diferirá de una ruta física cuando la
información pueda dar un salto invisible en puntos intermedios.

Las TICS
TIC es una sigla que significa Tecnología de la Información y la Comunicación. Últimamente las TICs aparecen en los medios de
comunicación, en educación, en páginas web.
Este concepto hace referencia a las teorías, las herramientas y las técnicas utilizadas en el tratamiento y la transmisión de la
información: informática, internet y telecomunicaciones.
La información: se refiere en este contexto a la transferencia de datos de un modo innovador, los cuales abarcan textos,
imágenes y audio.
La comunicación: se refiere a las herramientas que permiten que el mensaje enviado por el emisor sea correctamente
descifrado por el receptor. Por ejemplo, las plataformas de información al usuario.
Las TIC son el conjunto de tecnologías desarrolladas en la actualidad para una información y comunicación más eficiente, las
cuales han modificado tanto la forma de acceder al conocimiento como las relaciones humanas. Han transformado los
parámetros de obtención de información por medio de las tecnologías de la comunicación (diario, radio y televisión), a través
del desarrollo de Internet y de los nuevos dispositivos tecnológicos como la computadora, la tableta y el smartphone, así como
las plataformas y softwares disponibles.
Ejemplos de TICS.
– Skype: Servicio de video llamadas.
– Bizum: Sistema español de pagos instantáneos entre particulares y compras comerciales.
– GPS: Sistema de navegación y localización que funciona mediante satélites.
– Bluetooh: Red inalámbrica que permite la transmisión de datos entre dispositivos.
– Mensajería instantánea: Forma de comunicación en tiempo real entre los usuarios de los dispositivos digitales.
– Blogspot: Gestor de contenidos digitales utilizado por blogs.
– Youtube: Plataforma de videos de entretenimiento, noticias y educativos.
– Robot aspirador: Sistema de limpieza robótico con programación inteligente para un uso autónomo.
– Alexa: Asistente virtual inteligente.

TIPOS DE COMUNICACIÓN DE DATOS


SIMPLEX:
Un sistema de comunicación simplex envía un mensaje en una sola dirección. La fuente del mensaje funciona como el
transmisor; envía el mensaje a través del canal de datos al receptor. El receptor es el destino del mensaje. Algunos ejemplos
de comunicación de datos simplex son las estaciones de radio y los programas de televisión. Con el canal simplex, el receptor
no tiene la capacidad de responder al mensaje.
SEMIDUPLEX
Un sistema de comunicación de datos semidúplex proporciona mensajes en ambas direcciones, pero sólo permite la
transferencia en una dirección a la vez. Una vez que una persona (o cualquier otra forma de origen) comienza a enviar una
transmisión, el receptor debe esperar hasta que la señal se detenga antes de responder. Si los dos lados de la transmisión
intentan enviar datos al mismo tiempo, ambos fallarán.
DUPLEX:
Un dúplex es una comunicación que funciona en ambas direcciones al mismo tiempo. Esencialmente, la comunicación de
datos dúplex es un conjunto de dos canales simplex, uno trabajando como un canal hacia delante, y el otro como un canal de

Página 10 de 20
EN SERIE:
La comunicación en serie toma una comunicación de datos, la fragmenta en pedazos pequeños, y envía el mensaje un bit a la
vez, a través de un canal. El receptor recoge los pequeños trozos y los vuelve a ensamblar para componer el mensaje original.
La comunicación en serie es el tipo más común de comunicación entre dispositivos electrónicos.
Clasificación de los Protocolos de Enlace de Datos
De acuerdo a su estructura
Protocolos Orientados a Bit: son aquellos protocolos en los cuales los bits por sí solos pueden proveer información, son
protocolos muy eficientes y trabajan en tramas de longitud variable.
Protocolos Orientados a Byte: son aquellos en los que la información viene provista por la conjunción de bytes de
información y bytes de control.
De acuerdo a su diciplina de comportamiento
Protocolos de Sondeo Selección: son aquellos que utilizan un DTE como nodo principal de canal. Este nodo primario controla
todas las demás estaciones y determina si los dispositivos pueden comunicarse y, en caso afirmativo, cuando deben hacerlo.
Protocolos Peer to Peer: son aquellos en los cuales ningún nodo es el principal, y por lo general todos los nodos poseen la
misma autoridad sobre el canal.

SOFTWARE DE PRODUCTIVIDAD
Son programas que ayudan en las tareas básicas. Se entiende la productividad como: la relación, en términos económicos,
entre lo producido y los medios empleados. En otras palabras, productividad se refiere al manejo de recursos para
llegar a la realización óptima de una meta; ya sea en términos de producto=ganancia o esfuerzo=recompensa. La tecnología
avanza día a día especializándose en las áreas más diversas, esto porque su objetivo es satisfacer las necesidades del usuario.
FUNCIONES
• Gestionar plazos y prioridades en función de objetivos.
• Organizar proyectos en tareas, subtareas y calendarios.
• Asignar y administrar funciones
• Medir el rendimiento de sus empleados.
• Agilizar la comunicación entre usuarios, mandar mensajes y compartir archivos.
• Registrará y notificar avances, nuevos estados e incidencias.
• Supervisar las tareas diarias y la evolución del trabajo individual y del equipo.
• Sincronizar de manera automática las actualizaciones que cada usuario en tiempo real.
• Monitorizar el tiempo invertido en cada gestión y proyecto.
• Integrar la herramienta con otro software de comunicación y colaboración: Gmail, Google, Drive, Dropbox, Slack, etc

METODOLOGÍAS EN LOS QUE SE BASAN LOS DIFERENTES TIPOS DE SOFTWARE DE PRODUCTIVIDAD


Organizar y planificar el tiempo de trabajo en función de nuestros objetivos personales o empresariales y registrar todas
aquellas acciones o decisiones que vamos realizando en cada proyecto en fundamental para aprovechar las ventajas de un
software de productividad.
Sin esta gestión y documentación de tareas, no sería posible el trabajo en equipo ni medir el rendimiento y la productividad.
A partir de esta premisa, un software de productividad se basa en diferentes metodologías de productividad para su
administración de tiempos y proyectos.
• Metodología kanban: para obtener el máximo rendimiento del flujo de trabajo debe visualizarse las tareas en un tablero de
columnas, por el que se irán colocando en función de su estado (idea, finalizado…) y monitorizar el tiempo invertido a lo largo
de su ejecución (lead time).
• Metodología scrum: cada objetivo o proyecto se divide en fases, iteraciones o sprints. Los sprints tiene una duración
establecida y está compuesto de diversas acciones, y su ejecución en indispensable para avanzar al siguiente,
• Metodología GTD (Getting Things Done): optimiza el tiempo creando listas de tareas y actividades, realizando en ese mismo
momento aquellas que no no lleven más de 2 minutos), Cada proyecto podrá estar formado de diversas tareas, que iremos
organizando para su ejecución y marcando cada cambio de estado por el que pasa.
• Metodología timebloking: cada tarea conformará un bloque de tiempo que asignaremos a cada día en función de la carga de
trabajo, para que este sea equilibrado, y de los plazos de entrega.

TIPOS DE SOFTWARE DE PRODUCTIVIDAD


Cuando hablamos de empresas del sector legal, como son las firmas de abogados, podemos distinguir principalmente 2 tipos
de software de productividad que sirven tanto para la optimización como para la medición de la productividad:

Página 11 de 20
• Software de productividad para trabajos administrativos
El software de productividad para trabajos administrativos: son gestores de tareas que cumplen las funciones de digitalizar y
automatizar procesos del área administrativa como son la facturación y el cobro a clientes.
Este tipo de software de productividad es esencial para las firmas de abogados, ya que los letrados suelen gastar muchas horas
de trabajo en gestionar manualmente las tareas administrativas, lo que hace que sus niveles de productividad disminuyan.
• Software de productividad para trabajos jurídicos
El software de productividad para trabajos jurídicos: son aquellos que digitalizan y automatizan ciertos procesos del área legal.
Por ejemplo, hay programas de productividad que realizan de manera automática la redacción de documentos o la revisión
de contratos, y hay algunos que digitalizan la gestión de procesos judiciales vía online.
Este tipo de software de productividad entra en la categoría de lo que se conoce como legaltech, y su impacto positivo en las
firmas de abogados es tremendo. Gracias a estas tecnologías, los letrados pueden acelerar el desarrollo de los procesos
jurídicos más simples, lo cual les permite contar con más tiempo disponible para poder dedicarse personalmente a los procesos
más complejos.
Softwares que pueden subirle el nivel a la productividad en el ámbito profesional
Office 365
Los potentes paquetes de softwares de productividad de Microsoft, como ser las más habituales: Excel, PowerPoint o Word,
también OneDrive, Skype y Project.

SOFTWARES DE COMUNICACIÓN CORPORATIVA


1. Slack
Una de las claves para lograr la productividad laboral es una sólida comunicación, y Slack tiene las características necesarias
para ayudarte a conseguirlo.
Se trata de una herramienta de mensajería pensada específicamente para equipos de trabajo, que brinda la posibilidad de
organizar salas de chat por temas o departamentos. También permite interactuar a través de grupos privados y mensajes
directos.
Otra ventaja de Slack es que brinda APIs para promover la integración de la herramienta con otros programas, como
MailChimp, Hangouts o Skype.
2. Zoom
Si te desempeñas en una organización grande y tienes a un importante equipo de trabajo a tu cargo, ¡esta es una de las
herramientas ideales para ti!
Además de presumir de intuitividad, grabación de reuniones, adaptación a distintos sistemas operativos y mensajería privada
y grupal, Zoom brinda la posibilidad de realizar videoconferencias con hasta 100 participantes.
Es una plataforma bastante adecuada para profesionales en Home Office cuando participan en reuniones de equipos, ya que
tiene la funcionalidad de «Levantar la mano» para pedir la palabra.
3. Microsoft Teams
Este es un software de productividad clásico y de calidad comprobada, que permite dejar a un lado la lenta comunicación a
través de correos electrónicos y la sustituye por ventanas de chat instantáneo, con soporte para videoconferencias, envío de
archivos e integración de herramientas.
También, cuenta con un servicio de conferencias web, ideal para que dirijas las típicas juntas y reuniones semanales o para
presentaciones y exposiciones relacionadas con proyectos de la organización.
La herramienta ha sido bastante utilizada en las últimas semanas, ya que Microsoft la ha hecho gratuita durante la crisis del
Coronavirus COVID-19.

SOFTWARES DE GESTIÓN DEL TIEMPO


4. Productivity Owl
En ocasiones, el riesgo a la productividad está asociado a las distracciones. Si eso le sucede a tu equipo de trabajo, puedes
aplicar esta herramienta, que limita las funcionalidades y accesos de Google.
De esa forma podrás controlar la actividad de navegación de los colaboradores sin ser demasiado riguroso, simplemente
bloqueando algunas páginas y sitios que no tienen nada que ver con las funciones laborales y que suelen demandar mucha
atención y tiempo.
5. Hootsuite
Para muchos equipos de Marketing Digital esta es una herramienta indispensable. Esto se debe, en parte, a su capacidad de
optimizar el tiempo.
Gracias a ella podrás programar y gestionar sistemáticamente publicaciones en redes sociales desde una plataforma
centralizada y con tan solo unos cuantos clics, lo que ahorra horas-hombre y carga de trabajo.

Página 12 de 20
6. Wunderlist
Esta se ha consolidado como una herramienta ideal para gestión de proyectos, debido su capacidad de planificar y registrar
tareas y actividades de manera sencilla, lo que a su vez ayuda a optimizar el tiempo.

SOFTWARES DE ORGANIZACIÓN DE ARCHIVOS


7. Trello
Si estás en busca de un software intuitivo para gestionar archivos, que no demande formación específica, ¡toma en cuenta a
Trello!
A través de él tus colaboradores podrán guardar, segmentar y manejar documentos y archivos de forma intuitiva. Además,
tendrás un sistema de notificaciones que te avisará todos los cambios que hagan.
8. Asana
Este es uno de esos softwares de productividad versátiles y de gran potencialidad. Su característica principal es que permite
subir archivos ilimitados.
Además, cuenta con una intuitiva plataforma para distribuir y alojarlos en la nube.
9. iClips
Este software brinda la posibilidad de registrar proyectos específicos y usuarios encargados de realizar tareas dentro de ellos,
así como archivos claves. Diseñado principalmente para agencias digitales.

SOFTWARES DE GESTIÓN DE DATOS


10. Softwares de CRM
Estos son unos de los tipos de softwares mejor valorados en el mercado, debido a su capacidad para aportar datos sobre la
relación con los clientes y la valoración de la empresa por parte de estos, un aspecto clave para una mejor toma de
decisiones.
En general, gestionar estratégicamente la información a través de estos sistemas permite desarrollar un modelo de gestión
basado en la satisfacción contante del cliente.
Puedes encontrar más información sobre los sistemas de CRM en este artículo.
11. Google Analytics
Esta herramienta resulta especialmente eficaz para gestionar y acceder a datos y métricas sobre el comportamiento de los
usuarios y las diferentes plataformas de una empresa en el universo web.
Entre otras cosas, Google Analytics te permitirá manejar información valiosa sobre adquisiciones y conversiones, lo que
ahorra tiempo para la definición de prioridades en una estrategia digital.
12. HubSpot
El software de HubSpot es una herramienta integral, que incluye múltiples herramientas y funcionalidades de
Marketing, servicio al cliente y ventas, muchas de ellas relacionadas con la adquisición y gestión optimizada de datos de
interés.

VENTAJAS DE UTILIZAR UN SOFTWARE DE PRODUCTIVIDAD


1. Conseguir una mayor optimización del tiempo al establecer diferentes categorías de tareas, abarcando todas las posibles
actividades que puede realizar un trabajador, y aportar organización en el desarrollo del trabajo diario.
2. Potenciar la productividad de cada empleado al establecer plazos y reducir distracciones y dudas, como preguntas sobre el
estado de cada tarea (todo está registrado) o tratar de crear prioridades de forma individual.
3. Gestionar de manera óptima las actividades que se necesitan llevar a cabo para nuestros objetivos, tanto de manera
individual como global.
4. Facilitar el trabajo colaborativo entre miembros de un equipo al integrar toda la información de cada proyecto en tiempo real
y mejorar la comunicación. Cada trabajador podrá consultar sus tareas pendientes o finalizadas y comunicarse con otros
miembros en función de las necesidades de cada una de ellas.
5. Proporcionar un sistema flexible y adaptable a las necesidades de cada caso: administra calendarios, notas, avisos, correos
electrónicos y contactos.
6. Obtener informes de productividad, seguir la evolución de cada proyecto y detectar problemas puntuales, reiterativos y
cuellos de botella.

PRINCIPALES SOFTWARE DE PRODUCTIVIDAD


1. Microsoft office mobile 5. Adobe reader
2. One note 6. Skype
3. Sunrise calendar 7. Google docs
4. Inbox by Gmail 8. Ccleaner

Página 13 de 20
9. Dropbox 10. evernote

TIPOS DE SOFTWARE DE PRODUCTIVIDAD

Procesadores de texto Agenda de contactos


Hoja de calculo Calculadoras
Los cads App

VIRUS
Un virus informático es una amenaza programada, es decir, es un pequeño programa escrito intencionadamente para instalarse
en el ordenador de un usuario sin el conocimiento o el permiso de este. Decimos que es un programa parásito porque el
programa ataca a los archivos o al sector de "arranque" y se replica a sí mismo para continuar su propagación. Algunos se
limitan solamente a replicarse, mientras que otros pueden producir serios daños que pueden afectar a los sistemas. No
obstante, absolutamente todos cumplen el mismo objetivo: PROPAGARSE. (definicion, 2020) En un virus informático, podemos
distinguir 3 módulos:
Módulo de reproducción - Es el encargado de manejar las rutinas de "parasitación" de entidades ejecutables (o archivos de
datos, en el caso de los virus macro) a fin de que el virus pueda ejecutarse de forma oculta intentando pasar desapercibido
ante el usuario. Pudiendo, de esta forma, tomar control del sistema e infectar otras entidades permitiendo la posibilidad de
traslado de un ordenador a otro a través de algunos de estos archivos.
Módulo de ataque - Este módulo es optativo. En caso de estar presente es el encargado de manejar las rutinas de daño adicional
del virus. Por ejemplo, algunos virus, además de los procesos dañinos que realizan, poseen un módulo de ataque que por
ejemplo se activa un determinado día. La activación de este módulo, implica la ejecución de una rutina que implica daños
dispares en nuestro ordenador.
Módulo de defensa - Este módulo, como su nombre indica tiene la misión de proteger al virus. Su presencia en la estructura
del virus es optativa, al igual que el módulo de ataque. Sus rutinas apuntan a evitar todo aquello que provoque la eliminación
del virus y retardar, en todo lo posible, su detección. (definicion, 2020)

Tipos de virus informáticos según su destino de infección:


• Programas ejecutables
o Afectan archivos de extensión EXE, COM, BAT, SYS, PIF, DLL, DRV Estos son los virus más peligrosos, porque se disemina
fácilmente hacia cualquier programa (como hojas de cálculo, juegos, procesadores de textos, etc.) Estos se activan
cada vez que el archivo infectado es ejecutado, ejecutando primero su código vírico y luego devuelve el control al
programa infectado pudiendo permanecer residente en la memoria durante mucho tiempo después de que hayan
sido activados.
o Infectores directos: Son aquellos que no se quedan residentes en memoria y se replican en el momento de ejecutar
el fichero infectado y los virus de Sobre escritura que corrompen el fichero donde se ubican al sobrescribirlo. El
programa infectado tiene que estar ejecutándose para que el virus pueda funcionar (seguir infectando y ejecutar sus
acciones destructivas).
• Residentes en memoria
También son llamados TSR [Terminate and Stay Resident) son aquellos que se aloja e instalan en la memoria de tu
computadora y se activan cuando el sistema operativo de tu maquina se activa. Una vez que el virus se activa actúa
infectando todos los archivos que se abran en tu computadora, dañándolos.
Su principal característica es que se esconden tras la memoria RAM de una manera permanente. De manera que puedan
controlar y obstaculizar todos los procedimientos llevadas a cabo por el sistema operativo, contagiando todos aquellos
programas y ficheros que se hayan abierto, cerrado, renombrado, ejecutados, copiados, o cualquier otra operación que se
haya realizado con los mismos. Algunos ejemplos de este tipo de virus son: Randex, CMJ, Meve, MrKlunky.
• Sector de arranque (boot)
Este tipo de virus infecta el sector de arranque de un disquete y se esparce en el disco duro del usuario, el cual también
puede infectar el sector de arranque del disco duro (MBR). Una vez que el MBR o sector de arranque esté infectado, el
virus intenta infectar cada disquete que se inserte en el sistema, ya sea una CD-R, una unidad ZIP o cualquier sistema de
almacenamiento de datos. Los virus de arranque trabajan de la siguiente manera: se ocultan en el primer sector de un
disco y se cargan en la memoria antes de que los archivos del sistema se carguen. Esto les permite tomar total control de
las interrupciones del DOS y así, pueden diseminarse y causar daño.
• Virus Multi Partición o Multi-parte
Bajo este nombre se engloban los virus que utilizan los dos métodos anteriores. pueden infectar tanto el sector de
arranque como los archivos ejecutables, suelen ser una combinación de todos los tipos existentes de virus, su poder de

Página 2 de 20
destrucción es muy superior a los demás y de alto riesgo para nuestros datos, su tamaño es más grande a cambio de
tener muchas más opciones de propagarse e infección de cualquier sistema.
• Macrovirus o Virus de Macro
Son los virus más populares de la actualidad. No se transmiten a través de archivos ejecutables, sino a través de los
documentos de las aplicaciones que poseen algún tipo de lenguaje de macros. Las aplicaciones que actualmente
permiten el contagio de estos virus todas las pertenecientes al paquete Office (Word, Excel, Power Point, Access) y
también el Corel Draw, o AutoCAD.
• De correo electrónico
El virus llega al correo de un ordenador, se instala en él, toma la libreta de direcciones y se auto envía a todas las direcciones
de correo que figuren en la Libreta de Direcciones. Al llegar a otro ordenador se vuelve a auto enviar a todas las direcciones
que figuren en él, y así sucesivamente. Para activar la propagación utilizan diferentes métodos, por ejemplo, una fecha
determinada como el conocido viernes 13, o cada vez que se arranca el ordenador, o cada vez que se arranca el correo,
etc.

Virus por el daño causado:


• Caballos de Troya
Este virus se esconde en un programa legítimo que, al ejecutarlo, comienza a dañar la computadora. Afecta a la seguridad
de la PC, dejándola indefensa y también capta datos que envía a otros sitios, como por ejemplo contraseñas.
Los troyanos son programas que imitan programas útiles o ejecutan algún tipo de acción aparentemente inofensiva, pero
que de forma oculta al usuario ejecutan el código dañino.
Los troyanos no cumplen con la función de autor reproducción, sino que generalmente son diseñados de forma que por
su contenido sea el mismo usuario el encargado de realizar la tarea de difusión del virus. (Generalmente son enviados por
e-mail).
• Gusanos (Worms)
Es un malware que reside en la memoria de la computadora.
Se caracteriza por duplicarse en ella, sin la asistencia de un usuario. Consumen banda ancha o memoria del sistema en
gran medida.
• Camaleones
Son una variedad de virus similares a los caballos de Troya que actúan como otros programas parecidos, en los que el
usuario confía, mientras que en realidad están haciendo algún tipo de daño. Cuando están correctamente programados,
los camaleones pueden realizar todas las funciones de los programas legítimos a los que sustituyen (actúan como
programas de demostración de productos, los cuales son simulaciones de programas reales).
• Hoax
Estos no son virus propiamente y no pueden replicarse. Por lo general son correos con información falsa que motiva a los
usuarios a que los reenvíen a sus contactos. Su forma de actuar es sobrecargar el flujo informativo o el sistema de la
plataforma. Actualmente no son tan empleados. El contenido suele ser de diferente índole. Por ejemplo, mensajes de
contenido falso que incitan al usuario a hacer copias y enviarla a sus contactos. Suelen apelar a los sentimientos morales
("Ayuda a un niño enfermo de cáncer") o al espíritu de solidaridad ("Aviso de un nuevo virus peligrosísimo") y, en cualquier
caso, tratan de aprovecharse de la falta de experiencia de los internautas novatos.
• Bombas
Se denominan así a los virus que ejecutan su acción dañina como si fuesen una bomba. Esto significa que se activan
segundos después de verse el sistema infectado o después de un cierto tiempo (bombas de tiempo) o al comprobarse
cierto tipo de condición lógica del equipo. (bombas lógicas).
Ejemplos de bombas de tiempo son los virus que se activan en una determinada fecha u hora determinada. Ejemplos de
bombas lógicas son los virus que se activan cuando al disco rígido solo le queda el 10% sin uso, una secuencia de teclas o
comandos, etc. Ejemplos de este tipo de programas son virus como viernes 13 o el virus Miguel Ángel.
• Virus de enlace
Los virus de enlace cambian el enlace de los accesos directos que tienen los programas que son infectados para que el
usuario no pueda acceder a los mismos. Los ficheros se ubican en determinadas direcciones (compuestas básicamente
por unidad de disco y directorio), que el sistema operativo conoce para poder localizarlos y trabajar con ellos.
Una vez producida la infección, resulta imposible localizar y trabajar con los ficheros originales.

Antivirus
Software antivirus es una aplicación independiente o un conjunto de programas que detectan y eliminan virus de ordenadores
y redes. El software antivirus moderno también protege sus dispositivos contra todo tipo de malware sin que eso afecte la
velocidad y el rendimiento.
Página 2 de 20
Algunos de los mecanismos que usan los antivirus para detectar virus son:
• Firma de virus. El antivirus dispone de una base de datos en las que almacena firmas de virus. En el pasado estas firmas
eran hashes con los que se intentaba ajustar todos los ficheros del equipo analizado. Esta medida es fácil de eludir
cambiando cualquier instrucción del código y el hash resultante no coincidiría con ninguna firma de la base de datos.
No tardó en sofisticarse esa técnica y se empezó a intentar buscar una secuencia de bytes concreta en cada muestra
de malware que lo identificara, así de esta manera, tendrías que saber que parte del código es con la que han
identificado tu binario para modificarla y no ser detectable. Para luchar contra estas firmas en los malware se
emplearon codificadores modificaban todo el código del binario. La debilidad de estos sistemas es que en el código
hay que añadir las instrucciones necesarias para el desempaquetado del código y eso puede generar firmas que
identifiquen un binario como potencialmente malicioso.
• Detección heurística. Consiste en el escaneo de los archivos buscando patrones de código que se asemejan a los que
se usan en los virus. Ya no es necesaria una coincidencia exacta con una firma de virus almacenada si no que se buscan
similitudes más generales aplicando algoritmos.
• Detección por comportamiento: consiste en escanear el sistema tras detectar un fallo o mal funcionamiento. Por lo
general, mediante este mecanismo se pueden detectar software ya identificado o no, pero es una medida que se usa
tras la infección.
• Detección por caja de arena (o sandbox): consiste en ejecutar el software en máquinas virtuales y determinar si el
software ejecuta instrucciones maliciosas o no. A pesar de que este mecanismo es seguro, toma bastante tiempo
ejecutar las pruebas antes de ejecutar el software en la máquina real.

Características de los antivirus


▪ Se actualizan constantemente para mejorar la efectividad.
▪ Capacidad de detección y reacción ante amenazas.
▪ Por lo general, la detección que realiza se trata de verdaderos casos de virus (mínimas probabilidades de falsos
positivos).
▪ Alerta por distintos métodos al usuario sobre la existencia de una amenaza.
▪ Crea respaldos en caso de que exista infección en el sistema.
▪ No afecta el desempeño del equipo.

Tipos de software antivirus


1. Software antivirus autónomo
El software antivirus autónomo es una herramienta especializada, diseñada para detectar y eliminar ciertos virus. Se le conoce
comúnmente como software antivirus portable porque se puede instalar también en un USB y los administradores los pueden
usar para realizar escáneres de emergencia de un sistema infectado. Sin embargo, la mayoría de los programas portables no
están diseñados para proporcionar una protección en tiempo real y descargar nuevas definiciones diariamente, que es la razón
por la no pueden sustituir los paquetes de seguridad en internet que incluyen una gran variedad de elementos adicionales.
2. Paquetes de software de seguridad
Como está indicado en el título, los paquetes de software de seguridad son más que programas antivirus. Además de ser
capaces de detectar y eliminar virus, también están equipados para luchar contra todo el demás software maliciosos y
proporcionar protección absoluta en todo momento para su ordenador y archivos. La mayoría de estos paquetes de programas
incluyen antispyware, cortafuegos (firewall) y componentes de control parental. Algunos también incluyen una función
adicional como gestión de contraseñas, VPN (red virtual privada) e incluso un programa antivirus autónomo incorporado en el
paquete.
3. Software antivirus en la nube
El Software antivirus en la nube es un nuevo tipo de tecnología antivirus que analiza sus archivos en la nube en lugar de en el
ordenador, con el fin de liberar sus recursos computacionales y permitir una respuesta más rápida. Estos programas se
componen normalmente de dos partes; el cliente que está instalado en su ordenador y realiza escáneres periódicos de virus y
malware, sin ocupar demasiada memoria y el servicio web que procesa los datos recogidos por el cliente y lo inspecciona en
busca de coincidencia con virus y malware de su base de datos.

LA DEEP WEB
Lo que encuentras dentro de la red profunda… La Deep web tiene un lado oscuro: la Dark Web. Debido a su carácter oculto,
nadie sabe exactamente lo que hay en esta web, pero mucho de su contenido es ilegal. Se trafica con armas, dinero, droga y
se llevan a cabo todo tipo de actividades ilegales, desde intercambiar material pedófilo a contratar a un asesino a sueldo. Los
peligros de la Deep Web Descargar cualquier contenido de una página de la Deep Web confiere un enorme riesgo, pues muy

Página 3 de 20
probablemente contendrá software malicioso, como spyware, troyanos y ransomware. Además, podrías recibir amenazas y
ser culpable de algún tipo de delito como cómplice. (republica, 2019) ¿Quién es el creador de la Deep Web? La principal causa
de la existencia de la Internet profunda es la imposibilidad de los motores de búsqueda. La Deep Web no la creó nadie, pues
ha existido desde que existe Internet, puede ser algo tan simple como una página en un sitio web que no tiene un enlace
público desde otra página. Un claro ejemplo de web profunda es tu correo electrónico, porque tus emails no aparecen en
Google o Bing cuando se hace la búsqueda.¿Qué es la Dark Web? Si la Deep Web es el 90% de Internet, la Dark Web ocuparía
únicamente el 0,1% de ella. Es una porción de Internet intencionalmente oculta a los motores de búsqueda, con direcciones IP
enmascaradas y accesibles sólo con un navegador web especial. Por lo tanto, la Dark Web forma parte de la Deep Web, pero
son cosas diferentes. Bitcoin para Deep Web El Bitcoin es una moneda virtual que no está controlada por ningún gobierno.
Utilizando los bitcoins en la Deep Web se puede comprar cosas ilegales de forma anónima. Para su funcionamiento Bitcoin
utiliza toda una infraestructura tecnológica que le permite funcionar sin ningún tipo de entidad central, es decir, es una moneda
que no tiene un Banco Central. Con Bitcoin podemos enviar y recibir dinero a través de Internet, a cualquier persona en el
mundo y totalmente gratis, pero ¿cómo funciona? Para enviar y recibir Bitcoins es necesario descargar e instalar una aplicación
en tu computadora que será equivalente a tu billetera en el mundo off-line donde colocas tu dinero en efectivo.
¿Cómo surgió la internet profunda? El concepto de Deep Web o Internet Profunda se creó en 1994. En ese entonces se le
conocía como 'Web invisible'. Desde siempre, en esta parte de la Internet se encontraban contenidos de carácter peligroso
como, por ejemplo, webs ilegales, páginas de ventas de armas o drogas o páginas de pornografía infantil.
¿Cuántos niveles tiene la Deep Web? La Deep Web tiene cinco niveles de información. Estos son: - Nivel 1: Aquí se encuentran
las páginas más comunes de la red y redes sociales. - Nivel 2: conformado por páginas para descarga de materiales pirata y
foros con material explícito. Ejemplo: Taringa y Mega. pág. 7 - Nivel 3: compuesto por torrents o información de archivos,
además de descargas masivas: Ejemplo: BitTorrent. - Nivel 4: En este nivel es necesario el uso de Tor. Aquí puedes encontrar
Hidden Wiki, así como libros y material de descarga. - Nivel 5: Se visualizan foros Onion Chan, portales con material
pornográfico infantil, hackers a sueldo, venta de objetos robados y drogas. Existe una leyenda urbana sobre la existencia de un
sexto nivel al que denominan Marianas Web, en referencia a las islas del mismo nombre y que tienen cerca de 11 kilómetros
de profundidad. Se dice que ahí se encuentran las páginas web gubernamentales restringidas.
Internet invisible o Internet oculta es el contenido de Internet que no está indexado por los motores de búsqueda
convencionales. Se estima que el 96% de la información que hay en Internet no es accesible por los buscadores estándar. la
Web Profunda es aquella en la que las páginas cambian constantemente de ubicación, de tal forma que incluso su dirección
está encriptado, y una URL de esta parte de Internet no tiene el formato habitual
Este lugar es un repositorio de diferentes páginas web que tienen algún contenido que no puede ser mostrado tanto en Google
como otros buscadores conocidos a nivel mundial debido a que, en su mayoría, infringen la ley de servicios y noticias en
Internet.
Cuando nos referimos a cosas que infringen la ley, vamos a lo peor que puede existir en el mundo. Las cosas van desde el tráfico
de drogas hasta la compra de asesinato, así como la venta de seres humanos hasta pornografía infantil. En la Deep Web está
lo más nefasto de la red y lo que casi nadie quisiera encontrar.

Características de la DEEP WEB:


• Posee entre 400 y 500 veces más información que la Web normal
• Entorno al 95% de la web profunda es de información accesible al público, es decir, no hay que pagar nada por ella.
• Hay más de 200 mil millones de sitios web asociados a la Deep Web
• La relación contenido-calidad es de alrededor de un 1000% respecto de la web superficial.
• Las páginas funcionan bajo software que protege su identidad, como puede ser TOR.
Básicamente, lo que hace TOR es que te cambia tu dirección de IP de router y lo manda a otra parte del mundo en minutos,
cosa que te mantiene en el anonimato sin problema alguno. Al abrir este buscador, verás que los enlaces no son tal como los
conocías y es que estos no terminan en .com, .pe, .org, etc., sino que lo hacen en .onion y la url no muestra palabras, sino que
son letras combinadas con números. De Google no vas a poder ingresar.

Desventajas de la DEEP WEB:


1.- La web de los criminales: Aquí podrás encontrar todo tipo de productos: drogas, armas y hasta órganos. Por lo mismo que
es anónima podrás contratar asesinos y hackers.
2.- Los hackers a la orden del día: Hackers inundan la web profunda y son un peligro constante para cualquiera que desee
entrar en este mundo. Antes dijimos que el anonimato era en teoría y eso es debido a que siempre está el riesgo de que un
hacker profesional pueda encontrarte y hacerse con tu información.

3.- Contenido perturbador e indeseable: Existen muchas imágenes filtradas de la deep web en Internet que tú mismo o tú
misma puedes buscar. Numerosos crímenes son perpetuados en todo el mundo, de estos muchos son recogidos por la deep

Página 4 de 20
web. Este es el verdadero motivo por el cual no muchos se atreven a echar un vistazo; no será muy difícil encontrarte imágenes
de crímenes como mutilaciones, asesinatos o violaciones.

Ventajas de la DEEP WEB:


1.- Libertad de expresión: Aunque muchos la dan por garantizada, no es así para todas las personas. Por ejemplo, en China el
contenido de la web está limitado y censurado, así como la prensa bajo pena de cárcel. Las atrocidades cometidas por el
gobierno chino son publicadas por la deep web. Es a través de esta que nos enteramos de la realidad de otros países.
2.- Libros censurados: Podrás encontrar libros censurados por los gobiernos y también libros regulares. Este punto también va
ligado a la piratería pues aquí no existe el copyright. Por ende, podrás encontrar prácticamente cualquier libro que desees.
Pero cuidado, no es buena idea descargar prácticamente nada de la deep web por el problema de los hackers. No querrás ni
de casualidad que uno de ellos logre conocer tu cuenta bancaria.
3.- Investigaciones encubiertas: En mayo de 1996, tres científicos del Laboratorio de Investigación Naval proponían un
mecanismo para que los usuarios pudieran acceder a Internet sin ser identificados. Así fue creada la web profunda, en principio
para realizar investigaciones. Ahora podrás encontrar investigaciones científicas que no hallaras en otros sitios o al menos no
de forma actualizada.
4.- Activismo: No sólo existen hackers «malos» y la prueba más famosa de ellos son Wikileaks o Anonymous. Entre los
descubrimientos están los abusos en Guantánamo, la participación de Estados Unidos en los conflictos de medio oriente,
espionaje entre países, el complot de los alimentos transgénicos y la lista sigue. Estos activistas muchas veces basan sus
investigaciones en contenidos de la Deep Web.
Hay quienes ilustran el iceberg de la Deep Web con cinco y hasta seis niveles y los distinguen así:
• Nivel 1: Buscadores y redes sociales. En este nivel se puede decir que todavía estás en la clear web y encontrarás lo "normal"
de Internet. Google y Facebook, vaya.
• Nivel 2: Piratería a saco. El lugar donde se filtran las películas antes del estreno y donde una cuenta de Spotify gratuita se libra
de los anuncios "con un truco". La piratería es una actividad ilegal y está penada en casi todos los países de occidente, así que
en este sentido te recomendamos que -como Aladdin en la Cueva de las Maravillas- por muy bonito que parezca lo que ves y
por mucho que lo hayas encontrado en Google, no toques nada.
• Nivel 3: Torrents. Piratería para expertos. Si en el nivel 2 te bastaba con conectarte a una web para ver una peli online, en este
caso ya necesitas de algún tipo de software para pasar contenidos de un usuario a otro. Ejemplo clásico: las descargas Per2Per.
• Nivel 4: Deep Web. Aquí entras con Tor y vas a la Hidden Wiki. Puedes conseguir libros y materiales que no siempre son delito,
pero que por alguna razón han sido prohibidos. Por ejemplo, material que en cualquier parte del mundo sea legal pero en un
determinado país esté prohibido y sea buscado por la disidencia.
• Nivel 5: Dark Web. El inframundo en el que incluso dudas que respirar sea legal. Aquí es donde se juntan los hackers a sueldo,
los que venden Spotify vitalicio por dos duros y todo aquello de lo que debes huir sin mirar atrás.

BIG DATA
Cuando hablamos de Big Data nos referimos a conjuntos de datos o combinaciones de conjuntos de datos cuyo tamaño
(volumen), complejidad (variabilidad) y velocidad de crecimiento (velocidad) dificultan su captura, gestión, procesamiento o
análisis mediante tecnologías y herramientas convencionales, tales como bases de datos relacionales y estadísticas
convencionales o paquetes de visualización, dentro del tiempo necesario para que sean útiles.

¿POR QUE EL BIG DATA ES TAN IMPORTANTE?

Lo que hace que Big Data sea tan útil para muchas empresas es el hecho de que proporciona respuestas a muchas preguntas
que las empresas ni siquiera sabían que tenían. En otras palabras, proporciona un punto de referencia. Con una cantidad tan
grande de información, los datos pueden ser moldeados o probados de cualquier manera que la empresa considere adecuada.
Al hacerlo, las organizaciones son capaces de identificar los problemas de una forma más comprensible.

La recopilación de grandes cantidades de datos y la búsqueda de tendencias dentro de los datos permiten que las empresas se
muevan mucho más rápidamente, sin problemas y de manera eficiente. También les permite eliminar las áreas problemáticas
antes de que los problemas acaben con sus beneficios o su reputación.
CARACTERISTICAS

Página 5 de 20
Las características más importantes del Big Data perfectamente se pueden clasificar en cuatro magnitudes, más conocidas
como las cuatro V del Big Data, relativas a volumen, variedad, velocidad y veracidad. A estas cuatro V, podemos añadir tres
más, como pueden ser la de Viabilidad y Visualización. Pero si hablamos de V en Big Data no podemos dejar pasar la principal
característica del análisis de datos que es la V de Valor de los datos. Así pues, en los últimos artículos se empieza a hablar, ya
no de las tradicionales cuatro V de Big Data, sino de las 7 “V” del Big Data:

1. Volumen de información
El volumen se refiere a la cantidad de datos que son generados cada segundo, minuto y días en nuestro entorno. Es la
característica más asociada al Big Data, ya que hace referencia a las cantidades masivas de datos que se almacenan con la
finalidad de procesar dicha información, transformando los datos en acciones.
Cada vez estamos más conectados al mundo 2.0 por lo que generamos más y más datos. Para algunas empresas, el estar en el
mundo digital es algo obligatorio, por lo que la cantidad de datos generados es aún mayor. Por ejemplo, una empresa que
vende sus productos únicamente a través de un canal online, le convendría implantar tecnología Big Data para procesar toda
aquella información que recoge su página web rastreando todas las acciones que lleva a cabo el cliente; conocer donde cliquea
más veces, cuántas veces ha pasado por el carrito de la compra, cuáles son los productos más vistos, las páginas más visitadas,
etc.

2. Velocidad de los datos


La velocidad se refiere a los datos en movimiento por las constantes interconexiones que realizamos, es decir, a la rapidez en
la que son creados, almacenados y procesados en tiempo real. Para los procesos en los que el tiempo resulta fundamental,
tales como la detección de fraude en una transacción bancaria o la monitorización de un evento en redes sociales, estos tipos
de datos deben estudiarse en tiempo real para que resulten útiles para el negocio y se consigan conclusiones efectivas.
3. Variedad de los datos
La variedad se refiere a las formas, tipos y fuentes en las que se registran los datos. Estos datos pueden ser datos estructurados
y fáciles de gestionar como son las bases de datos, o datos no estructurados, entre los que se incluyen documentos de texto,
correos electrónicos, datos de sensores, audios, vídeos o imágenes que tenemos en nuestro dispositivo móvil, hasta
publicaciones en nuestros perfiles de redes sociales, artículos que leemos en blogs, las secuencias de clic que hacemos en una
misma página, formularios de registro e infinidad de acciones más que realizamos desde nuestro Smartphone, Tablet y
ordenador.
Estos últimos datos requieren de una herramienta específica, debido a que el tratamiento de la información es totalmente
diferente con respecto a los datos estructurados. Para ello, las empresas necesitan integrar, observar y procesar datos que son
recogidos a través de múltiples fuentes de información con herramientas cualificadas.

4. Veracidad de los datos


Cuando hablamos de veracidad nos referimos a la incertidumbre de los datos, es decir, al grado de fiabilidad de la información
recibida.
Es necesario invertir tiempo para conseguir datos de calidad, aplicando soluciones y métodos que puedan eliminar datos
imprevisibles que puedan surgir como datos económicos, comportamientos de los consumidores que puedan influir en las
decisiones de compra.
La necesidad de explorar y planificar la incertidumbre es un reto para el Big Data que está a la orden del día en las compañías
dedicadas al análisis de datos.

5. Viabilidad
La inteligencia empresarial es un componente fundamental para la viabilidad de un proyecto y el éxito empresarial. Se trata de
la capacidad que tienen las compañías en generar un uso eficaz del gran volumen de datos que manejan.
La inteligencia competitiva también se asocia con la innovación de los equipos de trabajo y el uso de tecnologías empleadas.
Una empresa inteligente analiza, selecciona y monitoriza la información con el fin de conocer mejor el mercado en el que
opera, a sus clientes y diseñar estrategias eficaces.
Es necesario filtrar a través de esta información y seleccionar cuidadosamente los atributos y factores que son capaces de
predecir los resultados que más interesan a las empresas. El secreto del éxito es descubrir las relaciones entre las variables
ocultas.
Una vez que conoces la viabilidad de tu organización, es el momento de detallar el proyecto en una hoja de ruta, y desarrollar
el plan de negocio.

6. Visualización de los datos

Página 6 de 20
Cuando hablamos de visualización nos referimos al modo en el que los datos son presentados. Una vez que los datos son
procesados (los datos están en tablas y hojas de cálculo), necesitamos representarlos visualmente de manera que sean legibles
y accesibles, para encontrar patrones y claves ocultas en el tema a investigar. Para que los datos sean comprendidos existen
herramientas de visualización que te ayudarán a comprender los datos gráficamente y en perspectiva contextual.

7. Valor de los datos


El valor se obtiene de datos que se transforman en información; esta a su vez se convierte en conocimiento, y este en acción
o en decisión. El valor de los datos está en que sean accionables, es decir, que los responsables de las empresas puedan tomar
una decisión (la mejor decisión) en base a estos datos. No todos los datos de los que partimos se convierten en acción o
decisión. Para ello, es necesario tener tecnologías aplicadas. Por ejemplo, una publicación en una red social, que, gracias al uso
de tecnologías de procesamiento de lenguaje natural, puede medir el sentimiento positivo o negativo, con la ayuda de un
algoritmo de análisis de redes sociales o herramientas que permitan obtener de esto información.

Página 7 de 20

También podría gustarte