Documentos de Académico
Documentos de Profesional
Documentos de Cultura
RESUMEN II PARCIAL
Ciudad Universitaria
Página 1 de 20
COMPUTACIÓN EN LA NUBE
La computación en la nube (del inglés cloud computing), conocida también como servicios en la nube, informática en la nube,
nube de cómputo o simplemente «la nube», es un paradigma que permite ofrecer servicios de computación a través de una
red, que usualmente es internet.
La nube no es un lugar, sino un método de gestión de recursos de TI que reemplaza las máquinas locales y los centros de datos
privados con infraestructura virtual. En este modelo, los usuarios acceden a los recursos virtuales de computación, red y
almacenamiento que están disponibles en línea a través de un proveedor remoto. Estos recursos se pueden aprovisionar de
manera instantánea, lo que es particularmente útil para las empresas que necesitan escalar verticalmente su infraestructura o
reducirla rápidamente en respuesta a una demanda fluctuante.
La computación en la nube es la disponibilidad a pedido de los recursos del sistema informático, especialmente el
almacenamiento de datos y la capacidad de cómputo, sin una gestión activa directa por parte del usuario. El término se usa
generalmente para describir los centros de datos disponibles desde cualquier lugar para muchos usuarios a través de Internet
desde cualquier dispositivo móvil o fijo.
El concepto de «nube informática» es muy amplio, y abarca casi todos los posibles tipo de servicio en línea, pero cuando las
empresas predican ofrecer un utilitario alojado en la nube, por lo general se refieren a alguna de estas tres modalidades: el
software como servicio (SaaS, por sus siglas en inglés), plataforma como servicio (PaaS) e infraestructura como servicio (IaaS).
El software como servicio es un modelo de distribución de software en el que las aplicaciones están alojadas por una compañía
o proveedor de servicio y puestas a disposición de los usuarios a través de una red, generalmente internet. La plataforma como
servicio es un conjunto de utilitarios para abastecer al usuario de sistemas operativos y servicios asociados a través de Internet
sin necesidad de descargas o instalación alguna. Infraestructura como servicio se refiere a la tercerización de los equipos
utilizados para apoyar las operaciones, incluido el almacenamiento, hardware, servidores y componentes de red.
El concepto de la computación en la nube empezó en proveedores de servicio de Internet a gran escala, como Google (Google
Cloud Services), Amazon AWS (2006), Microsoft (Microsoft Azure) o Alibaba Cloud y otros que construyeron su propia
infraestructura. De entre todos ellos emergió una arquitectura: un sistema de recursos distribuidos horizontalmente,
introducidos como servicios virtuales de TI escalados masivamente y manejados como recursos configurados y mancomunados
de manera continua. Este modelo de arquitectura fue inmortalizado por George Gilder en su artículo de octubre de 2006 en la
revista Wired titulado Las fábricas de información. Las granjas de servidores, sobre las que escribió Gilder, eran similares en su
arquitectura a la computación en malla, pero mientras que las redes se utilizan para aplicaciones de procesamiento técnico
débilmente acoplados, un sistema compuesto de subsistemas con cierta autonomía de acción, que mantienen una
interrelación continua entre ellos, este nuevo modelo de nube se estaba aplicando a los servicios de internet.
Página 2 de 20
sobre una tecnología concreta de desarrollo (por ejemplo, un sistema Linux, un servidor web, y un ambiente de programación
como Perl o Ruby). Las ofertas de plataformas como servicio pueden servir a todas las fases del ciclo de desarrollo y pruebas
del software, o pueden estar especializadas en cualquier área en particular, tal como la administración del contenido.
Ejemplos comerciales son Google App Engine, que sirve aplicaciones de la infraestructura Google; Microsoft Azure, una
plataforma en la nube que permite el desarrollo y ejecución de aplicaciones codificadas en varios lenguajes y tecnologías como
.NET, Java, Go y PHP o la Plataforma G, desarrollada en Perl. Servicios PaaS como estos permiten gran flexibilidad, pero puede
ser restringida por las capacidades disponibles a través del proveedor. En este modelo de servicio al usuario se le ofrece la
plataforma de desarrollo y las herramientas de programación por lo que puede desarrollar aplicaciones propias y controlar la
aplicación, pero no controla la infraestructura.
Tipos de Nube
Existen 3 tipos principales de nube:
Privada
Las nubes privadas son aquellas que ofrecen servicios informáticos a través de una red interna privada, exclusiva a algunos
usuarios y no disponible al público general. Es también conocida como nube interna o corporativa.
Pública
La nube pública son aquellos servicios informáticos que son ofrecidos por proveedores externos a través del internet, por lo
tanto, están disponibles a todo el mundo.
Híbrida
Este tipo de nube combina ambas características, lo cual permite una dinámica entre nubes, dependiendo de las necesidades
y los costos con los que se cuente. Esta solución es claramente la más flexible de todas.
Tipos principales de servicios de informática en la nube:
✓ Infraestructura como servicio (IaaS): acceso a almacenamiento y capacidad de cómputo. Es la categoría más básica y
permite “alquilar” infraestructura de IT de un proveedor de servicios en la nube (servidores y máquinas virtuales,
almacenamiento, redes y sistemas operativos).
✓ Plataforma como servicio (PaaS): ofrece a los desarrolladores herramientas para crear y hospedar aplicaciones web.
Está diseñado para dar acceso a los usuarios a los componentes que necesitan para desarrollar y utilizar con rapidez
aplicaciones web o móviles, sin preocuparse por configurar y administrar la infraestructura de servidores,
almacenamiento, redes y bases de datos subyacentes.
✓ Software como servicio (SaaS): método de entrega de aplicaciones de software donde los proveedores de servicios en
la nube hospedan y administran de forma integral las aplicaciones. Facilita tener la misma aplicación en todos sus
dispositivos a la vez porque toda la inteligencia y datos de aplicación están alojados en la nube.
✓ PaaS para el Desarrollo Rápido: En 2014, Forrester Research definió Plataformas empresariales públicas para
desarrolladores rápidos como una tendencia emergente, nombrando a varios proveedores incluyendo a Mendix,
Salesforce.com, OutSystems y Acquia Acquia.
Página 3 de 20
Almacenamiento: la nube ofrece una capacidad de almacenamiento virtualmente ilimitada para los usuarios, además, tiene la
posibilidad de replicar la información en múltiples ubicaciones geográficas.
Networking: cada uno de los proveedores de nube ofrece un conjunto de servicios que busca virtualizar la capa de red de las
soluciones de infraestructura física. Así, se definen nuevas herramientas para controlar la comunicación entre los diferentes
servicios de la nube, al igual que para la gestión de la seguridad de los recursos.
Aspectos de seguridad
La seguridad en la computación en la nube puede ser tan buena o mejor que la que existía en los sistemas tradicionales, porque
los proveedores son capaces de proporcionar recursos que resuelvan problemas de seguridad que muchos clientes no pueden
afrontar. Sin embargo, la seguridad todavía sigue siendo un asunto importante, cuando los datos tienen un matiz confidencial.
Esto atrasa la adopción de la computación en la nube hasta cierto punto.
En el entorno de la nube, la seguridad es provista por los proveedores. Se pueden distinguir dos métodos: El primer método,
es que cualquiera puede cambiar sus métodos de entrega incluidos en los servicios de la nube. El segundo método es que los
proveedores de servicio de la nube proveen seguridad solo como servicio en la nube, con información de seguridad de las
compañías. Los servicios de seguridad están clasificados en categorías, según la organización Cloud Security Alliance:
Gestión de identidades y acceso
Prevención de pérdida de datos
Seguridad en la web
Seguridad para el correo electrónico
Evaluación de la seguridad
Gestión de instrucciones
Seguridad de la información y gestión de eventos
Cifrado
Continuidad del negocio y recuperación de desastres
Red de seguridad
En el entorno de la nube, los servidores remotos son usados para la computación. Los nodos del cliente se usan solo para
entrada/salida de operaciones, y para la autorización y autenticación de la información en la nube. Un navegador web
estándar es una plataforma normalmente utilizada para todos los usuarios del mundo. Esto puede ser catalogado en dos
tipos diferentes: software como servicio, aplicaciones web, o Web 2.0. La seguridad en la capa de transporte (TLS) se suele
emplear para la encriptación de datos y la autentificación del equipo anfitrión.
➢ Autenticación o identificación
En el entorno de la nube, la base para el control de acceso es la autentificación, el control de acceso es más importante que
nunca desde que la nube y todos sus datos son accesibles para todo el mundo a través de internet. Trusted Platform Module
(TPM) es extensamente utilizado y un sistema de autentificación más fuerte que el nombre de usuario y la contraseña. Trusted
Computing Group (TCG) es un estándar sobre la autorización de usuarios y otras herramientas de seguridad de comunicación
en tiempo real entre el proveedor y el cliente.
➢ Pérdida de gobernanza
En las infraestructuras de la nube, el cliente necesariamente cede el control al proveedor de la nube en varios asuntos, los
cuales influyen negativamente sobre la seguridad. Al mismo tiempo, el acuerdo de nivel de servicio no suele tener el cometido
de surtir este tipo de servicios en la parte del proveedor de la nube, lo que deja una brecha en las defensas de seguridad.
➢ Dependencia
Esta es una pequeña oferta en este tipo de herramientas, los procedimientos o estándares de formatos de datos o interfaces
de servicios que podrían garantizar los datos, las aplicaciones y el servicio de portabilidad. Esto puede hacer difícil para el
cliente migrar de un proveedor a otro, o migrar los datos y servicios de nuevo a otro entorno informático, bloqueándolo en el
ecosistema elegido. Esto introduce una particular dependencia en el proveedor de la nube para la provisión del servicio,
especialmente en lo referente a la portabilidad de los datos, el aspecto más fundamental.
Página 4 de 20
➢ Protección de los datos
En España, la Agencia Española de Protección de Datos y el Instituto Nacional de Tecnologías de la Comunicación (INTECO) son
los organismos que se encargan de la privacidad y de la protección de los datos personales; aspectos claves para operar en la
nube. La computación en la nube pone en riesgo la protección de datos para los usuarios de la nube y sus proveedores. En
muchos casos, ocasiona dificultades para el proveedor (en el rol del controlador de la información) para asegurar la efectividad
práctica del manejo de los datos del proveedor de la nube y para cerciorar que los datos van por el camino correcto. Este
problema se suele agravar en casos de múltiples transferencias de datos, por ejemplo, entre sistemas federados. Por otra
parte, algunos proveedores de la nube, proporcionan información de sus prácticas de cercenamiento de datos. También hay
algunas ofertas de certificaciones en el procesamiento de datos, las actividades de seguridad, y los controles de datos que
tienen lugar; ejemplo, la certificación SAS70. Las corrientes de datos de Internet están unidas al malware y de paquetes señuelo
para meter al usuario en una desconocida participación en actividades delictivas.
EL INTERNET
El internet es sino una red informática descentralizada, que nos permitir la conexión de la computadora opera a través de un
protocolo de comunicaciones.
Principales herramientas de función en el uso del internet:
1. Dominio: Dominio de internet es un nombre base que agrupa a un conjunto de equipos o dispositivos y que permiten
proporcionar nombres de equipo más fácilmente recordables en lugar de una dirección IP numérica. Los Dominios se dividen
en 3 partes: • Las muy conocidas 3 ve dobles (WWW) • El nombre de la organización o página • EL tipo de organización
(.COM) Tipos de Dominio A.Los Dominios Territoriales Son los dominios mantenidos por cada país. Estos dominios
territoriales son utilizados por las organizaciones y empresas que desean establecerse en Internet y proteger la identidad de
su marca o su nombre comercial en un país concreto. Los dominios territoriales tienen sus terminaciones compuestas por 2
letras. .HN .MX .ES .ARG B. Los Dominios Genéricos Son los dominios básicos en Internet y los más utilizados a nivel mundial.
Están organizados de forma conceptual según sus terminaciones. Ejemplo: (.COM .NET .ORG .INFO .ASIA .PRO .CAT)
2. Protocolos Los protocolos, son reglas de comunicación que permiten el flujo de información entre equipos que manejan
lenguajes distintos, por ejemplo, dos computadores conectados en la misma red pero con protocolos diferentes no podrían
comunicarse jamás, para ello, es necesario que ambas “hablen” el mismo idioma. Tipos de Protocolos • TCP/IP (Transmisión
Control Protocolo/Internet Protocolo) Fueron los dos primeros en definirse, y que son solos más utilizados de la familia. •
UDP (User Datagram Protocol) Permite el envió de datagramas a través de la red sin que se haya establecido previamente
una conexión. • DHCP (Dynamic Host Configuration Protocolo) Es un protocolo de red que permite a los nodos de una red IP
obtener sus parámetros de configuración automáticamente. • HTTP (Hypertext Transfer Protocol) Es el que se utiliza para
acceder a las páginas web. • FTP (File Tranfer Protocol) Es usado para transferencia de archivos. • SSH (Secure Shell Remote
Protocol) Sirve para acceder a maquinas remotas a través de una red. • IMAP (Internet Message Access Protocol) Es un
protocolo de red de acceso a mensajes electrónicos almacenados en un servidor.
3. Hardware Es un aparato informático que facilita el uso de una red informática.
Tipos de Hardware
• Router Es un dispositivo que conecta dos redes locales y es el responsable de controlar el tráfico entre ellas y calificarlas. •
Bridge o puente Es una unidad funcional que interconecta dos redes de área local que utilizan el mismo protocolo de enlace
lógico, pero distintos protocolos de control de acceso al medio. • Adaptador RDSI Esta red facilita conexiones digitales
extremo a extremo para proporcionar una amplia gama de servicios y la que los usuarios acceden a través de un conjunto de
interfaces normalizadas. • HUB o Concentrador Es un elemento de hardware que permite conectar el tráfico de red que
proviene de múltiples ordenadores y regenera la señal. • Adaptador Ethernet Es un dispositivo hardware que permite
conectividad a equipos de red inalámbrica. • Módems Se encarga de modular y desmodular la señal de internet es decir que
interpreta dicha señal que llega a él y la envía de forma directa. • Switche Los puertos son los elementos del switch que
permite conexión al mismo. • Gateway o puerta de enlace Es un dispositivo con frecuencia un ordenador que permite
interconectar redes de protocolos y arquitecturas diferentes a todos los niveles de comunicación. • Firewalls o contrafuego
Proporciona un modo de filtrar la información que se comunica a través de la conexión de red. • Tarjeta de interfaz de red Es
el software específico de red que se comunica en el controlador de dispositivo de red y la capa IP.
Página 5 de 20
INTERNET 2
El internet 2 es una red telemática que fue originada por un grupo de universidades en Norteamérica, fue creada con la idea
de tener páginas para compartir información si las molestas páginas comerciales. . Con Internet 2, se potencia el intercambio
de información académica mejorando los sistemas educativos y permitiendo desarrollos tecnológicos importantes.
Principales diferencias entre Internet e Internet 2
• La diferencia de usuarios Una notable diferencia, puesto que, Internet 2 es solo utilizado como una red de pruebas entre
universidades, empresas y dependencias de gobiernos registrados, mientras que, Internet es utilizada por cualquier tipo de
usuario para compartir información.
• La velocidad de transferencia Ya que, al estar Internet 2 implementado bajo el uso de la fibra óptica como principal medio
de transferencia, las velocidades de carga y descarga son mayores a las a la proporcionadas por la Internet.
• El origen Puesto que, Internet 2 nace con fines educativos, y de mejoramiento de las aplicaciones existentes, sobre todo en
mejorar calidad de transferencia de audio y video, mientras que el Internet se originó con fines militares.
• El futuro de cada red Debido a que Internet tiende a desaparecer tal cual lo conocemos, migrando a utilizar las tecnologías
desarrolladas para Internet 2 como el nuevo protocolo IPv6, sustituyendo así paulatinamente a su antecesor y quedando
instaurada como la plataforma única para la transferencia de información a través del ciberespacio.
Servicios de Internet 2
• Bibliotecas digitales, con capacidad para almacenar y recuperar a distancia contenidos en audio y video, para escanear
imágenes con aparición instantánea en la pantalla, y dotadas de nuevos procedimientos de visualización de datos.
• Entornos de colaboración, a través del soporte a laboratorios virtuales, instrumentación remota, telemetría, discusiones en
tiempo real con apoyo de audio, video, texto y pizarra electrónica.
• Entornos de inmersión, con el uso de presencia virtual en tres dimensiones, gracias a recursos masivos de
supercomputación. Procedimientos de instrucción musical con alta fidelidad multicanal, interactividad para la improvisación
y la sincronización de audio, video y anotaciones.
• Telemedicina, incluyendo el diagnóstico remoto y el seguimiento a distancia de enfermos crónicos
• Computación de alta intensidad de datos, para aplicaciones de correlación entre las ciencias físicas y las sociales.
Aplicaciones administrativas, gracias a bases de datos compartidas y a modelos en 3D.
Por último, están los programas requeridos para administrar y poner en funcionamiento el hardware de comunicaciones, y que
incluye el Sistema Operativo de Redes (NOS, del inglés Network Operating System), el cual además de sostener el
funcionamiento de la red le brinda soporte de antivirus y firewall; y los protocolos comunicativos (como los TCP e IP) que
permiten a las máquinas “hablar” el mismo idioma.
Página 7 de 20
También suele clasificarse según su tecnología con que estén conectados los computadores de la siguiente manera:
Desventajas
Las TICS
TIC es una sigla que significa Tecnología de la Información y la Comunicación. Últimamente las TICs aparecen en los medios de
comunicación, en educación, en páginas web.
Este concepto hace referencia a las teorías, las herramientas y las técnicas utilizadas en el tratamiento y la transmisión de la
información: informática, internet y telecomunicaciones.
La información: se refiere en este contexto a la transferencia de datos de un modo innovador, los cuales abarcan textos,
imágenes y audio.
La comunicación: se refiere a las herramientas que permiten que el mensaje enviado por el emisor sea correctamente
descifrado por el receptor. Por ejemplo, las plataformas de información al usuario.
Las TIC son el conjunto de tecnologías desarrolladas en la actualidad para una información y comunicación más eficiente, las
cuales han modificado tanto la forma de acceder al conocimiento como las relaciones humanas. Han transformado los
parámetros de obtención de información por medio de las tecnologías de la comunicación (diario, radio y televisión), a través
del desarrollo de Internet y de los nuevos dispositivos tecnológicos como la computadora, la tableta y el smartphone, así como
las plataformas y softwares disponibles.
Ejemplos de TICS.
– Skype: Servicio de video llamadas.
– Bizum: Sistema español de pagos instantáneos entre particulares y compras comerciales.
– GPS: Sistema de navegación y localización que funciona mediante satélites.
– Bluetooh: Red inalámbrica que permite la transmisión de datos entre dispositivos.
– Mensajería instantánea: Forma de comunicación en tiempo real entre los usuarios de los dispositivos digitales.
– Blogspot: Gestor de contenidos digitales utilizado por blogs.
– Youtube: Plataforma de videos de entretenimiento, noticias y educativos.
– Robot aspirador: Sistema de limpieza robótico con programación inteligente para un uso autónomo.
– Alexa: Asistente virtual inteligente.
Página 10 de 20
EN SERIE:
La comunicación en serie toma una comunicación de datos, la fragmenta en pedazos pequeños, y envía el mensaje un bit a la
vez, a través de un canal. El receptor recoge los pequeños trozos y los vuelve a ensamblar para componer el mensaje original.
La comunicación en serie es el tipo más común de comunicación entre dispositivos electrónicos.
Clasificación de los Protocolos de Enlace de Datos
De acuerdo a su estructura
Protocolos Orientados a Bit: son aquellos protocolos en los cuales los bits por sí solos pueden proveer información, son
protocolos muy eficientes y trabajan en tramas de longitud variable.
Protocolos Orientados a Byte: son aquellos en los que la información viene provista por la conjunción de bytes de
información y bytes de control.
De acuerdo a su diciplina de comportamiento
Protocolos de Sondeo Selección: son aquellos que utilizan un DTE como nodo principal de canal. Este nodo primario controla
todas las demás estaciones y determina si los dispositivos pueden comunicarse y, en caso afirmativo, cuando deben hacerlo.
Protocolos Peer to Peer: son aquellos en los cuales ningún nodo es el principal, y por lo general todos los nodos poseen la
misma autoridad sobre el canal.
SOFTWARE DE PRODUCTIVIDAD
Son programas que ayudan en las tareas básicas. Se entiende la productividad como: la relación, en términos económicos,
entre lo producido y los medios empleados. En otras palabras, productividad se refiere al manejo de recursos para
llegar a la realización óptima de una meta; ya sea en términos de producto=ganancia o esfuerzo=recompensa. La tecnología
avanza día a día especializándose en las áreas más diversas, esto porque su objetivo es satisfacer las necesidades del usuario.
FUNCIONES
• Gestionar plazos y prioridades en función de objetivos.
• Organizar proyectos en tareas, subtareas y calendarios.
• Asignar y administrar funciones
• Medir el rendimiento de sus empleados.
• Agilizar la comunicación entre usuarios, mandar mensajes y compartir archivos.
• Registrará y notificar avances, nuevos estados e incidencias.
• Supervisar las tareas diarias y la evolución del trabajo individual y del equipo.
• Sincronizar de manera automática las actualizaciones que cada usuario en tiempo real.
• Monitorizar el tiempo invertido en cada gestión y proyecto.
• Integrar la herramienta con otro software de comunicación y colaboración: Gmail, Google, Drive, Dropbox, Slack, etc
Página 11 de 20
• Software de productividad para trabajos administrativos
El software de productividad para trabajos administrativos: son gestores de tareas que cumplen las funciones de digitalizar y
automatizar procesos del área administrativa como son la facturación y el cobro a clientes.
Este tipo de software de productividad es esencial para las firmas de abogados, ya que los letrados suelen gastar muchas horas
de trabajo en gestionar manualmente las tareas administrativas, lo que hace que sus niveles de productividad disminuyan.
• Software de productividad para trabajos jurídicos
El software de productividad para trabajos jurídicos: son aquellos que digitalizan y automatizan ciertos procesos del área legal.
Por ejemplo, hay programas de productividad que realizan de manera automática la redacción de documentos o la revisión
de contratos, y hay algunos que digitalizan la gestión de procesos judiciales vía online.
Este tipo de software de productividad entra en la categoría de lo que se conoce como legaltech, y su impacto positivo en las
firmas de abogados es tremendo. Gracias a estas tecnologías, los letrados pueden acelerar el desarrollo de los procesos
jurídicos más simples, lo cual les permite contar con más tiempo disponible para poder dedicarse personalmente a los procesos
más complejos.
Softwares que pueden subirle el nivel a la productividad en el ámbito profesional
Office 365
Los potentes paquetes de softwares de productividad de Microsoft, como ser las más habituales: Excel, PowerPoint o Word,
también OneDrive, Skype y Project.
Página 12 de 20
6. Wunderlist
Esta se ha consolidado como una herramienta ideal para gestión de proyectos, debido su capacidad de planificar y registrar
tareas y actividades de manera sencilla, lo que a su vez ayuda a optimizar el tiempo.
Página 13 de 20
9. Dropbox 10. evernote
VIRUS
Un virus informático es una amenaza programada, es decir, es un pequeño programa escrito intencionadamente para instalarse
en el ordenador de un usuario sin el conocimiento o el permiso de este. Decimos que es un programa parásito porque el
programa ataca a los archivos o al sector de "arranque" y se replica a sí mismo para continuar su propagación. Algunos se
limitan solamente a replicarse, mientras que otros pueden producir serios daños que pueden afectar a los sistemas. No
obstante, absolutamente todos cumplen el mismo objetivo: PROPAGARSE. (definicion, 2020) En un virus informático, podemos
distinguir 3 módulos:
Módulo de reproducción - Es el encargado de manejar las rutinas de "parasitación" de entidades ejecutables (o archivos de
datos, en el caso de los virus macro) a fin de que el virus pueda ejecutarse de forma oculta intentando pasar desapercibido
ante el usuario. Pudiendo, de esta forma, tomar control del sistema e infectar otras entidades permitiendo la posibilidad de
traslado de un ordenador a otro a través de algunos de estos archivos.
Módulo de ataque - Este módulo es optativo. En caso de estar presente es el encargado de manejar las rutinas de daño adicional
del virus. Por ejemplo, algunos virus, además de los procesos dañinos que realizan, poseen un módulo de ataque que por
ejemplo se activa un determinado día. La activación de este módulo, implica la ejecución de una rutina que implica daños
dispares en nuestro ordenador.
Módulo de defensa - Este módulo, como su nombre indica tiene la misión de proteger al virus. Su presencia en la estructura
del virus es optativa, al igual que el módulo de ataque. Sus rutinas apuntan a evitar todo aquello que provoque la eliminación
del virus y retardar, en todo lo posible, su detección. (definicion, 2020)
Página 2 de 20
destrucción es muy superior a los demás y de alto riesgo para nuestros datos, su tamaño es más grande a cambio de
tener muchas más opciones de propagarse e infección de cualquier sistema.
• Macrovirus o Virus de Macro
Son los virus más populares de la actualidad. No se transmiten a través de archivos ejecutables, sino a través de los
documentos de las aplicaciones que poseen algún tipo de lenguaje de macros. Las aplicaciones que actualmente
permiten el contagio de estos virus todas las pertenecientes al paquete Office (Word, Excel, Power Point, Access) y
también el Corel Draw, o AutoCAD.
• De correo electrónico
El virus llega al correo de un ordenador, se instala en él, toma la libreta de direcciones y se auto envía a todas las direcciones
de correo que figuren en la Libreta de Direcciones. Al llegar a otro ordenador se vuelve a auto enviar a todas las direcciones
que figuren en él, y así sucesivamente. Para activar la propagación utilizan diferentes métodos, por ejemplo, una fecha
determinada como el conocido viernes 13, o cada vez que se arranca el ordenador, o cada vez que se arranca el correo,
etc.
Antivirus
Software antivirus es una aplicación independiente o un conjunto de programas que detectan y eliminan virus de ordenadores
y redes. El software antivirus moderno también protege sus dispositivos contra todo tipo de malware sin que eso afecte la
velocidad y el rendimiento.
Página 2 de 20
Algunos de los mecanismos que usan los antivirus para detectar virus son:
• Firma de virus. El antivirus dispone de una base de datos en las que almacena firmas de virus. En el pasado estas firmas
eran hashes con los que se intentaba ajustar todos los ficheros del equipo analizado. Esta medida es fácil de eludir
cambiando cualquier instrucción del código y el hash resultante no coincidiría con ninguna firma de la base de datos.
No tardó en sofisticarse esa técnica y se empezó a intentar buscar una secuencia de bytes concreta en cada muestra
de malware que lo identificara, así de esta manera, tendrías que saber que parte del código es con la que han
identificado tu binario para modificarla y no ser detectable. Para luchar contra estas firmas en los malware se
emplearon codificadores modificaban todo el código del binario. La debilidad de estos sistemas es que en el código
hay que añadir las instrucciones necesarias para el desempaquetado del código y eso puede generar firmas que
identifiquen un binario como potencialmente malicioso.
• Detección heurística. Consiste en el escaneo de los archivos buscando patrones de código que se asemejan a los que
se usan en los virus. Ya no es necesaria una coincidencia exacta con una firma de virus almacenada si no que se buscan
similitudes más generales aplicando algoritmos.
• Detección por comportamiento: consiste en escanear el sistema tras detectar un fallo o mal funcionamiento. Por lo
general, mediante este mecanismo se pueden detectar software ya identificado o no, pero es una medida que se usa
tras la infección.
• Detección por caja de arena (o sandbox): consiste en ejecutar el software en máquinas virtuales y determinar si el
software ejecuta instrucciones maliciosas o no. A pesar de que este mecanismo es seguro, toma bastante tiempo
ejecutar las pruebas antes de ejecutar el software en la máquina real.
LA DEEP WEB
Lo que encuentras dentro de la red profunda… La Deep web tiene un lado oscuro: la Dark Web. Debido a su carácter oculto,
nadie sabe exactamente lo que hay en esta web, pero mucho de su contenido es ilegal. Se trafica con armas, dinero, droga y
se llevan a cabo todo tipo de actividades ilegales, desde intercambiar material pedófilo a contratar a un asesino a sueldo. Los
peligros de la Deep Web Descargar cualquier contenido de una página de la Deep Web confiere un enorme riesgo, pues muy
Página 3 de 20
probablemente contendrá software malicioso, como spyware, troyanos y ransomware. Además, podrías recibir amenazas y
ser culpable de algún tipo de delito como cómplice. (republica, 2019) ¿Quién es el creador de la Deep Web? La principal causa
de la existencia de la Internet profunda es la imposibilidad de los motores de búsqueda. La Deep Web no la creó nadie, pues
ha existido desde que existe Internet, puede ser algo tan simple como una página en un sitio web que no tiene un enlace
público desde otra página. Un claro ejemplo de web profunda es tu correo electrónico, porque tus emails no aparecen en
Google o Bing cuando se hace la búsqueda.¿Qué es la Dark Web? Si la Deep Web es el 90% de Internet, la Dark Web ocuparía
únicamente el 0,1% de ella. Es una porción de Internet intencionalmente oculta a los motores de búsqueda, con direcciones IP
enmascaradas y accesibles sólo con un navegador web especial. Por lo tanto, la Dark Web forma parte de la Deep Web, pero
son cosas diferentes. Bitcoin para Deep Web El Bitcoin es una moneda virtual que no está controlada por ningún gobierno.
Utilizando los bitcoins en la Deep Web se puede comprar cosas ilegales de forma anónima. Para su funcionamiento Bitcoin
utiliza toda una infraestructura tecnológica que le permite funcionar sin ningún tipo de entidad central, es decir, es una moneda
que no tiene un Banco Central. Con Bitcoin podemos enviar y recibir dinero a través de Internet, a cualquier persona en el
mundo y totalmente gratis, pero ¿cómo funciona? Para enviar y recibir Bitcoins es necesario descargar e instalar una aplicación
en tu computadora que será equivalente a tu billetera en el mundo off-line donde colocas tu dinero en efectivo.
¿Cómo surgió la internet profunda? El concepto de Deep Web o Internet Profunda se creó en 1994. En ese entonces se le
conocía como 'Web invisible'. Desde siempre, en esta parte de la Internet se encontraban contenidos de carácter peligroso
como, por ejemplo, webs ilegales, páginas de ventas de armas o drogas o páginas de pornografía infantil.
¿Cuántos niveles tiene la Deep Web? La Deep Web tiene cinco niveles de información. Estos son: - Nivel 1: Aquí se encuentran
las páginas más comunes de la red y redes sociales. - Nivel 2: conformado por páginas para descarga de materiales pirata y
foros con material explícito. Ejemplo: Taringa y Mega. pág. 7 - Nivel 3: compuesto por torrents o información de archivos,
además de descargas masivas: Ejemplo: BitTorrent. - Nivel 4: En este nivel es necesario el uso de Tor. Aquí puedes encontrar
Hidden Wiki, así como libros y material de descarga. - Nivel 5: Se visualizan foros Onion Chan, portales con material
pornográfico infantil, hackers a sueldo, venta de objetos robados y drogas. Existe una leyenda urbana sobre la existencia de un
sexto nivel al que denominan Marianas Web, en referencia a las islas del mismo nombre y que tienen cerca de 11 kilómetros
de profundidad. Se dice que ahí se encuentran las páginas web gubernamentales restringidas.
Internet invisible o Internet oculta es el contenido de Internet que no está indexado por los motores de búsqueda
convencionales. Se estima que el 96% de la información que hay en Internet no es accesible por los buscadores estándar. la
Web Profunda es aquella en la que las páginas cambian constantemente de ubicación, de tal forma que incluso su dirección
está encriptado, y una URL de esta parte de Internet no tiene el formato habitual
Este lugar es un repositorio de diferentes páginas web que tienen algún contenido que no puede ser mostrado tanto en Google
como otros buscadores conocidos a nivel mundial debido a que, en su mayoría, infringen la ley de servicios y noticias en
Internet.
Cuando nos referimos a cosas que infringen la ley, vamos a lo peor que puede existir en el mundo. Las cosas van desde el tráfico
de drogas hasta la compra de asesinato, así como la venta de seres humanos hasta pornografía infantil. En la Deep Web está
lo más nefasto de la red y lo que casi nadie quisiera encontrar.
3.- Contenido perturbador e indeseable: Existen muchas imágenes filtradas de la deep web en Internet que tú mismo o tú
misma puedes buscar. Numerosos crímenes son perpetuados en todo el mundo, de estos muchos son recogidos por la deep
Página 4 de 20
web. Este es el verdadero motivo por el cual no muchos se atreven a echar un vistazo; no será muy difícil encontrarte imágenes
de crímenes como mutilaciones, asesinatos o violaciones.
BIG DATA
Cuando hablamos de Big Data nos referimos a conjuntos de datos o combinaciones de conjuntos de datos cuyo tamaño
(volumen), complejidad (variabilidad) y velocidad de crecimiento (velocidad) dificultan su captura, gestión, procesamiento o
análisis mediante tecnologías y herramientas convencionales, tales como bases de datos relacionales y estadísticas
convencionales o paquetes de visualización, dentro del tiempo necesario para que sean útiles.
Lo que hace que Big Data sea tan útil para muchas empresas es el hecho de que proporciona respuestas a muchas preguntas
que las empresas ni siquiera sabían que tenían. En otras palabras, proporciona un punto de referencia. Con una cantidad tan
grande de información, los datos pueden ser moldeados o probados de cualquier manera que la empresa considere adecuada.
Al hacerlo, las organizaciones son capaces de identificar los problemas de una forma más comprensible.
La recopilación de grandes cantidades de datos y la búsqueda de tendencias dentro de los datos permiten que las empresas se
muevan mucho más rápidamente, sin problemas y de manera eficiente. También les permite eliminar las áreas problemáticas
antes de que los problemas acaben con sus beneficios o su reputación.
CARACTERISTICAS
Página 5 de 20
Las características más importantes del Big Data perfectamente se pueden clasificar en cuatro magnitudes, más conocidas
como las cuatro V del Big Data, relativas a volumen, variedad, velocidad y veracidad. A estas cuatro V, podemos añadir tres
más, como pueden ser la de Viabilidad y Visualización. Pero si hablamos de V en Big Data no podemos dejar pasar la principal
característica del análisis de datos que es la V de Valor de los datos. Así pues, en los últimos artículos se empieza a hablar, ya
no de las tradicionales cuatro V de Big Data, sino de las 7 “V” del Big Data:
1. Volumen de información
El volumen se refiere a la cantidad de datos que son generados cada segundo, minuto y días en nuestro entorno. Es la
característica más asociada al Big Data, ya que hace referencia a las cantidades masivas de datos que se almacenan con la
finalidad de procesar dicha información, transformando los datos en acciones.
Cada vez estamos más conectados al mundo 2.0 por lo que generamos más y más datos. Para algunas empresas, el estar en el
mundo digital es algo obligatorio, por lo que la cantidad de datos generados es aún mayor. Por ejemplo, una empresa que
vende sus productos únicamente a través de un canal online, le convendría implantar tecnología Big Data para procesar toda
aquella información que recoge su página web rastreando todas las acciones que lleva a cabo el cliente; conocer donde cliquea
más veces, cuántas veces ha pasado por el carrito de la compra, cuáles son los productos más vistos, las páginas más visitadas,
etc.
5. Viabilidad
La inteligencia empresarial es un componente fundamental para la viabilidad de un proyecto y el éxito empresarial. Se trata de
la capacidad que tienen las compañías en generar un uso eficaz del gran volumen de datos que manejan.
La inteligencia competitiva también se asocia con la innovación de los equipos de trabajo y el uso de tecnologías empleadas.
Una empresa inteligente analiza, selecciona y monitoriza la información con el fin de conocer mejor el mercado en el que
opera, a sus clientes y diseñar estrategias eficaces.
Es necesario filtrar a través de esta información y seleccionar cuidadosamente los atributos y factores que son capaces de
predecir los resultados que más interesan a las empresas. El secreto del éxito es descubrir las relaciones entre las variables
ocultas.
Una vez que conoces la viabilidad de tu organización, es el momento de detallar el proyecto en una hoja de ruta, y desarrollar
el plan de negocio.
Página 6 de 20
Cuando hablamos de visualización nos referimos al modo en el que los datos son presentados. Una vez que los datos son
procesados (los datos están en tablas y hojas de cálculo), necesitamos representarlos visualmente de manera que sean legibles
y accesibles, para encontrar patrones y claves ocultas en el tema a investigar. Para que los datos sean comprendidos existen
herramientas de visualización que te ayudarán a comprender los datos gráficamente y en perspectiva contextual.
Página 7 de 20