Está en la página 1de 12

UNIVERSIDAD NACIONAL

PEDRO RUIZ GALLO

ESCUELA DE POSTGRADO

MAESTRIA EN CIENCIAS CON MENCION EN


CONTROL Y AUDITORIA EN LA GESTION
GUBERNAMENTAL

CURSO:
SISTEMA DE INFORMACION Y ADMINISTRACION FINANCIERA

DOCENTE:
Dr. JUAN CARLOS MIRANDA ROBLES

TRABAJO:
TECNOLOGIAS DE LA INFORMACION

ALUMNOS:
 CUMPA VIEYRA, CARLOS ENRIQUE
 DÍAZ ZEÑA, KATYA LIZBETH
 GONZALES CUEVA, ADELINA FIORELLA
 PAJUELO BUSTAMANTE, MARCO ANTONIO
 VÁSQUEZ CORONADO, JOSÉ DAVID

LAMBAYEQUE – 2019
1. CLOUD COMPUTING

Conocida también como servicios en la nube, informática en la nube, nube de cómputo, nube de
conceptos o simplemente «la nube», es un paradigma que permite ofrecer servicios de computación a
través de una red, que usualmente es Internet.
La computación en la nube son servidores desde Internet encargados de atender las peticiones en
cualquier momento. Se puede tener acceso a su información o servicio, mediante una conexión a internet
desde cualquier dispositivo móvil o fijo ubicado en cualquier lugar. Sirven a sus usuarios desde varios
proveedores de alojamiento repartidos frecuentemente por todo el mundo. Esta medida reduce los costos,
garantiza un mejor tiempo de actividad y que los sitios web sean invulnerables a los delincuentes
informáticos, a los gobiernos locales y a sus redadas policiales pertenecientes.

Comienzos
El concepto de la computación en la nube empezó en proveedores de servicio de Internet a gran escala,
como Google (Google Cloud Services), Amazon AWS (2006), Microsoft (Microsoft Azure) o Alibaba
Cloud y otros que construyeron su propia infraestructura. De entre todos ellos emergió una arquitectura:
un sistema de recursos distribuidos horizontalmente, introducidos como servicios virtuales de TI
escalados masivamente y manejados como recursos configurados y mancomunados de manera continua.
Este modelo de arquitectura fue inmortalizado por George Gilder en su artículo de octubre de 2006 en la
revista Wired titulado «Las fábricas de información». Las granjas de servidores, sobre las que escribió
Gilder, eran similares en su arquitectura al procesamiento “grid” (red, rejilla), pero mientras que las redes
se utilizan para aplicaciones de procesamiento técnico débilmente acoplados (loosely coupled), un
sistema compuesto de subsistemas con cierta autonomía de acción, que mantienen una interrelación
continua entre ellos, este nuevo modelo de nube se estaba aplicando a los servicios de Internet.

Características

 Agilidad: Capacidad de mejora para ofrecer recursos tecnológicos al usuario por parte del
proveedor.
 Costo: Los recursos en la nube suelen tener costos menores a los que un aprovisionamiento
físico local podría representar.
 Escalabilidad y elasticidad: Aprovisionamiento de recursos sobre una base de autoservicio casi
en tiempo real, sin que los usuarios necesiten cargas de alta duración.
 Independencia entre el dispositivo y la ubicación: Permite a los usuarios acceder a los
sistemas utilizando un navegador web.
 La tecnología de virtualización permite compartir servidores y dispositivos de almacenamiento y
una mayor utilización.
 Rendimiento: Los sistemas en la nube controlan y optimizan el uso de los recursos de manera
automática, dicha característica permite un seguimiento, control y notificación del mismo.
 Seguridad: Puede mejorar debido a la centralización de los datos. La seguridad es a menudo tan
buena o mejor que otros sistemas tradicionales, en parte porque los proveedores son capaces de
dedicar recursos a la solución de los problemas de seguridad que muchos clientes no pueden
permitirse el lujo de abordar.
 Mantenimiento: En el caso de las aplicaciones de computación en la nube, es más sencillo, ya
que no necesitan ser instalados en el ordenador de cada usuario y se puede acceder desde
diferentes lugares.

VENTAJAS DESVENTAJAS
Se puede integrar con mucha mayor facilidad y La centralización de las aplicaciones y el
rapidez con el resto de las aplicaciones almacenamiento de los datos origina una
empresariales. interdependencia de los proveedores de servicios.
Proporcionan mayor capacidad de adaptación, La disponibilidad de las aplicaciones está sujeta a
recuperación completa de pérdida de datos. la disponibilidad de acceso a Internet.
Permite también al proveedor de contenidos o La disponibilidad de servicios altamente
servicios en la nube prescindir de instalar especializados podría tardar meses o incluso años
cualquier tipo de software. para que sean factibles de ser desplegados en la
red.
Implementación más rápida y con menos riesgos. La madurez funcional de las aplicaciones hace
que continuamente estén modificando sus
interfaces.
Actualizaciones automáticas que no afectan La información de la empresa debe recorrer
negativamente a los recursos de TI. diferentes modos para llegar a su destino, cada
uno de ellos (y sus canales) son un foco de
inseguridad.
Contribuye al uso eficiente de la energía Escalabilidad a largo plazo. A medida que más
usuarios empiecen a compartir la infraestructura
de la nube.

Video ilustrativo:
https://www.youtube.com/watch?v=WaxaOlnd_xE

2. INTERNET DE LAS COSAS

Es un concepto que se refiere a una interconexión digital de objetos cotidianos con internet. Es, en
definitiva, la conexión de internet más con objetos que con personas. También se suele conocer como
internet de todas las cosas o internet en las cosas. Si los objetos de la vida cotidiana tuvieran incorporadas
etiquetas de radio, podrían ser identificados y gestionados por otros equipos de la misma manera que si lo
fuesen por seres humanos.

El concepto de internet de las cosas fue propuesto en 1999, por Kevin Ashton, en el Auto-ID Center del
MIT, en donde se realizaban investigaciones en el campo de la identificación por radiofrecuencia en red
(RFID) y tecnologías de sensores.

El internet de las cosas debería codificar, en teoría, de 50 a 100 000 millones de objetos y seguir el
movimiento de estos. Se calcula que todo ser humano está rodeado, al menos, por un total de
aproximadamente 1000 a 5000 objetos. Por un lado, según la empresa Gartner, en 2020 habrá en el
mundo aproximadamente 26 mil millones de dispositivos con un sistema de conexión a internet de las
cosas. Abi Research, por otro lado, afirma que para el mismo año existirán 30 mil millones de
dispositivos inalámbricos conectados a internet. Con la próxima generación de aplicaciones de internet
(protocolo IPv6) se podrían identificar todos los objetos, algo que no se podía hacer con IPv4. Este
sistema sería capaz de identificar instantáneamente por medio de un código a cualquier tipo de objeto.

Aplicaciones
Las aplicaciones para dispositivos conectados a internet son amplias. Múltiples categorías han sido
sugeridas, pero la mayoría está de acuerdo en separar las aplicaciones en tres principales ramas de uso:
consumidores, empresarial, e infraestructura. George Osborne, ex miembro del gabinete encargado de
finanzas, propone que la IoT es la próxima etapa en la revolución de la información, refiriéndose a la
interconectividad de todo: desde el transporte urbano hasta dispositivos médicos, pasando por
electrodomésticos.

 Aplicaciones de consumo
Un porcentaje creciente de los dispositivos IoT son creados para el consumo. Algunos ejemplos
de aplicaciones de consumo incluyen: automóviles conectados, entretenimiento, automatización
del hogar, tecnología vestible, salud conectada y electrodomésticos como lavadoras, secadoras,
aspiradoras robóticas, purificadores de aire, hornos, refrigeradores que utilizan Wi-Fi para
seguimiento remoto.

 Empresarial
El término "IoT empresarial" (EIoT, por sus siglas en inglés) se usa para referirse a todos los
dispositivos en el ambiente de los negocios y corporativo. Para 2019, se estima que EIoT
comprenderá cerca de un 40% o 9.1 millardos de dispositivos.
 Medios
Los medios utilizan el internet de las cosas principalmente para mercadeo y estudiar los hábitos
de los consumidores. Estos dispositivos recolectan información útil sobre millones de individuos
mediante segmentación por comportamiento.

Administración de infraestructura

El seguimiento y control de operaciones de infraestructura urbana y rural como puentes, vías férreas y
parques eólicos, es una aplicación clave de IoT. La infraestructura de IoT puede utilizarse para seguir
cualquier evento o cambio en las condiciones estructurales que puedan comprometer la seguridad e
incrementar el riesgo.

Otros campos de aplicación

 Agricultura
La población mundial alcanzara los 9700 millones en 2050 según la organización de naciones
unidas. Por lo tanto, para alimentar a esta gran cantidad de población la industria agrícola debe
adoptar el IoT.

 Medicina y salud
Los dispositivos de IoT pueden utilizarse para el rastreo remoto de pacientes y sistemas de
notificación de emergencias.

 Transporte
IoT puede asistir a la integración de comunicaciones, control y procesamiento de información a
través de varios sistemas de transporte, ofreciendo soluciones a los múltiples desafíos que se
presentan en toda la cadena logística.

 Industria
Cuando IoT se incorpora al entorno industrial y de fabricación, se le conoce como Industrial
Internet of Things. El IIoT es una subcategoría muy importante del IoT, pues consiste en
conectar sensores inteligentes a Internet y usar esa información para tomar mejores decisiones
comerciales.

Accesibilidad universal a las cosas mudas


Una visión alternativa, desde el mundo de la Web semántica, se centra más bien en hacer que todas las
cosas (no solo las electrónicas, inteligentes o RFID) tengan una dirección basada en alguno de los
protocolos existentes, como el URI. Los objetos no se comunican, pero de esta forma podrían ser
referenciados por otros agentes, tales como potentes servidores centralizados que actúen para sus
propietarios humanos.

Obviamente, estos dos enfoques convergen progresivamente en direccionables y en más inteligentes. Esto
es poco probable que suceda en situaciones con pocos spimes (objetos que pueden ser localizados en todo
momento), y mientras tanto, los dos puntos de vista tienen implicaciones muy diferentes. En particular, el
enfoque universal de direccionamiento incluye cosas que no pueden tener comportamientos de
comunicación propios, como resúmenes de documentos.

Internet 0
Es un nivel o capa física de baja velocidad diseñada con el fin de asignar “direcciones IP sobre cualquier
cosa”. Fue desarrollado en el Centro de Bits y Átomos del MIT por Neil Gershenfeld, Raffi Krikorian y
Danny Cohen. Cuando se inventó, se estaban barajando otros nombres, y finalmente se nombró así para
diferenciarlo del “Internet2” o internet de alta velocidad. El nombre fue elegido para enfatizar que se
trataba de una tecnología lenta, pero al mismo tiempo, barata y útil.

Características
 Inteligencia
El internet de las cosas probablemente será "no determinista" y de red abierta (ciberespacio), en
la que entidades inteligentes auto-organizadas (servicio Web, componentes SOA) u objetos
virtuales (avatares) serán interoperables y capaces de actuar de forma independiente (que
persiguen objetivos propios o compartidos), en función del contexto, las circunstancias o el
ambiente. Se generará una inteligencia ambiental (construida en Computación ubicua).

 Arquitectura
El sistema será probablemente un ejemplo de "arquitectura orientada a evento, construida de
abajo hacia arriba (basada en el contexto de procesos y operaciones, en tiempo real) y tendrá en
consideración cualquier nivel adicional. Por lo tanto, el modelo orientado a eventos y el enfoque
funcional coexistirán con nuevos modelos capaces de tratar excepciones y la evolución insólita
de procesos.

 ¿Sistema caótico o complejo?


Es un sistema que funciona en semi-bucles abiertos o cerrados (es decir, las cadenas de valor,
siempre que sean una finalidad global pueden ser resueltas), por lo tanto, serán consideradas y
estudiadas como un Sistema complejo debido a la gran cantidad de enlaces diferentes e
interacciones entre agentes autónomos, y su capacidad para integrar a nuevos actores. En la
etapa global (de bucle abierto completo), probablemente esto será visto como una caótica
medioambiental (siempre que los sistemas tengan siempre finalidad).

 Consideraciones temporales
En este internet de los objetos, creado a partir de miles de millones de eventos paralelos y
simultáneos, el tiempo ya no será utilizado como una dimensión común y lineal, sino que
dependerá de la entidad de los objetos, procesos, sistema de información, etc. Este internet de las
cosas tendrá que basarse en los sistemas de TI en paralelo masivo (computación paralela).

Seguridad
La empresa Hewlett Packard realizó un estudio en 2015 reportando que, entre otros hallazgos respecto a
los dispositivos IoT, el 70% de ellos tiene vulnerabilidades de seguridad en sus contraseñas, además de
problemas con cifrado de datos o permisos de acceso. El 50% de las aplicaciones de dispositivos móviles
no encriptan las comunicaciones. La firma de seguridad Kaspersky Lab también realizó pruebas en
objetos conectados al IoT y encontró que una cámara de vigilancia para bebés podía ser "hackeada" para
robar el vídeo, así como que en una cafetera no encriptada se podía conocer la contraseña de la red WiFi a
la que estuviera conectada.

Privacidad, autonomía y control


Silvia Watts, autora y creativa digital, plantea el INTERNET DE LAS COSAS como la proliferación de
artefactos con la habilidad de comunicar y transmitir información entre todos, permitiendo nuevas
capacidades de comunicación, procesamiento de datos y acceso a la información. Generando así impacto
social y económico entre la sociedad consumidora de información. Sin embargo, las precauciones que se
deben tener son enormes, pues el acceso a la información de los usuarios puede implicar un control social
y una manipulación política.

Las preocupaciones y problemáticas alrededor de Iot han generado la creencia entre usuarios y
conocedores de que las estructuras big data como el internet de las cosas o el data mining, son
inherentemente incompatibles con la privacidad. El escritor Adam Greenfield asegura que estas
tecnologías no son únicamente una invasión al espacio público sino que también están siendo utilizadas
para perpetuar un comportamiento normativo, citando el caso de vallas publicitarias con cámaras
escondidas que rastreaban la demografía de los peatones que leían dicha publicidad

Video ilustrativo:
https://www.youtube.com/watch?v=VTs5y1QlEtk
3. BIG DATA

Los macrodatos, también llamados datos masivos, inteligencia de datos, datos a gran escala o big data
(terminología en idioma inglés utilizada comúnmente) es un término que hace referencia al concepto
relativo a conjuntos de datos tan grandes y complejos como para que hagan falta aplicaciones
informáticas no tradicionales de procesamiento de datos para tratarlos adecuadamente. Por ende, los
procedimientos usados para encontrar patrones repetitivos dentro de esos datos son más sofisticados y
requieren software especializado. En textos científicos en español con frecuencia se usa directamente el
término en inglés big data, tal como aparece en el ensayo de Viktor Schönberger La revolución de los
datos masivos.

El uso moderno del término "big data" tiende a referirse al análisis del comportamiento del usuario,
extrayendo valor de los datos almacenados, y formulando predicciones a través de los patrones
observados. La disciplina dedicada a los datos masivos se enmarca en el sector de las tecnologías de la
información y la comunicación. Esta disciplina se ocupa de todas las actividades relacionadas con los
sistemas que manipulan grandes conjuntos de datos. Las dificultades más habituales vinculadas a la
gestión de estas cantidades de datos se centran en la recolección y el almacenamiento, búsqueda,
compartición, análisis, y visualización. La tendencia a manipular enormes cantidades de datos se debe a la
necesidad, en muchos casos, de incluir dicha información para la creación de informes estadísticos y
modelos predictivos utilizados en diversas materias, como los análisis de negocio, publicitarios, los datos
de enfermedades infecciosas, el espionaje y seguimiento a la población o la lucha contra el crimen
organizado.

El término ha estado en uso desde la década de 1990, y algunos otorgan crédito a John Mashey por
popularizarlo. Big data o macrodatos es un término que hace referencia a una cantidad de datos tal que
supera la capacidad del software convencional para ser capturados, administrados y procesados en un
tiempo razonable. El volumen de los datos masivos crece constantemente. En el 2012, se estimaba su
tamaño de entre una docena de terabytes hasta varios petabyte de datos en un único conjunto de datos. En
la metodología MIKE2.0, dedicada a investigar temas relacionados con la gestión de información, definen
big data en términos de permutaciones útiles, complejidad y dificultad para borrar registros individuales.

Se ha definido también como datos lo suficientemente masivos como para poner de relieve cuestiones y
preocupaciones en torno a la efectividad del anonimato desde una perspectiva más práctica que teórica.

Características
Los macrodatos se pueden describir por las siguientes características:

 Volumen: La cantidad de datos generados y guardados.


 Variedad: El tipo y naturaleza de los datos para ayudar a las personas a analizar los datos y usar
los resultados de forma eficaz. Los macrodatos usan textos, imágenes, audio y vídeo. También
completan pedazos ¿Que pedazos? pedidos a través de la fusión de datos.
 Velocidad: En este contexto, la velocidad a la cual se generan y procesan los datos para cumplir
las exigencias y desafíos de su análisis.
 Veracidad: La calidad de los datos capturados puede variar mucho y así afectar a los resultados
del análisis.
 Valor: Los datos generados deben ser útiles, accionables y tener valor.

Análisis de datos
El análisis permite mirar los datos y explicar lo que está pasando. Teniendo los datos necesarios
almacenados según diferentes tecnologías de almacenamiento, nos daremos cuenta que necesitaremos
diferentes técnicas de análisis de datos como las siguientes:

Asociación: Permite encontrar relaciones entre diferentes variables. Bajo la premisa de causalidad, se
pretende encontrar una predicción en el comportamiento de otras variables. Estas relaciones pueden ser
los sistemas de ventas cruzadas en los comercios electrónicos.
Minería de datos (data mining): Tiene como objetivo encontrar comportamientos predictivos. Engloba
el conjunto de técnicas que combina métodos estadísticos y de aprendizaje automático con
almacenamiento en bases de datos. Está estrechamente relacionada con los modelos utilizados para
descubrir patrones en grandes cantidades de datos.

Agrupación (clustering): El análisis de clústeres es un tipo de minería de datos que divide grandes
grupos de individuos en grupos más pequeños de los cuales no conocíamos su parecido antes del análisis.
El propósito es encontrar similitudes entre estos grupos, y el descubrimiento de nuevos, conociendo
cuáles son las cualidades que lo definen. Es una metodología apropiada para encontrar relaciones entre
resultados y hacer una evaluación preliminar de la estructura de los datos analizados. Existen diferentes
técnicas y algoritmos de clusterización.

Análisis de texto (text analytics): Gran parte de los datos generados por las personas son textos, como
correos, búsquedas web o contenidos. Esta metodología permite extraer información de estos datos y así
modelar temas y asuntos o predecir palabras.

Visualización de datos
Tal y como el Instituto Nacional de Estadística dice en sus tutoriales, «una imagen vale más que mil
palabras o que mil datos». La mente agradece mucho más una presentación bien estructurada de
resultados estadísticos en gráficos o mapas en vez de en tablas con números y conclusiones. En los
macrodatos se llega un paso más allá: parafraseando a Edward Tufte, uno de los expertos en visualización
de datos más reconocidos a nivel mundial «el mundo es complejo, dinámico, multidimensional, el papel
es estático y plano. ¿Cómo vamos a representar la rica experiencia visual del mundo en la mera planicie?

Mondrian es una plataforma que permite visualizar la información a través de los análisis llevados a cabo
sobre los datos que disponemos. Con esta plataforma se intenta llegar a un público más concreto, y una
utilidad más acotada como un cuadro de mando integral de una organización. En los últimos años se han
generalizado otras plataformas como Tableau, Power BI y Qlik.

Por otro lado, las infografías se han vuelto un fenómeno viral, donde se recogen los resultados de los
diferentes análisis sobre nuestros datos, y son un material atractivo, entretenido y simplificado para
audiencias masivas.

Video ilustrativo:
https://www.youtube.com/watch?v=w4vsFKMO7XA

4. DATA WAREHOUSE
Un data warehouse es un repositorio unificado para todos los datos que recogen los diversos sistemas de
una empresa. El repositorio puede ser físico o lógico y hace hincapié en la captura de datos de diversas
fuentes sobre todo para fines analíticos y de acceso.

Normalmente, un data warehouse se aloja en un servidor corporativo o cada vez más, en la nube. Los
datos de diferentes aplicaciones de procesamiento de transacciones Online (OLTP) y otras fuentes se
extraen selectivamente para su uso por aplicaciones analíticas y de consultas por usuarios.
Data Warehouse es una arquitectura de almacenamiento de datos que permite a los ejecutivos de negocios
organizar, comprender y utilizar sus datos para tomar decisiones estratégicas. Un data warehouse es una
arquitectura conocida ya en muchas empresas modernas.

Estructuras de un Data Warehouse


La arquitectura de un data warehouse puede ser dividida en tres estructuras simplificadas: básica, básica
con un área de ensayo y básica con área de ensayo y data marts.

 Con una estructura básica, sistemas operativos y archivos planos proporcionan datos en bruto
que se almacenan junto con metadatos. Los usuarios finales pueden acceder a ellos para su
análisis, generación de informes y minería.
 Al añadir un área de ensayo que se puede colocar entre las fuentes de datos y el almacén, ésta
proporciona un lugar donde los datos se pueden limpiar antes de entrar en el almacén. Es posible
personalizar la arquitectura del almacén para diferentes grupos dentro de la organización.
 Se puede hacer agregando data marts, que son sistemas diseñados para una línea de negocio en
particular. Se pueden tener data marts separados para ventas, inventario y compras, por ejemplo,
y los usuarios finales pueden acceder a datos de uno o de todos los data marts del departamento.

Pasado y presente del Data Warehouse


Históricamente, los data warehouses se habían formado utilizando datos repetitivos estructurados que
eran filtrados antes de entrar en el data warehouse. Sin embargo, en los últimos años, el data warehouse
ha evolucionado debido a información contextual que ahora se puede adjuntar a los datos no estructurados
y que también puede ser almacenada.

Aquellos primeros datos relacionales estructurados no podían ser mezclados y emparejados para temas
analíticos con datos textuales no estructurados. Pero con el advenimiento de la contextualización, estos
tipos de análisis ahora sí pueden hacerse de forma natural y fácil.

En el data warehouse, datos no repetitivos, como los comentarios en una encuesta, correos electrónicos y
conversaciones, se tratan de forma diferente a las ocurrencias repetitivas de datos, como el flujo de clics,
mediciones o el procesamiento máquina o analógico. Los datos no repetitivos son datos basados en textos
que fueron generados por la palabra escrita o hablada, leída y reformateada y, lo que es más importante,
ahora puede ser contextualizada. Con el fin de extraer cualquier sentido de los datos no repetitivos para su
uso en el Data Warehouse, deben tener el contexto de los datos establecidos.

En muchos casos, el contexto de los datos no repetitivos es más importante que los datos en sí. En
cualquier caso, los datos no repetitivos no pueden utilizarse para la toma de decisiones hasta que se haya
establecido el contexto.

Data Warehouse en la nube


Los data warehouses están atravesando actualmente dos transformaciones muy importantes que tienen el
potencial de impulsar niveles significativos de innovación empresarial:

La primera área de transformación es el impulso para aumentar la agilidad general. La gran mayoría de
los departamentos de TI están experimentando un rápido aumento de la demanda de datos. Los directivos
quieren tener acceso a más y más datos históricos, mientras que al mismo tiempo, los científicos de datos
y los analistas de negocios están explorando formas de introducir nuevos flujos de datos en el almacén
para enriquecer el análisis existente, así como impulsar nuevas áreas de análisis. Esta rápida expansión de
los volúmenes y fuentes de datos significa que los equipos de TI necesitan invertir más tiempo y esfuerzo
asegurando que el rendimiento de las consultas permanezca constante y necesitan proporcionar cada vez
más entornos para equipos individuales para validar el valor comercial de los nuevos conjuntos de datos.

La segunda área de transformación gira en torno a la necesidad de mejorar el control de costes. Existe una
creciente necesidad de hacer más con cada vez menos recursos, al mismo tiempo que se garantiza que
todos los datos sensibles y estratégicos estén completamente asegurados, a lo largo de todo el ciclo de
vida, de la manera más rentable.

¿Por qué migrar a la nube?


Las 3 tecnologías que ya tienen y seguirán teniendo un gran impacto en la transformación de negocios
son: la nube, datos y análisis, e Internet de las Cosas. Estas tres tecnologías son parte clave del ecosistema
del data warehouse actual. Por lo tanto, es posible sacar la conclusión de que el data warehouse en la nube
tiene un gran potencial para generar un impacto significativo en los negocios.

La importancia de la nube para el data warehouse está directamente vinculado a tres factores clave:
 Mayor agilidad
 Mejor control de costes
 Co-localización

VENTAJAS INCONVENIENTES
Los almacenes de datos hacen más fácil el acceso A lo largo de su vida los almacenes de datos
a una gran variedad de datos a los usuarios pueden suponer altos costos.
finales.
Facilitan el funcionamiento de las aplicaciones de Los almacenes de datos se pueden quedar
los sistemas de apoyo a la decisión tales como obsoletos relativamente pronto.
informes de tendencia.
Los almacenes de datos pueden trabajar en A menudo existe una delgada línea entre los
conjunto y, por lo tanto, aumentar el valor almacenes de datos y los sistemas operacionales
operacional de las aplicaciones empresariales.

Video ilustrativo:
https://www.youtube.com/watch?v=jFsRdTcljeU

5. DATA ANALYTICS
El análisis de datos es un proceso que consiste en inspeccionar, limpiar y transformar datos con el
objetivo de resaltar información útil, para sugerir conclusiones y apoyo en la toma de decisiones. El
análisis de datos tiene múltiples facetas y enfoques, que abarca diversas técnicas en una variedad de
nombres, en diferentes negocios, la ciencia, y los dominios de las ciencias sociales. Los datos se
coleccionan y analizan para indagar en cuestiones, probar conjeturas o probar la invalidez de teorías.

La minería de datos es una técnica específica que se enfoca en ir modelando y descubriendo conocimiento
por propósitos predictivos en lugar de obtenerlo por propósitos descriptivos, mientras que la inteligencia
empresarial incluye análisis de datos que se apoyan en agregación, con el enfoque en información
empresarial.

El estadístico John Tukey definió el análisis de datos en 1961 de esta manera: "(Son los) Procedimientos
para analizar datos, (las) técnicas para interpretar los resultados de dichos procedimientos, (las) formas de
planear la recolección de datos para hacer el análisis más fácil, más preciso o más exacto."

El análisis de datos, en su estudio de la estructura de grandes conjuntos, es moderno pero los métodos de
análisis son de larga data. Quien introdujo por primera vez el método de análisis de factores fue Ch.
Spearman en 1904 (concepto de factor).

Métodos de análisis
Son varios los enfoques presentados, sin pretender ser una metodología estricta sino más bien inicial o
para exploración de campo, podemos mencionar las siguientes.

Análisis factorial lineal


 Análisis de componentes principales.
 Análisis de correspondencia binaria.
 Análisis de correspondencia múltiple.
 Análisis discriminante.

Análisis no lineal de los datos


 Basados en núcleos:
o Análisis de componentes principales del núcleo.
o Análisis discriminante del núcleo.
 Basados en redes neuronales.
Video ilustrativo:
https://www.youtube.com/watch?v=uQmcgvxx_g0

6. DATA MART
Un data mart es una versión especial de almacén de datos (data warehouse). Son subconjuntos de datos
con el propósito de ayudar a que un área específica dentro del negocio pueda tomar mejores decisiones.
Los datos existentes en este contexto pueden ser agrupados, explorados y propagados de múltiples formas
para que diversos grupos de usuarios realicen la explotación de los mismos de la forma más conveniente
según sus necesidades.

El Data mart es un sistema orientado a la consulta, en el que se producen procesos batch de carga de datos
(altas) con una frecuencia baja y conocida. Es consultado mediante herramientas OLAP (On line
Analytical Processing - Procesamiento Analítico en Línea) que ofrecen una visión multidimensional de la
información. Sobre estas bases de datos se pueden construir EIS (Executive Information Systems,
Sistemas de Información para Directivos) y DSS (Decision Support Systems, Sistemas de Ayuda a la
toma de Decisiones).

En síntesis, se puede decir que los data marts son pequeños data warehouse centrados en un tema o un
área de negocio específico dentro de una organización.

Podremos decir que Según (Sinnexus, 2016) se trata de una base de datos departamental, especializada en
el almacenamiento de los datos de un área de negocio especifica. Se caracteriza por disponer la estructura
óptima de datos para analizar la información al detalle desde todas las perspectivas que afecten a los
procesos de dicho departamento.

Dependencia de un data mart


Según la tendencia marcada por Inmon sobre los data warehouse, un data mart dependiente es un
subconjunto lógico (vista) o un subconjunto físico (extracto) de un almacén de datos más grande, que se
ha aislado por alguna de las siguientes razones:

 Se necesita para un esquema o modelo de datos espacial (por ejemplo, para reestructurar los
datos para alguna herramienta OLAP).
 Prestaciones: Para descargar el data mart a un ordenador independiente para mejorar la eficiencia
o para obviar las necesidades de gestionar todo el volumen del data warehouse centralizado.
 Seguridad: Para separar un subconjunto de datos de forma selectiva a los que queremos permitir
o restringir el acceso.
 Conveniencia: la de poder pasar por alto las autorizaciones y requerimientos necesarios para
poder incorporar una nueva aplicación en el Data Warehouse principal de la Empresa.
 Demostración sobre el terreno: para demostrar la viabilidad y el potencial de una aplicación
antes de migrarla al Data Warehouse de la Empresa.
 Política: Razones internas de la organización para hacer esta división o separación de los datos
del almacén de datos, por ejemplo:
o Cuando se decide una estrategia para las TI (Tecnologías de la información) en
situaciones en las que un grupo de usuarios tiene más influencia, para determinar si se
financia dicha estrategia o descubrir si ésta no sería buena para el almacén de datos
centralizado.
o Estrategia para los consumidores de los datos en situaciones en las que un equipo de
almacén de datos no está en condiciones de crear un almacén de datos utilizable.
Según la escuela Inmon de data warehouse, entre las pérdidas inherentes al uso de data marts están la
escalabilidad limitada, la duplicación de datos, la inconsistencia de los datos con respecto a otros
almacenes de información y la incapacidad para aprovechar las fuentes de datos de la empresa. Así y todo
estas herramientas son de gran importancia.
Conceptos erróneos de los Data Marts
Al hablar de los data marts, es inevitable la comparación con los data warehouse y al final se acaba
diciendo (o entendiendo) que son como estos, pero en pequeño, y en cierto modo esto es así, pero esta
idea suele hacer caer en los siguientes errores sobre la implementación y funcionamiento de los data
marts:

 Son más simples de implementar que un Data Warehouse: FALSO, la implementación es muy
similar, ya que debe proporcionar las mismas funcionalidades.
 Son pequeños conjuntos de datos y, en consecuencia, tienen menor necesidad de recursos:
FALSO, una aplicación corriendo sobre un data mart necesita los mismos recursos que si
corriera sobre un data warehouse.
 Las consultas son más rápidas, dado el menor volumen de datos: FALSO, el menor volumen de
datos se debe a que no se tienen todos los datos de toda la empresa, pero sí se tienen todos los
datos de un determinado sector de la empresa, por lo que una consulta sobre dicho sector tarda lo
mismo si se hace sobre el data mart que si se hace sobre el data warehouse.
 En algunos casos añade tiempo al proceso de actualización: FALSO, actualizar el data mart
desde el data warehouse cuesta menos (ya que los formatos de los datos son o suelen ser
idénticos) que actualizar el data warehouse desde sus fuentes de datos primarias, donde es
necesario realizar operaciones de transformación.

Video ilustrativo:
https://www.youtube.com/watch?v=ufMI0OaaD8c&t=33s

7. EXTRANET
Una extranet es una red privada que utiliza protocolos de Internet, protocolos de comunicación y
probablemente infraestructura pública de comunicación para compartir de forma segura parte de la
información u operación propia de una organización con proveedores, compradores, socios, clientes o
cualquier otro negocio u organización. Se puede decir en otras palabras que una extranet es parte de la
Intranet de una organización que se extiende a usuarios fuera de ella, usualmente utilizando Internet y sus
protocolos.

La extranet suele tener un acceso semiprivado. Para acceder a la extranet de una empresa no
necesariamente el usuario ha de ser trabajador de la empresa, pero sí tener un vínculo con la entidad. Es
por ello que una extranet requiere o necesita un grado de seguridad, para que no pueda acceder cualquier
persona. Otra característica de la extranet es que se puede utilizar como una Intranet de colaboración con
otras compañías.

El término de la extranet fue utilizado por primera vez a finales de los años 90, se empezó a utilizar en
varias industrias y empresas, con el fin de que a ciertos documentos pudieran acceder vía red ciertos
trabajadores autorizados de estas empresas.

Pero, el término de la extranet fue definido por el que fuera primer ejecutivo de Netscape
Communications Corporation Jim Barksdale y el cofundador de dicha empresa Mark Andreesen.

Aplicaciones extranet

 Banca online. La banca electrónica es uno de los ejemplos más conocidos para el gran público de
una extranet; a través de ella el banco da la posibilidad a sus clientes de consultar sus cuentas y
operar con ellas.
 Groupware, diversas compañías participan en el desarrollo de nuevas aplicaciones con un
objetivo común.
 Compañías empresariales participan y desarrollan programas educativos o de formación.
 Para compañías que son parte de un objetivo común de trabajo, mediante la extranet, pueden
dirigir y controlar los proyectos comunes.
 Una empresa puede participar en redes de conocimiento junto con universidades, asociaciones y
demás centros en programas de formación, en actividades de investigación y desarrollo, en
bolsas de trabajo, etc.
 Presupuestos y pedidos.
 Catálogos y ofertas.
 Asistencia técnica.
 Descarga de software.
 Integración con ERP y con CRM.

Beneficios empresariales de la extranet

 Permite hacer transacciones seguras entre los sistemas internos de la empresa.


 Mediante aplicaciones de la extranet los trabajadores de la empresa pueden obtener fácil y
rápidamente la información sobre los clientes, proveedores y socios.
 Reducción de costos y ahorro temporal como económico para la empresa.
 Totalmente basada en Internet.
 Desarrollado en cualquier herramienta de programación.
 Independiente del motor de Base de datos.
 Dirección en Internet bajo su propio dominio.
 Conexión de base de datos del sistema contable de la empresa al sistema.
 Diseñada armónicamente con el mismo estilo del sitio web de su empresa.

Similitudes y diferencias con Internet e Intranet


El principal aspecto en común entre estos tres términos es que los tres utilizan la misma tecnología.
Las diferencias de la Intranet con Internet y la Extranet se dan principalmente en el tipo de información y
en el acceso a ella. Además, una Intranet requiere mayor seguridad e implica acceso en tiempo real a los
datos, ya que estos tienen que estar actualizados.

La extranet se dirige a usuarios tanto de la empresa como externos, pero la información que se encuentra
en la extranet es restringida. Sólo tienen acceso a esta red aquellos que tengan permiso. En cambio, a la
intranet solo acceden los empleados y las áreas internas de la empresa y permite el intercambio de
información entre los trabajadores. Por último, a la web pública de la compañía (visible desde Internet)
puede dirigirse cualquier usuario y tiene distintos usos, como recabar información de los productos,
contactar con cualquier persona de la empresa, etc.

Ventajas

 Relaciones con clientes y proveedores.


 Horarios de trabajos flexibles.
 Control de los pedidos.
 Gestión de pagos y facturación, seguridad.
 Reducción de costes y tiempos

Video ilustrativo:
https://www.youtube.com/watch?v=HDyBWhoyE7U

También podría gustarte