Está en la página 1de 29

Técnicas de procesamiento

de datos y su utilidad en
la inteligencia competitiva
¿Qué es un dato?
Datos son símbolos no aleatorios que representan valores de atributos o sucesos.
Los datos son hechos, acontecimientos y transacciones que se han ido almacenando en un código convenido.

Se obtienen de ... Ejemplo

La lectura, la observación, el cálculo, Cantidades y otros detalles de una factura o cheque.


la medición,etc. Detalles del pago de la nómina, etc.

Tipo de categoría Cualitativo


Clases de variables utilizadas
para la medición del dato
Cuantitativos

Tipo de formato
Estructurado
Tipo de archivo en que esta
siendo presentado el dato:
JPG, PDF, Exce No estructurado
Etapas del procesamiento
de datos

Recopilación de Preparación de los Entrada de datos


datos datos Los datos
De fuentes disponibles y Los datos se limpian y organizan
limpios se
actualizadas que contengan con el objetivo de detectar errores
ingresan en su
información de calidad. y descartar información repetitiva
e incompleta.
destino

Procesamiento Interpretación de Almacenamiento de


Mediante técnicas de filtrado, los datos datos
análisis e visualización de datos e los datos son finalmente Se almacenan para
incluso con algoritmos de utilizables para los su uso futuro
aprendizaje automático (machine usuarios (gráficas, tablas,
learning.) documentos)
PROCESAMIENTO Cuantitativo
El procesamiento cuantitativo, esta
basado en técnicas estadísticas permiten
cuantificar porcentajes de crecimiento así
como el comportamiento de un mercado
o desarrollo de una tecnología.

Los datos obtenidos con esta


metodología son de ayuda en la
identificación de patrones, secuencias y
tendencias en grandes cantidades de
información.
VENTAJAS

Minimizar el sesgo

Debido a la naturaleza cuantitativa de este tipo de procesamiento, se reducen las


probabilidades de ocurrencia de un sesgo personal, obteniendo de esta manera
una serie de resultados objetivos,

Resultados precisos

Con los parámetros delimitados estratégicamente, se pueden obtener datos


exactos respecto a lo que se quiere averiguar.

Procesamiento eficaz

La existencia de programas software de minería de datos, y herramientas que


favorecen el procesamiento de datos cuantitativos, ha ayudado a que estos
procedimientos se desarrollen con un menor plazo de tiempo. Además, de
facilitar el acceso a esta información, logrando la identificación de patrones y
tendencias de los datos.
DESVENTAJAS

Información restringida

Debido a su carácter cuantitativo, este tipo de procesamiento de datos no logra


encontrar el motivo por el cuál se pueden suscitar ciertas opiniones. Por lo que, se
tiene una tendencia a demostrar hipótesis sin abarcar detalles contextuales.

Costo

Para poder hacer más efectivo el procesamiento de datos, lo recomendable es


recurrir al uso de programas y herramientas relacionadas, sin embargo, estas
pueden representar un costo alto para la entidad. Cuando ocurre esto se pierde
la ventaja que da este tipo de procesamiento.

Interpretaciones erróneas

Si bien los resultados de este tipo de procesamiento son precisos, se puede


tener una mala interpretación debido a la tendencia de superficialidad.
HERRAMIENTAS A USAR
Existen en uso variados tipos de tecnología o técnicas usadas para el Procesamiento de Datos.

Uno de los sftware estadísticos más conocidos, de fácil uso y utilizado usualmente por
principiantes en el análisis estadístico. Permite el análisis de datos mediante estadísitica
SPSS
descriptiva e inferencial.

El Statiscal Analysis System es una herramienta basada en un lenguaje de programación


SAS denominado SAS. Consiste en un conjunto de mósulos capaces de realizar una multitud de
análisis estadísticos.

STATA Es un paquete de software estadístico que permite la gestión de datos, el análisis estadístico,
el trazado de gráficos y las simulaciones.
HERRAMIENTAS A USAR
Existen en uso variados tipos de tecnología o técnicas usadas para el Procesamiento de Datos.

Para la descarga y el análisis de patentes y para el procesamiento, análisis bibliométricos y


Matheo Patent mapeo de la información proveniente de base de datos de artículos científicos y patentes

Potente herramienta para analizar información estructurada a través de la estadística


Tetralogie avanzada

Permite la navegación rápida en grandes cantidades de registros, la visualización de


VantagePoint relaciones mediante matrices de co-ocurrencia o de factores, mapas tecnológicos y la
creación de tesauros para reducir los datos.
PROCESAMIENTO BACH
El procesamiento batch o por lotes es el
proceso mediante el cual una
computadora completa lotes de trabajos, a
menudo simultáneamente, en orden
secuencial y sin parar. También es un
comando que garantiza que los trabajos
grandes se calculen en partes pequeñas,
para mejorar la eficiencia durante el
proceso de depuración.

El comando tiene muchos nombres.


Incluso, los cambios han hecho que el
procesamiento batch sea más sofisticado
y eficiente. Para muchas empresas, es un
componente necesario para su éxito
diario.
VENTAJAS

Solución rápida y de menor coste

Debido a que el procesamiento por lotes no necesita empleados de entrada de


datos para respaldar su funcionamiento, ayuda a reducir el coste operativo que
las empresas gastan en mano de obra.

Características fuera de línea

Los sistemas de procesamiento por lotes funcionan sin conexión. Entonces,


cuando la jornada laboral termina para la mayoría de las personas en una
organización, los sistemas por lotes aún se procesan en segundo plano.

Gestión sencilla y sin intervención de grandes


procesos repetitivos

El sistema de notificación basado en excepciones del moderno software de


procesamiento por lotes facilita a los gerentes hacer su trabajo sin
preocuparse de si su software funciona correctamente y si se están
completando los lotes.
DESVENTAJAS

Despliegue y entrenamiento

Al igual que con cualquier nueva tecnología, hay cierto grado de capacitación
involucrada en el manejo de estos sistemas.

La depuración puede ser difícil

Cuando se produce un error, los administradores también necesitan saber cómo


solucionarlo.

Altos costes

Si bien estos sistemas ofrecen una solución de menor costo para la mayoría de
las empresas, que ahorran dinero en mano de obra y hardware cuando
cambian a procesamiento batch, algunas empresas no tienen empleados de
ingreso de datos o hardware costoso para comenzar.
PROCESAMIENTO EN
STREAM
Es una técnica de procesamiento y análisis de datos que
se basa en la implementación de un modelo de flujo de
datos en el que los datos asociados a series de tiempo
(hechos) fluyen continuamente a través de una red de
entidades de transformación que componen el sistema.

Este tipo de técnica procesa los datos de manera mucho


más rápida, ya que estos son gestionados justo en el
instante en el que se crean, antes incluso de llegar al
dispositivo de almacenamiento.
HERRAMIENTAS A USAR
Existen en uso variados tipos de tecnología o técnicas usadas para el Procesamiento de
Datos en Streaming, creadas recientemente y utilizadas en la actualidad. Entre ellas se
encuentran las siguientes:
Kafka Streams: Logra enlazarse a sistemas y a diversas tecnologías.
Spark Streams: Amplía la habilidad de Apache Spark, lo cual realiza el Procesamiento
de Datos en Streaming, congregando los Datos que se reciben en pequeños batches.
Apache Flink
CONCEPTOS BÁSICOS EN
STREAM PROCESSING
Los sistemas de streaming distribuidos tienen tres maneras de gestionar las
garantías de entrega de los mensajes en sus protocolos:

At-least-once: Garantiza que el mensaje siempre se entregará. Es posible que en


caso de fallo se entregue varias veces, pero no se perderá ningún mensaje en el
sistema.
At-most-once: Garantiza que el mensaje se entregará una vez o no se entregará.
Un mensaje nunca se entregará más de una vez.
Exactly-once: Garantiza que todos los mensajes se van a entregar exactamente
una vez, realizando el sistema las comprobaciones necesarias para que esto
suceda
VENTAJAS
Entre las ventajas principales se encuentra el
desacoplamiento. Por ejemplo, en una
arquitectura editor-suscriptor, no es necesario
que estos dos componentes se conozcan entre
sí.
Las tecnologías de streaming nos facilitan
implementar una arquitectura de microservicios,
con un broker de streaming como mecanismo
central de comunicación.
Nos proporciona la capacidad de los sistemas de
streaming de eventos de proporcionar
herramientas analíticas en tiempo real.
PROCESAMIENTO EN TIEMPO REAL
Se define como el procesamiento de flujos
no asociados de datos de entrada, con
requisitos de latencia muy cortos para el
procesamiento, que se miden en
milisegundos o segundos.

Componentes:
Entrada de mensajes en tiempo real
Procesamiento de flujos
Almacén de datos analíticos
Análisis e informes
VENTAJAS
Procesan los datos en tiempo real y en una
latencia mínima para generar informes en
tiempo real.

DESVENTAJAS
No es tan sencillo de poner en práctica
mediante el uso de sistemas de software
comunes.
Tienen un costo mucho mayor a las opciones en
stream.
Procesa datos de forma ininterrumpida.
DESVENTAJAS
Uno de los mayores desafíos del procesamiento de flujo es que es difícil
de implementar a escala. Por ejemplo, necesita un mecanismo
integrado para proporcionar resistencia contra las imperfecciones de
los datos de transmisión, incluidos los datos que faltan y que no
funcionan.

Sin los recursos adecuados de almacenamiento y procesamiento, el


sistema puede sobrecargarse fácilmente cuando aparece
repentinamente una gran cantidad de datos y es necesario procesarlos.
HERRAMIENTAS A USAR
Existen en uso variados tipos de tecnología o técnicas usadas para el Procesamiento de
Datos en Batch para ello se dividen en base al proceso en el que interactuan

Procesamiento de Almacenamiento de
Ingreso de datos
datos datos

Mapreduce
Flume Hive
HDFS
Comados HDFS Pig
Hbase
Sqoop Cascading
Spark
COMPONENTES BÁSICOS DE UN ENTORNO
BATCH

Trabajo
Un sistema programado que ejecuta un conjunto de tareas hasta su finalización
sin ninguna interacción del usuario, por lo general, para cargas de trabajo de
procesamiento
Tareas

Son acciones programáticas que se definen como parte de un trabajo y se


ejecutan cuando se ejecuta el trabajo. Cada tarea es parte del grupo de tareas
de un trabajo.

Recursos

La infraestructura necesaria para ejecutar un trabajo. Cada trabajo por lotes se


ejecuta en un grupo de instancias administrado regional (MIG) de VM de
Compute Engine, según los requisitos y la ubicación especificados del trabajo.
CASOS
Caso : CORPORACIÓN ECO-EFICIENTE
Procedimiento cuantitativo - Herramienta VantagePoint

Identificar la líneas de investigación y tendencias tecnológicas en materiales


Objetivo principal metálicos, para lograr un posicionamiento entre sus competidores.

RESULTADOS
Creación de una patente que modificó el proceso de
producción del silicio metal, trayendo consigo un
aumento de la demanda de esta tecnología.

Además de ello, creo la Unidad de Vigilancia


Tecnológica de Ferroatlántica I+D.
Planeación, Búsqueda y captación, Procesamiento y Análisis, Inteligencia y Comunicación.
CICLO DE LA VIGILANCIA TECNOLÓGICA PLANEACIÓN Y ESTRATEGIAS
IDENTIFICACIÓN DE NECESIDADES
DESCRIPCIÓN DEL ENTORNO DE LA
•Identificar un área clave para posicionamiento
PARA LA RECOPILACIÓN DE LA CORPORACIÓN ECO-EFICIENTE
•Priorizar la inversión en un área tecnológica
INFORMACIÓN (Objetivos, Necesidades y oportunidades)
relevante en la industria automotriz

BÚSQUEDA Y CAPTACIÓN DE INFORMACIÓN


•Consulta de artículos técnicos y científicos.
•Consulta de patentes relacionadas con los materiales
metálicos. Es un software de minería de texto para el análisis
•Consulta con centros tecnológicos pares de otros países. cuantitativo de información estructurada como
PROCESAMIENTO Y GESTIÓN DE LA INFORMACIÓN bases de datos de patentes y literatura.
•Artículos recuperados de Sciencedirect.
•Para el análisis de los artículos científicos se La técnica consiste:
utilizó VantagePoint.
Importe los resultados de sus
búsquedas
ANÁLISIS Y ORGANIZACIÓN DE LA INFORMACIÓN
Limpia los datos
•Análisis de los resultados con VantagePoint sobre los VALIDACIÓN DE LA INFORMACIÓN
artículos científicos. Los resultados se compartieron con expertos de Analiza los datos y los ve desde
•Identificación de las líneas de investigación para grupos de investigación y de las empresas, quienes muchos puntos de vista
trabajo en la Corporación Eco-eficiente. concordaron que las líneas de investigación son de una
Automatiza el proceso de análisis
•Conclusiones y recomendaciones finales interesante proyección para el país.

TOMA DE DECISIONES-INTELIGENCIA
DEFINICIÓN DE ASPECTOS DE SOPORTE
Se conformó un comité directivo y se concluyó que la
Se identificaron centros tecnológicos para IMPLEMENTACIÓN DEL PROYECTO Y
primera línea a impulsar el fortalecimiento de la
establecimiento de convenios de cooperación MEDICIÓN DE INDICADORES DE
Corporación Eco-eficiente es el del campo de
tecnológica y soporte en el trabajo con la línea de RESULTADOS.
simulación de procesos de conformado de lámina
investigación.
metálica
COMUNICACIÓN DE DECISIONES
Caso : EMPRESA EMBALADORA DE PRODUCTOS
DE VIDRIO
Procesamiento stream- Herramienta Value Stream Mapping

Objetivo principal
Identificar y eliminar aquellas actividades que no agregan valor al proceso y a su
vez mejorar el desempeño del área logística de la compañía disminuyendo la
sensación de un bajo nivel de servicio.
Dibujo del estado actual

Medición de indicadores

APLICACIÓN
DEL Identificación de problemas
VSM

Selección de técnicas

Dibujo del estado futuro


Proyección de los
indicadores

Comparación de
los indicadores

Plan de acción para


la implementación
Utilidad en la
Inteligencia competitiva (IC)
Herramienta de gestión o práctica empresarial que consiste en un
proceso: sistemático, estructurado, legal y ético por el que: se recoge y
analiza la información que, una vez convertida en inteligencia, se
difunde a los responsables de la decisión para facilitar la misma, de
forma que se mejore la competitividad de la empresa, su poder de
influencia y su capacidad de defender sus activos materiales e
inmateriales.

1 2 3
Cambio de Automatización
Información
actores (Perfilado) de procesos
1
Metabuscadores: OBSERVA (Ciencia y Tecnología), Observatorio virtual de
Transferencia tecnológica.

2
Marketplace: HONTZA (Plataforma abierta de vigilancia tecnológica), SOFTVI
(Herramienta de vigilancia tecnológica), VICUBO (Software de VT y VC).

3
Open Analytics: Aborda el desarrollo de tecnologías innovadoras open source, big
data, business intelligence, data mining y open data. Ejem: MediaLab Prado.

Buscadores especializados: Intelligo (Explorador del espacio académico

4 iberoamericano), CiteSeerX (Información científico-técnica), GoPubMed (Biomédica),


Recolecta (Ciencia y producción científica).

5
Base de datos especializadas: LATIPAT y ESP@CENET (Buscadores de patentes), JPO
(Japan Patent Office).
Conclusiones

Conclusión 1 Conclusión 2 Conclusión 3


Los datos son la unidad mínima de Las técnicas de
La vigilancia tecnológica resulta
recolección, estos pueden ser procesamiento de datos,
ser una metodología
cualitativos o cuantitativos así son una parte fundamental
indispensable para la generación
como estar estructurados o no. del proceso de vigilancia
de competitividad en una
Respecto a las etapas del tecnológica, ya que nos
organización; por lo que requiere
procesamiento de datos, este permiten validar la
para su continuidad el apoyo y
empieza con la recopilación de los información relevante de
compromiso de la alta dirección
mismos. Luego, se realiza la la investigación.
de las organizaciones, ya que
preparación, entrada,
serán ellos quienes incorporen los
procesamiento, interpretación y
resultados a la organización.
por último el almacenamiento.
¡Gracias!

También podría gustarte