Está en la página 1de 8

El Proceso de datos desde el enfoque sistematico

Desde el enfoque sistemático, el proceso de datos es la acumulación y


manipulación de elementos de dichos datos para producir información significativa
y establece un sistema organizado que permite presentar las mínimas actividades
necesarias para que esta función cumpla con la expectativa establecida por la
organización y para obtener una infraestructura de datos que le permita soportar
sus procesos de toma de decisiones y de operación en su empresa o negocio.

Etapas del procesamiento de datos


Para mejorar la productividad en una empresa, compañía o negocio se deben
conocer y aplicar 6 etapas del procesamiento y análisis de datos las cuales son:

1.  Recopilación de datos

El procesamiento y análisis de datos se lleva a cabo recopilando los datos de las


fuentes de almacenamiento que estén disponibles y que contengan información de
calidad. Por lo que deberán estar en óptimas condiciones y actualizadas .Estas
fuentes pueden estar compuestas por ejemplo de un almacén de datos o de
un data lake. El primero debe estar nutrido con los datos arrojados por los
departamentos de ventas, de servicios, de marketing, finanzas, entre otras, y el
segundo, es un almacén centralizado de información del big data de diversas
fuentes que pueden estar o no estructuradas, con almacenamiento en la nube y
con etiquetas de búsqueda. 

2.  Preparación de datos

En este punto comienza la preparación para su organización, la detección de


errores y el descarte de información repetitiva e incompleta. De este modo, pasa a
seleccionar la información necesaria y puntual con la que se trabajará para
el procesamiento y análisis de datos.  

3.  Introducción de datos

Los datos ya seleccionados ahora son enviados a sus destinos correspondientes,


traducidos a un lenguaje entendible. A partir de aquí, los datos en bruto comienzan
a tomar forma como información útil, que podrá visualizarse, por ejemplo, en un
CRM o en un almacén de datos. Por ello también se define como el “pre-
procesamiento”.
4.  Procesamiento o limpieza de datos

En esta etapa, los datos procesados por la etapa anterior son finalmente
preparados y optimizados para su uso final.

Esto ocurre a través de algoritmos por medio de una técnica de programación


denominada machine learning. Lo que ayuda a tu computadora a aprender de
forma autónoma sobre todos los datos e información que está recibiendo para que
actúe como corresponda. Así podrá realizar la actividad prevista de diagnóstico o
estudio de la interpretación realizada.

5.  Interpretación de datos

En el procesamiento de datos, las gráficas, tablas, documentos que se tienen


para trabajar óptimamente en una empresa, se realizaran cuando finalmente se
tenga todo el resultado de las etapas previas. De una forma totalmente entendible
para ti y los miembros que la requieran. Ahora tus proyectos de analítica
necesarios para la optimización de tu empresa podrán ser realizados con mayor
facilidad, rapidez y eficacia. Mejorando así la productividad del trabajo de todos de
forma considerable.

6.  Almacenamiento de datos

Finalmente, queda la última etapa de este proceso que consiste en el


almacenamiento de toda esta información útil resultante del procesamiento y
análisis de datos.

Para su uso inmediato o posterior según convenga, con la tranquilidad de que


estarán conservados bajo la legislación de protección de datos.

Procesamiento de datos que se realizan en la Administración

 REGISTRO: Este procesamiento tiene que ver con la transferencia de los datos a
alguna forma de o documento normalizado en todo el ciclo de procesamiento.
Ejemplo: un profesor anota en su lista los puntos obtenidos por los estudiantes y al
terminar el semestre calcula las notas finales y las anota en su lista. Recibe un
acta y coloca ahí las calificaciones finales, las registra en la hoja de calificaciones
que se envía al estudiante y luego hace entrega del acta a la oficina respectiva.

 DUPLICACIÓN: Este Consiste en reproducir los datos en muchos documentos o


formas. Ejemplo: se puede registrar un informe mecanografiándolo y al mismo
tiempo sacar copias con papel carbón. En otro caso digitándolo en la computadora
luego imprimir y fotocopiar en documento.

 VERIFICACIÓN: Consiste en comprobar cuidadosamente los datos para evitar


cualquier error. Ejemplo: los informes escritos a máquina se pueden volver a leer
para corregirlos.

 SEPARACIÓN: Se separan los datos en varias categorías. Ejemplo: un grupo de


cuestionarios para los estudiantes, se pueden separar según el sexo o por cursos.

 CLASIFICACIÓN: Es la organización de los datos en un orden especifico.


Ejemplo: los nombres de la lista telefónica se han clasificado en orden alfabético.
En este caso, los datos son clasificados sin separar. La clasificación también se
puede efectuar después de la separación. Otro ejemplo: un archivo de registro de
empleados contiene nombre, numero del seguro social y lugar de trabajo. Si hay
que clasificar el archivo de acuerdo con el orden alfabético de los nombres, al
"campo del nombre" se le denomina "CLAVE".

 INTERCALACIÓN: Se toman dos o más conjuntos de datos que han sido


clasificados con la misma clave y se resumen para formar un solo conjunto de
datos: Por ejemplo, Dos paquetes de tarjetas clasificadas numéricamente, las
mismas que se están intercalando y archivando en el paquete combinado durante
el paso de las tarjetas. Si las tarjetas tienen el mismo número, una sub-regla
determina cual se debe archivar. Cuando un paquete queda vacío las tarjetas del
otro se colocan al final del paquete combinado.

 CÁLCULO: La palabra cálculo se refiere al cómputo, cuenta o investigación que


se hace de algo por medio de operaciones matemáticas. El concepto también se
utiliza como sinónimo de conjetura. Es la ejecución de cálculos numéricos sobre
los datos.

 RECUPERACIÓN: La recuperación de datos hace referencia a las técnicas


empleadas para recuperar archivos que han sido perdidos o eliminados de algún
medio de almacenamiento.
Herramientas que se utilizan para el procesamiento de datos

 Power BI: es la herramienta analítica de Microsoft y una de las más populares, ya


que ofrece visualizaciones interactivas del procesamiento de datos, así como una
integración sencilla con otras herramientas de la corporación. Además, Power BI
puede integrarse en aplicaciones de terceros mediante Power BI permite compartir
reportes y análisis de datos de forma muy segura. Puede conectarse con más de
60 fuentes de datos, como Spark, Hadoop o SAP y es fácil de utilizar incluso para
usuarios sin conocimientos técnicos.

 Python: Se trata de una herramienta del procesamiento de datos de open source


y un lenguaje de scripts orientado a los objetos y muy fácil de mantener, leer y
escribir. Python fue desarrollado a finales de los 80 por Guido van Rossum para
soportar tanto métodos de programación estructurados como funcionales.
Aprender a usar esta herramienta es muy fácil y tiene muchas similitudes con
otros lenguajes como Ruby, JavaScript y PHP. Tiene bibliotecas para el machine
learning y puede usarse en plataformas como JSON, base de datos MongoDB,
servidor SQL.

 Excel: Excel es una herramienta analítica del procesamiento de datos muy


popular y casi fundamental. Es una herramienta bastante básica, aunque muy
versátil y se utiliza en prácticamente todas las industrias. No importa si eres
experto en SAS, Tableau o programación en R, o incluso si solo te dedicas a
escribir ensayos personalizados, necesitas aprender a usar Excel también. Esta
herramienta juega un gran papel cuando deben analizarse los datos internos de un
cliente. Aunque que es una herramienta básica, también tiene una opción
avanzada de business analytics para las capacidades de modelado con opciones
preconstruidas como la agrupación de tiempo, funciones DAX y relación
automática.

 Apache Spark: Esta herramienta es un motor de procesamiento de datos que


funciona a gran escala y puede ejecutar aplicaciones que ya están en clusters
Hadoop más rápido (hasta 10 veces) en disco y hasta 100 veces más rápido si
está en memoria. El concepto de esta herramienta hace que la ciencia de los
datos (en la que se basa) sea muy fácil. Es una herramienta muy popular para el
desarrollo de modelos de machine learning y pipelinesde datos. También tiene una
biblioteca llamada MLib, de donde se pueden obtener técnicas para data
sciencerepetitivo como el filtrado de colaboración, regresión, clasificación, entre
otras, a partir de un conjunto avanzado de algoritmos.
 Tableau Public: Es un software gratuito que conecta diferentes procesamientos
de datos, como Microsoft Excel, Data Warehouse, datos basados en la web, entre
otros, y crea dashboards, mapas y visualizaciones de datos que tienen
actualizaciones en tiempo real desde la web. También puedes compartirlos con un
cliente o a través de los medios sociales. Una vez que tienes acceso, puedes
descargar diferentes formatos para un archivo.

Para disfrutar típicamente de esta herramienta y ver su poder, tu fuente de datos


debe ser muy buena. La capacidad de Big Data de esta herramienta la hace
importante y el hecho de que puedas analizar y visualizar los datos mucho mejor
que otros programas de visualización de datos les da una ventaja.

 Rapid Miner: Esta herramienta puede incorporarse a cualquier tipo de


procesamiento de datos, incluyendo Excel, Oracle, IBM SPSS, Teradata, Access,
Microsoft SQL, Dbase, Sybase, entre otras. Esta herramienta es capaz de generar
análisis tomando como base los ajustes de transformación de los datos de la vida
real, lo que significa que puede controlar los conjuntos de datos y los formatos
para el análisis predictivo.

También podría gustarte