Está en la página 1de 6

NOMBRE

Heidy Masiel Castillo Zorrilla

MATRICULA
18-SCTN-2-038

ASIGNATURA
Procesamiento Electrónico de Datos

TEMA
Principio Sobre Procesamiento de Datos electrónicos

FECHA
28/09/2021

1
Introducción

Los datos son un conjunto de hechos, es decir unidades individuales


de información. Estos datos pueden ser: Numéricos: Dentro de estos tenemos,
Reportes de ventas, cifras de los inventarios, notas en los exámenes, etc. No
Numéricos: dentro de estos tenemos, Nombres y direcciones de los clientes,
las fotografías, los dibujos, los mapas, etc.

El "procesamiento de datos" es el manejo de estos datos en una forma más


útil. Incluye operaciones por medio de una maquina (ordenador) o
manualmente, como cálculos numéricos, clasificación y transmisión de datos
de un lugar a otro, etc. Los sistemas de procesamiento de datos se pueden
clasificar de la siguiente manera:
Sistema de procesamiento de datos por tarjetas perforadas. (1980 se utilizó
en Estados Unidos).

Sistema de procesamiento electrónico de datos (1940). Este a pasado por


diversas etapas de desarrollo o generaciones y ha hecho obsoleto al sistema de
procesamiento de datos por tarjetas perforadas. La "información" es definida
como los datos ya procesados.

El procesamiento de datos se produce cuando se recaban datos y se traducen a


información utilizable. Suelen ocuparse los científicos de datos, solos o en
equipo, y es importante que el procesamiento se realice correctamente para
no afectar negativamente al producto final o los resultados obtenidos a partir
de los datos.

El procesamiento empieza con datos en su forma en bruto y los convierte a un


formato más legible (gráficos, documentos, etc.), dándoles la forma y el
contexto necesarios para que los ordenadores los interpreten y los empleados
los utilicen en toda una organización.

2
Desarrollo

Procesamiento electrónico de datos se refiere a la utilización de métodos


automatizados para procesar los datos comerciales. Típicamente, su uso es
relativamente simple, actividades repetitivas para procesar grandes volúmenes
de información similar. Por ejemplo: almacenar actualizaciones aplicadas a un
inventario, transacciones bancarias aplicadas a cuentas y a archivos maestros
de clientes, transacciones de reserva y venta de boletos del sistema de
reservas de una compañía aérea, la facturación de los servicios públicos. El
término "electrónico" o "automático" es usado junto a "procesamiento de
datos" (PD), desde 1960, para diferenciar el procesamiento de datos hecho por
una persona del que está hecho por una computadora.

Recogida de datos
La recogida de datos es el primer paso del procesamiento. Los datos se extraen
de las fuentes disponibles, entre las cuales se cuentan los data lakes y
los almacenes de datos. Es importante que las fuentes de datos disponibles
sean fiables y estén bien creadas para que los datos recabados (que
posteriormente se emplearán como información) sean de la más alta calidad
posible.

Preparación de datos
Una vez recabados los datos, se pasa a la fase de la preparación de datos. La
preparación de datos, a menudo llamada «preprocesamiento», es la etapa en
la que los datos en bruto se limpian y organizan para la siguiente fase del
procesamiento. Durante la preparación, los datos en bruto se verifican
diligentemente para detectar errores. El objetivo de este paso es eliminar los
datos erróneos (datos redundantes, incompletos o incorrectos) y empezar a
crear datos de gran calidad para obtener la mejor business intelligence.

3
Introducción de datos
A continuación, los datos limpios se introducen en su destino (puede ser un
CRM, como Salesforce, o un almacén de datos, como Redshift y se traducen a
un lenguaje comprensible. La introducción de datos es el primer paso en el que
los datos en bruto empiezan a cobrar forma como información utilizable.

Procesamiento
Durante esta fase los datos ingresados en el ordenador en la fase anterior se
procesan realmente para su interpretación. El procesamiento se efectúa por
medio de algoritmos de machine learning, si bien el proceso en sí puede variar
ligeramente según cuál sea la fuente de los datos que se esté procesando (data
lakes, redes sociales, dispositivos conectados, etc.) y su uso previsto (estudiar
patrones publicitarios, diagnósticos médicos a partir de dispositivos
conectados, determinar necesidades de clientes, etc.).

Salida/interpretación de datos
La etapa de salida/interpretación es la fase en la que los datos resultan
finalmente utilizables para los que no son científicos de datos. Están
traducidos, son legibles y muchas veces se presentan en forma de gráficos,
vídeos, imágenes, texto simple, etc. A partir de ese momento los miembros de
una empresa o institución pueden empezar a autogestionarse los datos para
sus propios proyectos de analíticas de datos.

Almacenamiento de datos
La última fase del procesamiento de datos es el almacenamiento. Cuando
todos los datos están procesados, se almacenan para su futuro uso. Si bien hay
alguna información que ya puede emplearse de inmediato, gran parte tendrá
utilidad a posteriori. Además, almacenar correctamente nuestros datos es una
necesidad para dar cumplimiento a la legislación de protección de datos, como
el RGPD. Cuando los datos están bien almacenados, a los miembros de la
organización les resulta fácil y rápido acceder a ellos siempre que lo necesiten.

4
Mi Aporte Como Estudiante

El PED se refiere al procesamiento electrónico de datos, que forman parte de


la organización de una empresa y que solamente proporcionan servicio a otras
divisiones, áreas o departamentos de la misma empresa.
Desde sus inicios de su historia, el hombre percibió la necesidad de desarrollar
convenciones o signos para comunicarse con sus semejantes. Pronto, el
primitivo empleo de la mímica y los sonidos onomatopéyicos resultaron
insuficientes, aparece progresivamente el lenguaje. Pero tan necesario como
el lenguaje de las palabras, fue para el hombre contar con el lenguaje de la
magnitud o numeración.
En un primer momento, acudió a sus propios dedos para determinar las
cantidades de las cosas, correspondiendo a cada dedo o digito un número.
Esto lo llevo a descubrir que al terminarse los dedos, podía comenzar de
nuevo, haciendo alguna señal en los arboles que representan las primeras diez
unidades. Así se origina el sistema decimal, que fue común a la mayor parte de
los pueblos antiguos y es hoy universal.
El hombre ha efectuado a lo largo de las distintas etapas de
su evolución e investigaciones y estudios, para hacer frente a lasa crecientes
necesidades de resolver operaciones y cálculos cada vez más complejos en
forma rápida y precisa.
La idea de repetir muchas operaciones sencillas para cumplir
grandes proyectos no es nueva, los faraones del antiguo Egipto utilizaron este
concepto para construir las pirámides, con cada uno de los muchos esclavos,
movían bloques en una pequeña distancia centenares de veces en sucesión.
Este concepto de reducir laboriosas tareas en una serie de tareas repetidas
sencillas es la idea fundamentas sobre la computadora. Esta es una época en la
que se usaron exclusivamente maquinas compuestas en su totalidad por
dispositivos mecánicos manuales.

5
Como El Tema Mejora La Competencias Del Estudiante

Entre las distintas categorías de controles que una organización puede


implantar, tenemos aquellas que se relacionan directamente con las
aplicaciones que generan información contable a través de un computador. El
objetivo para la implantación de controles dentro de la función de PED es el
reducir el riesgo asociado en este ambiente.

Una divergencia de la cultura entre el procesamiento de datos y análisis de los


datos se muestra por las representaciones numéricas generalmente utilizada,
en el procesamiento de datos, las mediciones se almacenan típicamente como
números enteros, de punto fijo o representaciones decimales codificados en
binario de los números, mientras que la mayoría de las mediciones en el
análisis de datos se almacenan como representaciones de punto flotante de
números racionales.

Conclusión

Los datos pueden ser cualquier número o carácter que puede representar los
valores de las mediciones o los fenómenos observables. Un solo dato es una
medición de un fenómeno observable.
La información medida es deducida algorítmicamente derivada y/o lógica y/o
calculada estadísticamente a partir de múltiples datos (pruebas). La
información es una respuesta a una pregunta o un significativo estímulo que
puede dar lugar a nuevas preguntas.
Por ejemplo, la recolección de datos sísmicos conduce a la alteración de los
datos sísmicos para suprimir el ruido, mejorar la señal de los fenómenos
sísmicos y migrar a la ubicación adecuada en el espacio.
Suelen incluir los pasos de procesamiento de análisis de las velocidades y
frecuencias, correcciones estáticas, entre otros. El procesamiento de datos
sísmicos facilita una mejor interpretación, debido a que las estructuras del
subsuelo y geometrías de reflexión son más evidentes.

También podría gustarte