Está en la página 1de 4

El proceso de descubrimiento de conocimiento a partir de datos

el descubrimiento de conocimiento dentro de grandes bases de datos, o KDD.

Fases del proceso de extracción del conocimiento

1. data mining.: distingue un tipo de usuario de otro, si queremos conocer tendencias, etc.
busca la obtención de conocimiento nuevo, válido y útil para los objetivos que se
plantee quien emprenda dicho proceso. El resultado de un proceso de data mining es un
modelo que tiene que ser lo más comprensible posible. Es importante que se pueda
interactuar con este proceso y aprovechar el conocimiento a priori de que se disponga.
Definición del objetivo del proyecto de data mining, precisando la tarea principal que hay
que realizar y eligiendo el método más adecuado según las circunstancias.

b) Selección de los datos relevantes.


c) Preparación de los datos de cara a asegurar que sean válidos y se encuentren en
condiciones de ser utilizados por el método seleccionado.
d) Data mining propiamente dicho, es decir, aplicación sobre los datos ya preparados del
método elegido y construcción del modelo correspondiente.
e) Interpretación del modelo obtenido, que puede provocar la revisión de algunas de las
fases anteriores.
f) Integración en el sistema de tratamiento de información, que comprende la observación
del rendimiento y, en caso de cambio del entorno o “envejecimiento” del modelo, inicio
de un proceso de data mining nuevo.
2. Origen de los datos:
3. Preparación de los datos
4. DM. Proceso de construcción de modelos. Proceso de búsqueda y modelos.
5. Evaluación e interpretación del modelo.
6. Integración de los resultados del proceso.

Captura, preprocesamiento y almacenamiento de datos masivos


Captura

La procedencia de grandes volumenes de datos (big data) se puede categorizar en:

Generados por las personas: Correos electrónicos, mensajería instantánea, redes sociales, encuestas,
marketing electrónico, Web, sistema ERP, Hojas de cálculo,…

Transacciones de datos: Facturación, llamadas, transacciones bancarias,…

Máquina a máquina: Sensores, GPS,…

Biométrica: Secuenciación de ADN,…


Almacenamiento

Los sistemas de almacenamiento en big data son mucho más flexible, concurrente y permiten manipular
volúmenes de datos de manera eficiente, por ello se decanta por tecnologías NoSQL.

Tipos de almacenamiento NoSQL

Clave-Valor y Columnas: Alto rendimiento y escalabilidad. Ideales para datos no estructurados.

Documento: Proporcionan flexibilidad. Ideales para datos semiestructurados.

Grafo: Alto rendimiento en consultas de relaciones de proximidad entre datos, y no para ejecutar consultas
globales. Ideales para datos muy interrelacionados.

El preprocesamiento de big data se refiere a una serie de operaciones como "limpieza, llenado,
suavizado, fusión, normalización, verificación de consistencia" y otras operaciones en los datos sin
procesar recopilados antes del análisis de datos, con el fin de mejorar los datos La calidad sienta las
bases para un análisis posterior trabaja. El preprocesamiento de datos incluye principalmente cuatro
partes

1. Limpieza de datos
2. Integración de datos
3. Conversión de datos
4. Especificación de datos

En pocas palabras, desde la perspectiva del ciclo de vida del big data, no hay más que cuatro aspectos

1. Gran recopilación de datos


2. Preprocesamiento de big data
3. Almacenamiento de Big Data
4. Análisis de big data

Electronic Health Record, está diseñado para ser usado como parte de un

sistema. Este software da seguimiento a todo el ciclo del paciente y hace que

cualquier persona que sea responsable de dicho paciente tenga la capacidad de

trabajar coordinadamente.
Aquí no sólo la información relativa al paciente puede ser consultada y distribuida

por las personas que necesitan verla. Con todas las áreas de una clínica u hospital

participante bajo un EHR esto lo convierte en un software más robusto y poderoso

al momento de necesitar información y ponerla en manos de las personas correctas

en el momento correcto durante el ciclo del paciente. Con un EHR, una clínica u

hospital es capaz de revisar información financiera, de almacén o de farmacia

intrahospitalaria por ejemplo.

Algunas de las ventajas de implementar un EHR son:

 Cualquier persona responsable del cuidado del paciente puede agregar


información en tiempo real, analizar información o colaborar.
 La toma de decisiones médicas o de negocio son más eficientes y rápidas
 Una vista completa de la historia médica del paciente; desde alergias hasta
radiología pasando por resultados de laboratorio, facturación y caja.

Clinical Health Record:


la importancia de disponer de sistemas digitales de registro
de la historia clínica personal de cada ciudadano
Afortunadamente, esta es una preocupación en la que
diferentes gobiernos y organizaciones de salud vienen
trabajando al menos desde finales de la década de 1990.

Bibliografía
https://www.diegocalvo.es/captura-transformacion-y-almacenamiento-bigdata/

https://ichi.pro/es/ciclo-de-vida-de-big-data-recopilacion-de-big-data-preprocesamiento-de-big-data-
almacenamiento-de-big-data-y-analisis-154636888624444

https://blogs.uoc.edu/informatica/historia-clinica-electronica-o-electronic-health-record-ehrs-
expectativas-y-realidades/

También podría gustarte