Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Análisis de mercado
Detección de fraude
Retención de clientes
Control de producción
Exploración de la ciencia
Detección de fraude
La minería de datos también se utiliza en los campos de servicios de tarjetas
de crédito y telecomunicaciones para detectar fraudes. En las llamadas
telefónicas fraudulentas, ayuda a encontrar el destino de la llamada, la
duración de la llamada, la hora del día o la semana, etc. También analiza los
patrones que se desvían de las normas esperadas.
Descriptivo
Clasificación y predicción
Función descriptiva
La función descriptiva se ocupa de las propiedades generales de los datos en
la base de datos. Aquí está la lista de funciones descriptivas:
Clase / Concepto se refiere a los datos que se asociarán con las clases o
conceptos. Por ejemplo, en una empresa, las clases de artículos para ventas
incluyen computadoras e impresoras, y los conceptos de clientes incluyen
grandes gastos y presupuestos. Tales descripciones de una clase o un
concepto se denominan descripciones de clase / concepto. Estas
descripciones pueden derivarse de las dos formas siguientes:
Caracterización de datos : se refiere a resumir los datos de la clase en
estudio. Esta clase en estudio se llama como clase objetivo.
Discriminación de datos : se refiere a la asignación o clasificación de una clase
con algún grupo o clase predefinidos.
Los patrones frecuentes son aquellos patrones que ocurren con frecuencia en
los datos transaccionales. Aquí está la lista de tipos de patrones frecuentes:
Conjunto de elementos frecuentes : se refiere a un conjunto de elementos que
frecuentemente aparecen juntos, por ejemplo, leche y pan.
Subsecuencia frecuente : una secuencia de patrones que ocurren con
frecuencia, como comprar una cámara, es seguida por una tarjeta de memoria.
Subestructura frecuente : la subestructura se refiere a diferentes formas
estructurales, como gráficos, árboles o celosías, que se pueden combinar con
conjuntos de elementos o subsecuencias.
Minería de Asociación
Las asociaciones se utilizan en ventas minoristas para identificar patrones que
con frecuencia se compran juntos. Este proceso se refiere al proceso de
descubrir la relación entre los datos y determinar las reglas de asociación.
Por ejemplo, un minorista genera una regla de asociación que muestra que el
70% de las veces la leche se vende con pan y solo el 30% de las veces que
las galletas se venden con pan.
Minería de correlaciones
Minería de racimos
Clasificación y predicción
La clasificación es el proceso de encontrar un modelo que describe las clases
de datos o conceptos. El propósito es poder usar este modelo para predecir la
clase de objetos cuya etiqueta de clase es desconocida. Este modelo derivado
se basa en el análisis de conjuntos de datos de entrenamiento. El modelo
derivado se puede presentar en las siguientes formas:
Caracterización
Discriminación
Análisis de asociación y correlación
Clasificación
Predicción
Agrupamiento
Análisis de valores atípicos
Análisis de evolución
Conocimiento de fondo
Reglas
Mesas
Gráficos
Gráficos
Árboles de decisión
Cubitos
Problemas de desempeño
Puede haber problemas relacionados con el rendimiento, como los siguientes:
Eficiencia y escalabilidad de los algoritmos de minería de datos : para extraer
efectivamente la información de una gran cantidad de datos en bases de datos, el
algoritmo de minería de datos debe ser eficiente y escalable.
Algoritmos de minería paralelos, distribuidos e incrementales : los factores
como el gran tamaño de las bases de datos, la amplia distribución de datos y la
complejidad de los métodos de minería de datos motivan el desarrollo de
algoritmos de minería de datos paralelos y distribuidos. Estos algoritmos dividen
los datos en particiones que luego se procesan de manera paralela. Luego, los
resultados de las particiones se fusionan. Los algoritmos incrementales actualizan
las bases de datos sin extraer los datos nuevamente desde cero.
Almacenamiento de datos
El almacenamiento de datos es el proceso de construcción y uso del
almacenamiento de datos. Un almacén de datos se construye integrando los
datos de múltiples fuentes heterogéneas. Admite informes analíticos,
consultas estructuradas y / o ad hoc y toma de decisiones.
El almacenamiento de datos implica la limpieza de datos, la integración de
datos y la consolidación de datos. Para integrar bases de datos heterogéneas,
tenemos los siguientes dos enfoques:
Desventajas
Ventajas
Análisis de mercado
Detección de fraude
Retención de clientes
Control de producción
Exploración de la ciencia
Caracterización
Análisis de asociación y correlación
Clasificación
Predicción
Análisis de conglomerados
Análisis atípico
Análisis de evolución
Base de conocimientos
Este es el dominio del conocimiento. Este conocimiento se utiliza para guiar la
búsqueda o evaluar el interés de los patrones resultantes.
Limpieza de datos
Integración de datos
Selección de datos
Transformación de datos
Procesamiento de datos
Evaluación de patrones
Presentación de conocimiento
Interfaz de usuario
La interfaz de usuario es el módulo del sistema de minería de datos que ayuda
a la comunicación entre los usuarios y el sistema de minería de datos. La
interfaz de usuario permite las siguientes funcionalidades:
Integración de datos
La integración de datos es una técnica de preprocesamiento de datos que
combina los datos de múltiples fuentes de datos heterogéneos en un almacén
de datos coherente. La integración de datos puede involucrar datos
inconsistentes y por lo tanto necesita limpieza de datos.
Limpieza de datos
La limpieza de datos es una técnica que se aplica para eliminar los datos
ruidosos y corregir las inconsistencias en los datos. La limpieza de datos
implica transformaciones para corregir los datos incorrectos. La limpieza de
datos se realiza como un paso de preprocesamiento de datos mientras se
preparan los datos para un almacén de datos.
Selección de datos
La selección de datos es el proceso donde los datos relevantes para la tarea
de análisis se recuperan de la base de datos. A veces, la transformación y
consolidación de datos se realizan antes del proceso de selección de datos.
Racimos
Clúster se refiere a un grupo de objetos similares. El análisis de
conglomerados se refiere a formar un grupo de objetos que son muy similares
entre sí pero que son muy diferentes de los objetos en otros conglomerados.
Transformación de datos
En este paso, los datos se transforman o consolidan en formas apropiadas
para la minería, realizando operaciones de resumen o agregación.
Caracterización
Discriminación
Análisis de asociación y correlación
Clasificación
Predicción
Análisis de valores atípicos
Análisis de evolución
Finanzas
Telecomunicaciones
ADN
Los mercados de valores
Email
or
Caracterización
Discriminación
Asociación
Clasificación
Predicción
-operation-derived hierarchies
define hierarchy age_hierarchy for age on customer as
{age_category(1), ..., age_category(5)}
:= cluster(default, age, 5) < all(age)
-rule-based hierarchies
define hierarchy profit_margin_hierarchy on item as
level_1: low_profit_margin < level_0: all
Clasificación
Predicción
Los modelos de clasificación predicen etiquetas de clase categóricas; y los
modelos de predicción predicen funciones continuas valoradas. Por ejemplo,
podemos construir un modelo de clasificación para clasificar las solicitudes de
préstamos bancarios como seguros o riesgosos, o un modelo de predicción
para predecir los gastos en dólares de clientes potenciales en equipos
informáticos dados sus ingresos y ocupación.
¿Qué es la clasificación?
Los siguientes son ejemplos de casos en los que la tarea de análisis de datos
es Clasificación:
Un oficial de préstamos bancarios quiere analizar los datos para saber qué cliente
(solicitante de préstamo) es arriesgado o seguro.
Un gerente de marketing de una empresa necesita analizar a un cliente con un
perfil determinado, que comprará una computadora nueva.
En los dos ejemplos anteriores, se construye un modelo o clasificador para
predecir las etiquetas categóricas. Estas etiquetas son riesgosas o seguras
para los datos de solicitud de préstamo y sí o no para los datos de marketing.
¿Qué es la predicción?
Los siguientes son ejemplos de casos en los que la tarea de análisis de datos
es Predicción:
Supongamos que el gerente de marketing necesita predecir cuánto gastará un
cliente determinado durante una venta en su empresa. En este ejemplo, nos
molestamos en predecir un valor numérico. Por lo tanto, la tarea de análisis de
datos es un ejemplo de predicción numérica. En este caso, se construirá un
modelo o un predictor que predice una función de valor continuo o un valor
ordenado.
Nota : El análisis de regresión es una metodología estadística que se usa con
mayor frecuencia para la predicción numérica.
Input:
Data partition, D, which is a set of training tuples
and their associated class labels.
attribute_list, the set of candidate attributes.
Attribute selection method, a procedure to determine the
splitting criterion that best partitions that the data
tuples into individual classes. This criterion includes a
splitting_attribute and either a splitting point or splitting
subset.
Output:
A Decision Tree
Method
create a node N;
if tuples in D are all of the same class, C then
return N as leaf node labeled with class C;
if Dj is empty then
attach a leaf labeled with the majority
class in D to node N;
else
attach the node returned by Generate
decision tree(Dj, attribute list) to node N;
end for
return N;
Poda de árboles
La poda de árboles se realiza para eliminar anomalías en los datos de
entrenamiento debido a ruido o valores atípicos. Los árboles podados son más
pequeños y menos complejos.
Complejidad de costos
La complejidad del costo se mide mediante los siguientes dos parámetros:
Número de hojas en el árbol, y
Tasa de error del árbol.
Teorema de Bayes
El teorema de Bayes lleva el nombre de Thomas Bayes. Hay dos tipos de
probabilidades:
Extracción de regla
Aquí aprenderemos cómo construir un clasificador basado en reglas
extrayendo reglas IF-THEN de un árbol de decisión.
Puntos para recordar:
Para extraer una regla de un árbol de decisión:
Se crea una regla para cada ruta desde la raíz hasta el nodo hoja.
Para formar un antecedente de regla, cada criterio de división se AND
lógicamente.
El nodo hoja contiene la predicción de clase, formando la regla consecuente.
Input:
D, a data set class-labeled tuples,
Att_vals, the set of all attributes and their possible
values.
Output: A Set of IF-THEN rules.
Method:
Rule_set={ }; // initial set of rules learned is empty
repeat
Rule = Learn_One_Rule(D, Att_valls, c);
remove tuples covered by Rule form D;
until termination condition;
Poda de regla
La regla se poda debido a la siguiente razón:
La evaluación de la calidad se realiza sobre el conjunto original de datos de
capacitación. La regla puede funcionar bien en los datos de entrenamiento pero
menos en los datos posteriores. Es por eso que se requiere la poda de la regla.
La regla se poda eliminando el conjunto. La regla R se poda, si la versión podada
de R tiene mayor calidad que la evaluada en un conjunto independiente de tuplas.
FOIL es uno de los métodos simples y efectivos para la poda de reglas. Para
una regla dada R,
FOIL_Prune = pos - neg / pos + neg
donde pos y neg es el número de tuplas positivas cubiertas por R,
respectivamente.
Nota : este valor aumentará con la precisión de R en el conjunto de poda. Por
lo tanto, si el valor FOIL_Prune es mayor para la versión podada de R,
entonces podaremos R.
Algoritmos genéticos
La idea del algoritmo genético se deriva de la evolución natural. En algoritmo
genético, en primer lugar, se crea la población inicial. Esta población inicial
consta de reglas generadas aleatoriamente. Podemos representar cada regla
por una cadena de bits.
Por ejemplo, en un conjunto de entrenamiento dado, las muestras se
describen mediante dos atributos booleanos como A1 y A2. Y este conjunto de
entrenamiento dado contiene dos clases como C1 y C2.
Podemos codificar la regla SI A1 Y NO A2 ENTONCES C2 en una cadena de
bits 100 . En esta representación de bits, los dos bits más a la izquierda
representan el atributo A1 y A2, respectivamente.
Del mismo modo, la regla SI NO ES A1 Y NO A2 ENTONCES C1 puede
codificarse como 001 .
Nota - Si el atributo tiene valores K donde K> 2, entonces podemos usar los
bits K para codificar los valores del atributo. Las clases también están
codificadas de la misma manera.
Puntos para recordar:
Basado en la noción de supervivencia del más apto, se forma una nueva población
que consta de las reglas más adecuadas en la población actual y los valores de la
descendencia de estas reglas también.
La idoneidad de una regla se evalúa por su precisión de clasificación en un
conjunto de muestras de entrenamiento.
Los operadores genéticos como el cruce y la mutación se aplican para crear
descendencia.
En el crossover, la subcadena del par de reglas se intercambia para formar un
nuevo par de reglas.
En la mutación, los bits seleccionados al azar en la cadena de una regla se
invierten.
Enfoques difusos
La teoría de conjuntos difusos también se llama teoría de la posibilidad. Esta
teoría fue propuesta por Lotfi Zadeh en 1965 como alternativa a la teoría de
la lógica y la probabilidad de dos valores . Esta teoría nos permite trabajar
a un alto nivel de abstracción. También nos proporciona los medios para hacer
frente a la medición imprecisa de los datos.
La teoría de conjuntos difusos también nos permite tratar hechos vagos o
inexactos. Por ejemplo, ser miembro de un conjunto de ingresos altos es
exacto (por ejemplo, si $ 50,000 es alto, ¿qué pasa con $ 49,000 y $
48,000?). A diferencia del conjunto CRISP tradicional donde el elemento
pertenece a S o su complemento, pero en la teoría de conjuntos difusos, el
elemento puede pertenecer a más de un conjunto difuso.
Por ejemplo, el valor de ingreso de $ 49,000 pertenece a los conjuntos difusos
medio y alto, pero en diferentes grados. La notación difusa establecida para
este valor de ingreso es la siguiente:
mmedium_income($49k)=0.15 and mhigh_income($49k)=0.96
donde 'm' es la función de membresía que opera en los conjuntos difusos de
medium_income y high_income respectivamente. Esta notación se puede
mostrar esquemáticamente de la siguiente manera:
Minería de datos - Análisis de conglomerados
Cluster es un grupo de objetos que pertenece a la misma clase. En otras
palabras, los objetos similares se agrupan en un grupo y los objetos diferentes
se agrupan en otro grupo.
¿Qué es la agrupación?
La agrupación es el proceso de convertir un grupo de objetos abstractos en
clases de objetos similares.
Puntos para recordar
Un grupo de objetos de datos se puede tratar como un grupo.
Al hacer el análisis de conglomerados, primero dividimos el conjunto de datos en
grupos según la similitud de datos y luego asignamos las etiquetas a los grupos.
La principal ventaja del agrupamiento sobre la clasificación es que es adaptable a
los cambios y ayuda a destacar las características útiles que distinguen a los
diferentes grupos.
Métodos de agrupamiento
Los métodos de agrupamiento se pueden clasificar en las siguientes
categorías:
Método de partición
Método jerárquico
Método basado en la densidad
Método basado en cuadrícula
Método basado en modelo
Método basado en restricciones
Método de partición
Métodos jerárquicos
Este método crea una descomposición jerárquica del conjunto dado de objetos
de datos. Podemos clasificar los métodos jerárquicos en función de cómo se
forma la descomposición jerárquica. Aquí hay dos enfoques:
Enfoque aglomerativo
Enfoque divisivo
Enfoque aglomerativo
Enfoque divisivo
Estos son los dos enfoques que se utilizan para mejorar la calidad de la
agrupación jerárquica:
Realice un análisis cuidadoso de los enlaces de objetos en cada partición
jerárquica.
Integre la aglomeración jerárquica utilizando primero un algoritmo jerárquico de
aglomeración para agrupar objetos en microgrupos, y luego realizar macro-
agrupamientos en los micro-agrupamientos.
En esto, los objetos juntos forman una cuadrícula. El espacio del objeto se
cuantifica en un número finito de celdas que forman una estructura de
cuadrícula.
Ventajas
La principal ventaja de este método es el rápido tiempo de procesamiento.
Depende solo del número de celdas en cada dimensión en el espacio cuantificado.
Recuperación de información
La recuperación de información se ocupa de la recuperación de información
de una gran cantidad de documentos basados en texto. Algunos de los
sistemas de bases de datos no suelen estar presentes en los sistemas de
recuperación de información porque ambos manejan diferentes tipos de
datos. Los ejemplos del sistema de recuperación de información incluyen:
Precisión
Recordar
Puntaje F
Data Mining tiene una gran aplicación en la industria minorista porque recopila
una gran cantidad de datos de ventas, historial de compras de clientes,
transporte de mercancías, consumo y servicios. Es natural que la cantidad de
datos recopilados continúe expandiéndose rápidamente debido a la creciente
facilidad, disponibilidad y popularidad de la web.
La minería de datos en la industria minorista ayuda a identificar patrones y
tendencias de compra de clientes que conducen a una mejor calidad del
servicio al cliente y una buena retención y satisfacción del cliente. Aquí está la
lista de ejemplos de minería de datos en la industria minorista:
Diseño y construcción de almacenes de datos basados en los beneficios de la
minería de datos.
Análisis multidimensional de ventas, clientes, productos, tiempo y región.
Análisis de efectividad de campañas de ventas.
Retención de clientes.
Recomendación de productos y referencias cruzadas de artículos.
Detección de intrusiones