Está en la página 1de 1

Introducción

1
CAPÍTULO
Introducción

1.1 Introducción
A finales del siglo XX, la cantidad de datos que fue almacenada en las bases de datos
ya excedía la habilidad de los operadores para reducir y analizar los datos sin el uso de
técnicas de análisis automatizadas. Muchas bases de datos comerciales transaccionales y
científicas estaban creciendo de forma desproporcionada. A finales del siglo XX apareció
por primera vez el término KDD (Knowledge Discovery in Databases), que es el proceso
completo de extracción de información que se encarga además de la preparación de los
datos y de la interpretación de los resultados obtenidos [PSF91]. Se trataba de inter-
pretar grandes cantidades de datos y encontrar relaciones o patrones. Para conseguirlo
harían falta técnicas de aprendizaje automático, estadísticas, bases de datos, técnicas de
representación del conocimiento, razonamiento basado en casos, razonamiento aproxi-
mado, adquisición de conocimiento, redes de neuronas y visualización de datos. Tareas
comunes en KDD son la inducción de reglas, los problemas de clasificación y clustering,
el reconocimiento de patrones, el modelado predictivo, la detección de dependencias,
etc. KDD era un campo creciente donde había muchas metodologías en desarrollo tanto
genéricas como de dominio específico.
En los últimos tiempos, se ha producido una eclosión en la disponibilidad de datos.
Según un informe de IBM [IBM16], el 90 % de los datos disponibles actualmente en el
mundo se han creado en los dos últimos años. Las nuevas posibilidades que ofrecen
las infraestructuras y las redes de comunicación, unido a la amplia disponibilidad de
dispositivos inteligentes (teléfonos móviles), Internet de las cosas (electrodomésticos
inteligentes), metadatos, etc., generan un flujo de información que crece a un ritmo
vertiginoso [Spencer16].

13
E-Books & Papers for Statisticians

También podría gustarte