Teorema de Bayes En la teoría de la probabilidad el teorema de Bayes es un resultado enunciado por Thomas Bayes en 17631 que expresa la probabilidad

condicional de un evento aleatorio A dado B en términos de la distribución de probabilidad condicional del evento B dado A y la distribución de probabilidad marginal de sólo A. En términos más generales y menos matemáticos, el teorema de Bayes es de enorme relevancia puesto que vincula la probabilidad de A dado B con la probabilidad de B dado A. Es decir que sabiendo la probabilidad de tener un dolor de cabeza dado que se tiene gripe, se podría saber (si se tiene algún dato más), la probabilidad de tener gripe si se tiene un dolor de cabeza, muestra este sencillo ejemplo la alta relevancia del teorema en cuestión para la ciencia en todas sus ramas, puesto que tiene vinculación íntima con la comprensión de la probabilidad de aspectos causales dados los efectos observados.

Árbol de decisión Un árbol de decisión es un modelo de predicción utilizado en el ámbito de la inteligencia artificial. Dada una base de datos se construyen diagramas de construcciones lógicas, muy similares a los sistemas de predicción basados en reglas, que sirven para representar y categorizar una serie de condiciones que ocurren de forma sucesiva, para la resolución de un problema. Un árbol de decisión tiene unas entradas las cuales pueden ser un objeto o una situación descrita por medio de un conjunto de atributos y a partir de esto devuelve una respuesta la cual en últimas es una decisión que es tomada a partir de las entradas. Los valores que pueden tomar las entradas y las salidas pueden ser valores discretos o continuos. Se utilizan más los valores discretos por simplicidad, cuando se utilizan valores discretos en las funciones de una aplicación se denomina clasificación y cuando se utilizan los continuos se denomina regresión. Un árbol de decisión lleva a cabo un test a medida que este se recorre hacia las hojas para alcanzar así una decisión. El árbol de decisión suele contener nodos internos, nodos de probabilidad, nodos hojas y arcos. Un nodo interno contiene un test sobre algún valor de una de las propiedades. Un nodo de probabilidad indica que debe ocurrir un evento aleatorio de acuerdo a la naturaleza del problema, este tipo de nodos es redondo, los demás son cuadrados. Un nodo hoja representa el valor que devolverá el árbol de decisión y finalmente las ramas brindan los posibles caminos que se tienen de acuerdo a la decisión tomada.

la visualización y actualización en línea. procesamiento de datos. Ni la recolección de datos. . los términos más generales "(gran escala) el análisis de datos". Estos patrones pueden entonces ser visto como una especie de resumen de los datos de entrada. Esto generalmente implica el uso de técnicas de bases de datos como los índices espaciales. que involucra aspectos de bases de datos y gestión de datos. Incluso el popular libro "La minería de datos: sistema de prácticas herramientas de aprendizaje y técnicas con Java" (que cubre todo el material de aprendizaje automático) originalmente iba a ser llamado simplemente "la máquina de aprendizaje práctico". Minería de datos La minería de datos (es la etapa de análisis de "Knowledge Discovery in Databases" o KDD).En el diseño de aplicaciones informáticas. aprendizaje automático. incluyendo la inteligencia artificial . En el uso de la palabra. Por ejemplo. El objetivo general del proceso de minería de datos consiste en extraer información de un conjunto de datos y transformarla en una estructura comprensible para su uso posterior. son más apropiados. ni la interpretación de los resultados y la información son parte de la etapa de minería de datos. Además de la etapa de análisis en bruto. métricas de Intereses. La tarea de minería de datos real es el análisis automático o semi-automático de grandes cantidades de datos para extraer patrones interesantes hasta ahora desconocidos. el paso de minería de datos podrían identificar varios grupos en los datos. Se suele utilizar cuando el número de condiciones no es muy grande (en tal caso. pero que pertenecen a todo el proceso KDD como pasos adicionales. o "análisis" -. que luego pueden ser utilizados para obtener resultados más precisos de predicción por un sistema de soporte de decisiones. A menudo. el modelo y las consideraciones de inferencia. la inteligencia artificial y aprendizaje automático. preparación de datos. comúnmente se define como "la detección de algo nuevo". aprendizaje automático y la inteligencia empresarial. en la máquina de aprendizaje y análisis predictivo. o cuando se refiere a los métodos actuales. extracción. post-procesamiento de las estructuras descubiertas. es un campo de las ciencias de la computación referido al proceso que intenta descubrir patrones en grandes volúmenes de conjuntos de datos. El término es una palabra de moda. por ejemplo. el término clave es el descubrimiento. pero también se ha generalizado a cualquier tipo de sistema de apoyo informático decisión. como los grupos de registros de datos (análisis cluster). registros poco usuales (la detección de anomalías) y dependencias (minería por reglas de asociación). un árbol de decisión indica las acciones a realizar en función del valor de una o varias variables. Es una representación en forma de árbol cuyas ramas se bifurcan en función de los valores tomados por las variables y que terminan en una acción concreta. es mejor utilizar una tabla de decisión). análisis y estadísticas). y el término "minería de datos" se añadió por razones de marketing. Utiliza los métodos de la inteligencia artificial. estadística y sistemas de bases de datos. y es frecuentemente mal utilizado para referirse a cualquier forma de datos a gran escala o procesamiento de la información (recolección. almacenamiento. consideraciones de la Teoría de la complejidad computacional. y puede ser utilizado en el análisis adicional o.

sin embargo. servidores web y comercio electrónico. Los clústeres son usualmente empleados para mejorar el rendimiento y/o la disponibilidad por encima de la que es provista por un solo computador típicamente siendo más económico que computadores individuales de rapidez y disponibilidad comparables. así como la creciente necesidad de potencia computacional para aplicaciones que la requieran. La tecnología de clústeres ha evolucionado en apoyo de actividades que van desde aplicaciones de supercómputo y software de misiones críticas. entre otros usos. las ingenierías y del comercio moderno. Hoy en día desempeñan un papel importante en la solución de problemas de las ciencias. más potente que los comunes de escritorio. de tal forma que el conjunto es visto como un único ordenador. De un clúster se espera que presente combinaciones de los siguientes servicios: Alto rendimiento Alta disponibilidad Balanceo de carga Escalabilidad . Clúster (informática) El término clúster (del inglés cluster. "grupo" o "racimo") se aplica a los conjuntos o conglomerados de computadoras construidos mediante la utilización de hardwares comunes y que se comportan como si fuesen una única computadora.Los términos relacionados con la obtención de datos. la pesca de datos y espionaje de los datos se refieren a la utilización de métodos de minería de datos a las partes de la muestra de un conjunto de datos de población más grandes establecidas que son (o pueden ser) demasiado pequeñas para las inferencias estadísticas fiables que se hizo acerca de la validez de cualquier patrón descubierto. Estos métodos pueden. un clúster es un grupo de múltiples ordenadores unidos mediante una red de alta velocidad. hasta bases de datos de alto rendimiento. el desarrollo de herramientas de software para cómputo distribuido de alto rendimiento. ser utilizado en la creación de nuevas hipótesis que se prueba contra las poblaciones de datos más grandes. Simplemente. El cómputo con clústeres surge como resultado de la convergencia de varias tendencias actuales que incluyen la disponibilidad de microprocesadores económicos de alto rendimiento y redes de alta velocidad.

Sign up to vote on this title
UsefulNot useful