Está en la página 1de 5

UNIVERSIDAD DE LAS FUERZAS ARMADAS ESPE

SISTEMAS DE ADMINISTRACION DE BASE DE DATOS

Nombre: RICHAR ÑACATA


NRC : 8730

RULES
1. DecisionTable
Clase para construir y usar un clasificador mayoritario de tabla de decisión simple
Para más información, ver:
Ron Kohavi: El poder de las tablas de decisión. En: 8.ª Conferencia Europea sobre
Aprendizaje Automá co, 174-189, 1995.
CAPACIDADES
Clase: clase binaria, clase de fecha, valores de clase faltantes, clase nominal, clase
numérica
Atributos: atributos binarios, atributos de fecha, atributos nominales vacíos, valores
faltantes, atributos nominales, atributos numéricos, atributos unarios

Interfaces -- WeightedInstancesHandler
Adicional
Número mínimo de instancias: 1

2. JRip
Esta clase implementa un aprendiz de regla proposicional, poda incremental repe da
para producir reducción de errores (RIPPER), que fue propuesto por William W.
Cohen como una versión op mizada de IREP.
El algoritmo se describe brevemente de la siguiente manera:
Inicialice RS = {}), y para cada clase desde la menos frecuente hasta la más frecuente,
HAGA:
1. Etapa de construcción:
Repita 1.1 y 1.2 hasta que la longitud de descripción (DL) del conjunto de reglas y los
ejemplos sea 64 bits mayor que el DL más pequeño conocido hasta el momento, o no
haya ejemplos posi vos, o la tasa de error
sea >= 50 %.
1.1. Fase de crecimiento:
Haga crecer una regla agregando con avidez antecedentes (o condiciones) a la regla
hasta que la regla sea perfecta (es decir, 100% precisa). El procedimiento prueba todos
los valores posibles de
cada atributo y selecciona la condición con mayor ganancia de información: p(log(p/t)-
log(P/T)).
1.2. Fase de poda:
Pode gradualmente cada regla y permita la poda de cualquier secuencia final de los
antecedentes; La métrica de poda es (p-n)/(p+n), pero en realidad es 2p/(p+n) -1, por lo
que en esta
implementación simplemente usamos p/(p+n) (en realidad (p+1)/ (p+n+2), por lo que si
p+n es 0, es 0,5).
2. Etapa de op mización:
después de generar el conjunto de reglas inicial (Ri), genere y elimine dos variantes de
cada regla Ri a par r de datos aleatorios u lizando los procedimientos 1.1 y 1.2. Pero
una variante se genera a par r
de una regla vacía, mientras que la otra se genera agregando con avidez antecedentes a
la regla original. Además, la métrica de poda u lizada aquí es (TP+TN)/(P+N). Luego se
calcula la DL más pequeña
posible para cada variante y la regla original. La variante con la DL mínima se selecciona
como el representante final de Ri en el conjunto de reglas. Después de que se hayan
examinado todas las
reglas en {Ri) y si todavía hay posi vos residuales, se generan más reglas basadas en los
posi vos residuales usando Building Stage nuevamente. . 3. Elimine las
reglas del conjunto de reglas que aumentarían la DL de todo el conjunto de reglas si
estuviera en él. y agregue el conjunto de reglas resultante a RS.
ENDDO
Tenga en cuenta que parece haber 2 errores en el programa original del destripador que
afectarían ligeramente el tamaño y la precisión del conjunto de reglas. Esta
implementación evita estos errores y, por lo tanto, es un poco diferente de la
implementación original de Cohen. Incluso después de corregir los errores, dado que el
orden de las clases con la misma frecuencia no está definido en el extractor, todavía
parece haber una diferencia trivial entre esta implementación y el extractor original,
especialmente para los datos de audiología en el repositorio de UCI, donde hay muchos
Clases de pocas instancias.
Detalles por favor vea:
William W. Cohen: Inducción de reglas rápidas y efec vas. En: Duodécima Conferencia
Internacional sobre Aprendizaje Automá co, 115-123, 1995.
PD. Hemos comparado esta implementación con la implementación original del
destripador en aspectos de precisión, tamaño del conjunto de reglas y empo de
ejecución tanto en datos ar ficiales "ab+bcd+defg" como
en conjuntos de datos UCI. En todos estos aspectos parece ser bastante comparable a la
implementación original del destripador. Sin embargo, no consideramos la op mización
del consumo de memoria en esta implementación.
CAPACIDADES

Clase: clase binaria, valores de clase faltantes, clase nominal


Atributos: atributos binarios, atributos de fecha, atributos nominales vacíos, valores
faltantes, atributos nominales, atributos numéricos, atributos unarios
Interfaces -- WeightedInstancesHandler
Adicional
Número mínimo de instancias: 3

3. M5 Rules
Genera una lista de decisiones para problemas de regresión usando separar y vencer
En cada iteración, construye un árbol modelo usando M5 y convierte la "mejor" hoja en
una regla.
Para más información, ver:
Geoffrey Holmes, Mark Hall, Eibe Frank: Generación de conjuntos de reglas a par r de
árboles modelo. En: Duodécima Conferencia Conjunta Australiana sobre Inteligencia
Ar ficial, 1-12, 1999.
Ross J. Quinlan: Aprendizaje con Clases Con nuas. En: 5ª Conferencia Conjunta
Australiana sobre Inteligencia Ar ficial, Singapur, 343-348, 1992.
Y. Wang, I. H. Wi en: Inducción de árboles modelo para predecir clases con nuas. En:
Documentos de póster de la 9.ª Conferencia Europea sobre Aprendizaje Automá co,
1997.
CAPACIDADES
Clase -- Clase de fecha, valores de clase que faltan, clase numérica
Atributos: atributos binarios, atributos de fecha, atributos nominales vacíos, valores
faltantes, atributos nominales, atributos numéricos, atributos unarios
Adicional

Número mínimo de instancias: 1

4. OneR
Clase para construir y usar un clasificador 1R; en otras palabras, usa el atributo de error
mínimo para la predicción, discre zando los atributos numéricos
Para más información, ver:
RC Holte (1993). Las reglas de clasificación muy simples funcionan bien en los conjuntos
de datos más u lizados. Aprendizaje automá co. 11:63-91.
CAPACIDADES
Clase -- clase binaria, valores de clase faltantes, clase nominal
Atributos -- atributos binarios, atributos de fecha, atributos nominales vacíos, valores
faltantes, atributos nominales, atributos numéricos, atributos unarios
Interfaces -- cable fuente
Adicional
Número mínimo de instancias: 1

5. PART
Clase para generar una lista de decisión PARTE
U liza separar y conquistar. Construye un árbol de decisión C4.5 parcial en cada iteración
y convierte la "mejor" hoja en una regla.
Para más información, ver:
Eibe Frank, lan H. Wi en: Generación de conjuntos de reglas precisos sin op mización
global. En: Decimoquinta Conferencia Internacional sobre Aprendizaje Automá co, 144-
151, 1998.
CAPACIDADES
Clase -- clase binaria, valores de clase faltantes, clase nominal
Atributos -- atributos binarios, atributos de fecha, atributos nominales vacíos, valores
faltantes, atributos nominales, atributos numéricos, atributos unarios
Interfaces -- WeightedInstancesHandler
Adicional
Número mínimo de instancias: 0

6. ZeroR
Clase para construir y usar un clasificador 0-R
Predice la media (para una clase numérica) o la moda (para una clase nominal).
CAPACIDADES
Clase -- clase binaria, clase de fecha, valores de clase faltantes, clase nominal, clase
numérica
Atributos -- atributos binarios, atributos de fecha, atributos nominales vacíos, valores
perdidos, atributos nominales, atributos numéricos, atributos relacionales, atributos de
cadena, atributos unarios
Interfaces -- Sourcable, WeightedInstancesHandler
Adicional
Número mínimo de instancias: 0

También podría gustarte