Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Algoritmos de Agrupamiento en La Identificación de Modelos Borrosos PDF
Algoritmos de Agrupamiento en La Identificación de Modelos Borrosos PDF
modificación de ésta. N
∑ (µ ik ) m zk
2.1 Función objetivo c-means ci = k =1
, 1≤ i ≤ c
N
(9)
La función objetivo base de una gran familia de
∑ (µ
k =1
ik ) m
yk = f i ( zk ; β i ) (15)
0.5
E ik ( β i ) = ( y k − f i ( z k ; β i )) 2 (16)
-1
c N 1
Em (U , {β i }) = ∑∑ ( µ ik ) m Eik ( β i ) (17) 0.9
i =1 k =1
0.8
Una posibilidad para minimizar (17) se presenta en
0.7
(Hathaway y Bezdek, 1991).
0.6
A pesar de lo interesante que en un principio parece 0.5
el algoritmo, tan solo Kim (1997) sugiere emplearlo
para el modelado borroso. Además, los resultados 0.4
problema de optimización.
Fig. 2. FCRM en la detección de datos sin estructura
Una inicialización de la matriz de partición U más lineal con U dada (cruces: datos, línea continua:
cercana al resultado deseado lleva a resultados como simulación basada en el modelo, líneas rectas:
los mostrados es la figura 2, pero nunca comparables modelos lineales identificados).
a los que se obtienen con el algoritmo GK (figura 4).
i =1 k =1
(18) min{λil }
αi = 1− l
, i = 1,2, " c (22)
max{λil }
se fuerza a cada clase a tener un centro de gravedad l
cdgi y se mide la distancia como combinación de las
distancias de FCM (Dik) y FCV (Drik): con λil los autovalores de la matriz de covarianzas
definida en (14) para GK. De este modo se conjugan
Deik = αDik + (1 − α ) Drik (19) en un solo algoritmo ventajas de FCRM, FCM y GK.
El parámetro η sirve de balance entre los términos
con α ∈ [0,1]. El problema en este algoritmo es la cuando su tamaño medio es muy diferente y no hay
elección del α correcto para cada clase. El algoritmo ningún estudio respecto a su determinación.
AFCR intenta proporcionar un tratamiento similar a
FCRM del que hace FCE con FCV. En este caso el Los resultados que obtiene AFCR para el mismo
criterio queda: ejemplo planteado en las figuras 1 y 2 se pueden
observar en la figura 3 y se pueden comparar con el
J ( Z ;U , β 1 , " , β c , c1 " , cc ) = resultado obtenido por GK en la figura 4 y FCRM en
c N la figura 1.
∑∑
i =1 k =1
( µ ik ) m Daik (20)
1
1 1t
u -0.5
pt
u
O
0.5
-1
0
-1.5
-0.5
-2
-1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1
-1 Input
1.5
-1.5
1
-2
-1 -0.5 0 0.5 1
0.5
1
0
0.5
1t
u -0.5
pt
u
0 O
-1
-0.5
-1.5
-1
-2
-1.5
-2.5
-1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1
-2 Input
-2.5
Fig. 4. GK en la detección de datos sin estructura
-1 -0.5 0 0.5 1 lineal (línea contínua: datos, línea discontinua:
Fig. 3. AFCR en la detección de datos sin estructura simulación basada en el modelo, líneas rectas:
lineal (cruces: datos, línea continua: simulación modelos lineales identificados) para 3 (parte
basada en el modelo, líneas rectas: modelos superior) y 5 (parte inferior) clases.
lineales identificados) para 3 (parte superior) y 5
(parte inferior) clases.
J. L. Díez, J. L. Navarro, A. Sala 37
Los resultados se corresponden con la mejora A continuación, y dados los buenos resultados
indicada en (Ryoke y Nakamori, 1996) respecto a obtenidos, se analiza el campo en el que GK se
FCRM, igualando resultados de algoritmos como el comporta mejor y que es, por otra parte, el que más
GK y obteniendo, al tiempo de realización del interesa: la identificación de modelos locales lineales
agrupamiento, una serie de modelos locales lineales de funciones estáticas y dinámicas desde datos reales,
que se ajustan perfectamente a la función en estudio como se da en las aplicaciones a control. Para ello, se
e incluyendo el error de modelado en la función de ha tomado en primer lugar una serie de datos reales
coste. Además, la capacidad de detección de correspondientes al ratio de la cinética de
estructuras lineales no se ha perdido en AFCR, crecimiento de un biorreactor (Carbonell et al.,
obteniendo resultados idénticos a FCRM con 2000), ejemplo que se muestra en la figura 5.
diferentes conjuntos de datos en lo que éste
funcionaba correctamente. Se puede observar como AFCR supera FCRM
6 (figura 5) e iguala GK (figura 6) en este ejemplo.
5
Cabe destacar que en ambos casos de resultado
positivo (AFCR y GK) las funciones de pertenencia
4 borrosas obtenidas pierden parte de su
3
interpretabilidad (convexidad), como se muestra en
la parte inferior de la figura 6.
2
El efecto de la pérdida de la interpretabilidad se hace
1
mucho más claro en sistemas más "complejos"
0 (orden más elevado), pero no se puede representar
gráficamente de forma adecuada. El análisis de los
-1
datos en estos casos mediante índices (Ahvenlampi et
-2 al., 2003) lleva a concluir que las funciones de
0 10 20 30 40 50 60 70
pertenencia pierden su interpretabiblidad a cambio de
3 un bajo error de modelado.
0
0 10 20 30
x
40 50 60 70
6. ALGORITMOS QUE FAVORECEN LA
Fig. 6. GK detectando estructuras lineales en datos CONVEXIDAD
reales (círculos: datos, líneas continuas: modelos
lineales, cruces: prototipos). En la parte inferior Aprovechando la metodología de minimización de
se observan las funciones de pertenencia. índices de coste por agrupamiento comentada
brevemente en el apartado 2.2 y propuesta en
38 Algoritmos de Agrupamiento en la Identificación de Modelos Borrosos
2
c N 0.8
0.2
se incluirá en DC ik un término para penalizar la alta
pertenencia de los puntos lejanos a un prototipo 0
0 10 20 30 40 50 60 70
(Dlejos ik) y otro para penalizar la baja pertenencia de
Function approximation
puntos cercanos al prototipo (Dcerca ik), manteniendo
2
también las distancias de FCRM (Eik) y FCM (Dik).
1.5
1
La nueva distancia global que se empleará será: y
0.5
αi αi 0
DC ik = Eik ( β i ) + γ 1 Dlejos ik
3 3 0 10 20 30 40 50 60
αi (24) x
Membership functions
+ γ 2 Dcerca ik + (1 − α i )ηDik 1
3 0.8
pi
0.6
con α ∈ [0,1] siguiendo para su determinación el h
sr
e
b 0.4
criterio (22). El parámetro η se mantiene para el m
e
M 0.2
balance entre los términos cuando su tamaño medio
es muy diferente y se incluyen γ1 y γ2 con el mismo 0
0 10 20 30 40 50 60 70
fin. x
Fig. 7. Detección de 3 clases y funciones de
Para determinar los valores de Dlejos ik y Dcerca ik se pertenencia con AFCRC (parte superior) y GK
identifica en (25) y (26), respectivamente, el criterio (parte inferior).
2
de distancia que es necesario incluir en un índice
para expresar la penalización por alta pertenencia de 1.5
0.6
D2
J lejos ik = µ 1 − exp( − ik2 )
m
ik
0.4
2σ 1 0.2
D2 (25) 0
0 10 20 30 40 50 60 70
⇒ Dlejos ik = 1 − exp( ik2 )
2σ 1 Function approximation
2
D2 1.5
J cerca ik = (1 − µ ik ) m exp(− ik2 ) (26)
2σ 2 y
1
0.5
(1 − µ ik ) m
Dik2 0
⇒ Dcerca ik = exp( − )
µ ikm 2σ 22 0 10 20 30 40 50 60
x
Membership functions
Este nuevo algoritmo que se propone, denominado 1
0.4
6.1 Identificación de funciones unidimensionales 0.2
0
Con unos valores adecuados de los parámetros del -1 -0.5 0 0.5 1
0.8
En combinaciones de datos más sencillas, como el 0.6
caso de la parábola empleada en las figuras 1 a 4,
0.4
AFCRC no pierde sus capacidades. Esto queda
0.2
claramente mostrado en la figura 10 para 2, 3, 4 y 8
clases. 0
-1 -0.5 0 0.5 1
2
1.5 1
1
0.5
0.5
0 0
-0.5
0 10 20 30 40 50 60 70
-0.5
-1 -0.5 0 0.5 1
1
0.8 1
0.6 0.8
0.4 0.6
0.2 0.4
0 0.2
0 10 20 30 40 50 60 70
0
-1 -0.5 0 0.5 1
Function approximation
2
1
1.5
1 0.5
y
0.5
0 0
0 10 20 30 40 50 60 -0.5
x -1 -0.5 0 0.5 1
Membership functions
1
1
0.8
pi 0.8
h 0.6
sr
e 0.6
b 0.4
m 0.4
e
M 0.2
0.2
0
0 10 20 30 40 50 60 70 0
x -1 -0.5 0 0.5 1
Fig. 9. Detección de 5 clases y funciones de Fig. 10. Detección de diferentes números de clases
pertenencia con AFCRC (parte superior) y GK (cuatro casos) y sus funciones de pertenencia con
(parte inferior). AFCRC.
40 Algoritmos de Agrupamiento en la Identificación de Modelos Borrosos
6.2 Identificación de funciones de varias variables modelos dinámicos suelen ser tratados como
funciones estáticas multidimensionales en la
El sistema no lineal con dos variables de entrada (x1, identificación borrosa (Sugeno y Yasukawa, 1993),
x2) y una de salida (y) descrito por la ecuación (27), AFCRC se muestra aplicable en la identificación
ha sido empleado por diferentes autores para borrosa de sistemas dinámicos.
comprobar el funcionamiento de diferentes técnicas
de identificación borrosa (Sugeno y Yasukawa, El algoritmo AFCRC puede ser empleado en
1993), (Emami et al., 1998). conjuntos de datos de dimensiones más elevadas
(más de dos entradas) pero, en ese caso, los
y = (1 + x1−2 + x 2−1.5 ) 2 con 1 ≤ x1 , x 2 ≤ 5 (27) resultados no pueden ser visualizados (Sala et al.,
2002).
En el ejemplo de este apartado, se ha modificado el
conjunto original de 50 pares de datos originales
empleados en (Sugeno y Yasukawa, 1993) mediante
la adición de ruido aleatorio. La superficie no lineal a
identificar se muestra en la figura 11.