Documentos de Académico
Documentos de Profesional
Documentos de Cultura
SANTIAGO DE CHILE
JULIO, 2006
RESUMEN
El objetivo último de la tesis consiste en demostrar que mediante datamining es posible
elaborar un plan para enfocar la estrategia comercial en los productos de créditos de
consumo, tarjetas y líneas de crédito de un Banco pequeño que carece de un
datawarehouse. La hipótesis consiste en el supuesto de que el conjunto de bases de
datos operacionales que forzosamente cualquier Banco debe poseer proveen
información suficiente para elaborar un plan de datamining como el que se desea
construir. El desarrollo de la tesis, en tanto, consiste en detallar paso a paso con una
metodología de datamining (CRISP-DM) como formular un plan para enfocar las
campañas bancarias mediante una segmentación de riesgo y rentabilidad basada en
modelos predictivos generados a partir de los datos de las bases operacionales antes
mencionadas. Finalmente, la principal conclusión que se obtiene como resultado de la
investigación consiste en que la tesis planteada en un comienzo es válida, por cuanto
es posible construir un plan como el deseado.
Quisiera dedicar este trabajo a mi madre, Isolina Venegas, quien a través de su ejemplo
de enorme generosidad hacia sus hijos me enseñó a enfrentar la vida con esfuerzo,
bondad y sencillez. Quisiera también agradecer al MBA de la Universidad de Chile por
transmitirme un deseo genuino de contribuir a la sociedad con todo mi talento,
creatividad y energía, puesto que en dicho deseo he encontrado la fuente de un
liderazgo auténtico y orientador en mi vida profesional.
INDICE
1 INTRODUCCIÓN......................................................................................................14
13 CONCLUSIÓN ....................................................................................................209
14 BIBLIOGRAFÍA...................................................................................................212
INDICE DE FIGURAS
Figura 2.5 Evolución del margen de intereses del sistema financiero chileno
como un todo, periodo 2000-2005 ..........................................................23
Figura 2.15 Composición del margen operacional bruto de los distintos Bancos,
Julio 2005................................................................................................32
Figura 2.17 Ranking de Bancos por colocaciones de consumo, Febrero 2005 .........34
Figura 9.2 Flujo de datos en Clementine que obtiene la base de datos final
para construir un modelo predictivo ........................................................99
Figura 9.5 Flujo de datos en Clementine que estima las deudas de un cliente
con terceros ..........................................................................................105
Figura 9.6 Flujo de datos en Clementine que obtiene los saldos actuales de
las cuentas, tanto antes como después del envío del D01 hace dos
meses ...................................................................................................106
Figura 9.7 Flujo de datos en Clementine que obtiene los saldos actualizados
de las cuentas reportadas hace dos meses en el D01 enviado a la
SBIF ......................................................................................................107
Figura 9.8 Flujo de datos en Clementine que obtiene las deudas actualizadas
de los clientes con el Banco..................................................................108
Figura 9.9 Flujo de datos en Clementine que separa los clientes “nuevos” (de
hace menos de dos meses) de los clientes antiguos ............................110
Figura 9.10 Flujo de datos en Clementine que estima las deudas con terceros
de los clientes “nuevos” (de menos de dos meses de antigüedad).......111
Figura 9.11 Flujo de datos en Clementine que obtiene las deudas de los
clientes tanto con el Banco como con terceros .....................................112
Figura 9.12 Flujo de datos en Clementine que mezcla los datos de las deudas
de los clientes, de su renta y de sus características demográficas.......113
Figura 10.3 Proporción de clientes malos por clase de carga financiera .................125
Figura 10.6 Unidades con una función de activación escalonada que pueden
representar distintas puertas lógicas.....................................................134
Figura 10.7 Una red neuronal con dos inputs, un nivel oculto de dos unidades y
una salida..............................................................................................135
Figura 10.8 Gráfico del output de un perceptrón con dos unidades de entrada y
una función de activación sigmoidal......................................................137
Figura 10.10 El resultado de combinar dos cordilleras para producir un cerro ..........139
Figura 10.12 Red neuronal con un nivel oculto y dos unidades de salida..................142
Figura 10.13 Ejemplo de árbol de decisión que permite clasificar a los clientes en
buenos y malos .....................................................................................149
Figura 10.17 Árbol de decisión generado por algoritmo a partir de los ejemplos
del conjunto de datos de entrenamiento ...............................................155
Figura 10.23 Estadígrafo K-S, calculado como la máxima distancia entre las
distribuciones de buenos y malos de un modelo de puntaje.................184
Figura 12.1 Tareas y outputs de la fase de despliegue, sexta y última fase del
proyecto de datamining según metodología CRISP-DM.......................203
Figura 12.2 Flujo de datos en Clementine que obtiene una base de clientes con
notas de riesgo y rentabilidad a partir de una base de variables
predictivas .............................................................................................205
Figura 12.3 Flujo de datos en Clementine que obtiene una base de ofertas
comerciales a partir de una base con notas de riesgo y rentabilidad....206
1 INTRODUCCIÓN
El objetivo del autor del presente trabajo1 no ha sido elaborar modelos predictivos de la
rentabilidad de los clientes ni de su desempeño crediticio, puesto que para ello hubiese
sido necesario disponer de los datos de los clientes de algún Banco, cosa que ha
escapado totalmente al ámbito de definición de la investigación. El objetivo, en cambio,
ha sido relatar cómo es posible elaborar un plan para que un Banco pequeño construya
e implemente modelos de datamining que le ayuden a enfocarse en nichos de mercado
específicos. Por ende, el foco de la tesis no se encuentra en la descripción de modelos
predictivos específicos, sino que en la forma de elaborar un plan para construir tales
modelos. Por lo tanto, las indicaciones que se entregan en este informe son genéricas,
puramente conceptuales, no están dirigidas a ningún Banco específico y no se basan
en ningún conjunto de datos de ningún grupo de personas. En consecuencia no se ha
pedido ni obtenido autorización de ninguna institución ni persona para utilizar en este
informe datos confidenciales, tales como información sujeta a secreto bancario.
1
Mauricio De Luca, ingeniero civil de industrias y diploma académico en la especialidad de ingeniería en
computación de la Pontificia Universidad Católica de Chile (mpdeluca@puc.cl)
14
por su parte, establecen si la tesis es válida o falsa, y se derivan directamente del
desarrollo de la demostración.
2
Fuente: elaboración propia
15
poseer y que proveen información necesaria y suficiente para realizar estudios de
datamining. Existen también otras hipótesis de trabajo que son necesarias para poder
satisfacer el objetivo de la tesis y las cuales se detallan en el capítulo 5.
El desarrollo de la tesis, en tanto, consiste en detallar paso a paso con una metodología
de datamining (CRISP-DM) como formular un plan para enfocar las campañas,
construyendo modelos predictivos de riesgo y rentabilidad a partir de datos de bases
operacionales. El desarrollo de la tesis es dividido en los capítulos 7 al 12,
correspondiendo cada uno a las distintas fases en las que se divide un proyecto de
datamining en la metodología CRISP-DM.
El resto del documento está dividido como sigue: el capítulo 2 ofrece un diagnóstico del
problema de las campañas bancarias, el capítulo 3 define los objetivos de la
investigación (lo cual calza con la primera etapa de formulación de la tesis dada en la
figura 1.1). El capítulo 4 entrega definiciones previas que se utilizarán en el resto del
documento. El capítulo 5 detalla las hipótesis de trabajo (lo cual corresponde a la
segunda etapa de la tesis dada en la figura 1.1). El capítulo 6 se refiere a la
metodología que se utiliza en la formulación del plan de datamining, junto a las razones
para su elección. El desarrollo de la tesis, tercera etapa en el esquema entregado en la
figura 1.1, se entrega en los capítulos 7 al 12. El capítulo 13 corresponde a la cuarta y
última etapa de la figura 1.1 y resume las conclusiones de la investigación. Finalmente
el capítulo 14 entrega la bibliografía.
16
2 DIAGNÓSTICO DEL PROBLEMA
3
Fuente: EL DIARIO FINANCIERO, Bancos Salen a la Caza de Nuevos Segmentos para Rentabilizar su
Negocio, 28/03/2005
17
2.1.1 Créditos de consumo
Los Bancos utilizan para colocar sus créditos de consumo canales tales como el
contacto telefónico y el marketing directo, al mismo tiempo que medios de publicidad
como los avisos en diarios, radio y televisión. Algunos Bancos, invitan a sus clientes a
retirar en sucursales un préstamo que ya está autorizado. Otros, en cambio, han
llegado incluso a hacer uso de las llamadas “preaprobaciones automáticas”, en virtud
de las cuales los ejecutivos llaman a sus clientes para ofrecerles depositar en su cuenta
corriente un crédito que ya está aprobado. Las campañas de créditos de consumo
incluyen tasas preferenciales, premios y beneficios.
Las tarjetas bancarias generan ingresos por múltiples conceptos, entre ellos la tarifa
mensual por mantención que debe pagar el cliente, al igual que las comisiones que
debe pagar el comerciante por cada transacción. Generan también el cobro de
intereses por dos causas: los montos utilizados de la tarjeta, y los montos de las líneas
de crédito que son empleadas con el propósito de pagar las tarjetas. Ello explica por
qué existe tanto interés por parte de los Bancos en ofrecer rebajas de intereses o de
4
Fuente: EL DIARIO FINANCIERO, La Nueva Ofensiva de los Bancos por Fidelizar y Captar Clientes,
20/01/2005
5
Fuente: Informe de Estabilidad Financiera, Banco Central, primer semestre 2006
18
precios con tal de fomentar el uso de las tarjetas. Al fin de cuentas los ingresos
generados por mantenciones, comisiones e intereses superan las rebajas.
2.2 El mercado
19
del Santander con el Banco Paris, del BancoEstado con D&S, del BCI con Falabella y
del Banco Chile con Falabella y Ripley.
Es posible distinguir varios mercados objetivo a los que pueden dirigirse las campañas
de créditos de consumo, tarjetas o líneas de crédito. El primero es el conjunto de
clientes que poseen créditos de consumo con el Banco próximos a expirar, o que han
sido pagados en su mayor parte. El segundo mercado está conformado por los clientes
que son deudores del Banco en algún producto, pero que carecen de alguno de los
otros productos considerados en este estudio. El tercer mercado está constituido por las
personas que no son clientes del Banco y que no poseen créditos de consumo, tarjetas
ni líneas de éste. Existen, no obstante, muchas distinciones que es posible percibir en
los clientes y que los diferencian profundamente del resto. Existen, por ejemplo, clientes
que tienen sólo depósitos a plazo en el Banco, otros que tienen créditos hipotecarios,
otros que son empresas o personas con giro, profesionales jóvenes, etc.
El presente estudio se ha enfocado sólo en los clientes que son deudores del Banco en
algún producto y que son personas naturales sin giro. Por otro lado, se supondrá que
las campañas a las cuales se aplique el plan descrito en este documento no
contemplarán créditos destinados a prepagar otras deudas. Por lo tanto, el estudio se
concentrará sólo en los clientes con capacidad para adquirir deudas adicionales a
aquellas que ya poseen.
2.3 La industria
Existen tres grandes Bancos que concentran más de la mitad del total de las
colocaciones del sistema: el Santander, el Chile y el Estado. Los siguen tres Bancos
medianos: el BCI, el BBVA y Corpbanca, que en conjunto tienen más de la cuarta parte
de las colocaciones totales. El resto de los Bancos, que pueden con propiedad
clasificarse como pequeños, tienen en total una cuarta parte de las colocaciones. Como
se mostrará a continuación, los gastos operacionales, las rentabilidades y las tasas de
crecimiento de los Bancos dependen fuertemente de su tamaño.
20
Figura 2.2 Porcentaje de participación de las colocaciones de los distintos
Bancos del sistema financiero chileno, Julio del 200511
11
Fuente: tabla del anexo A, la cual contiene datos extraídos de los volúmenes de Julio de los años 2004
y 2005 de la revista Información Financiera de la SBIF
12
Fuente: tabla del anexo B, la cual contiene datos extraídos de los volúmenes de Julio de los años 2000
al 2005 de la revista Información Financiera de la SBIF
21
El gráfico anterior ha mostrado cómo los Bancos grandes, a excepción del Banco del
Estado, obtienen gastos operacionales permanentemente por debajo del promedio de la
industria, en tanto que los Bancos pequeños tienen gastos muy superiores. Ello se
explica por las fuertes economías de escala presentes en el negocio Bancario, lo cual
queda reafirmado por el hecho de que aun los Bancos medianos presentan gastos
operacionales consistentemente por debajo de los bancos pequeños, como puede
apreciarse en el siguiente gráfico:
Tal vez el BBVA escapa un poco a la tendencia de los Bancos medianos, sin embargo
ello puede explicarse por una orientación particular hacia el negocio hipotecario.
Por otro lado, en la industria bancaria nacional los márgenes de intereses, que se
generan por la diferencia entre los intereses que los Bancos cobran por las
colocaciones y los intereses que pagan por las captaciones, han caído debido a la
fuerte competencia, como se revela en el siguiente gráfico:
13
Fuente: tabla del anexo B, la cual contiene datos extraídos de los volúmenes de Julio de los años 2000
al 2005 de la revista Información Financiera de la SBIF
22
Figura 2.5 Evolución del margen de intereses del sistema financiero chileno
como un todo, periodo 2000-200514
Entre julio del 2000 y julio del 2005 el margen de intereses sobre el resultado
operacional bruto bajó desde 80,8% a 73,8%15 , presentando, por lo tanto, una
reducción de un 7% del resultado operacional bruto. Ello fue más que compensado por
la disminución en los gastos operacionales, que bajaron de un 60,2% a un 51,7% del
resultado operacional bruto (vale decir un 8,5% del resultado operacional bruto)16. Esto
se ha traducido en un aumento de la rentabilidad para el sistema financiero como un
todo. No obstante, mientras los Bancos grandes y medianos han bajado sus gastos
operacionales, ese no ha sido el caso de los Bancos pequeños.
14
Fuente: tabla del anexo C, la cual contiene datos extraídos de los volúmenes de Julio de los años 2000
al 2005 de la revista Información Financiera de la SBIF
15
Fuente: Revista Información Financiera, SBIF, julio del 2000 y julio del 2005
16
Fuente: Revista Información Financiera, SBIF, julio del 2000 y julio del 2005
23
Figura 2.6 Comparación entre Bancos grandes y pequeños de la razón de
margen de intereses / colocaciones, periodo 2000-200517
1.- Claramente los Bancos pequeños no pueden competir por precio (margen de
intereses) con los Bancos grandes, que disponen de mayores economías de escala.
2.- Los Bancos grandes muestran una tendencia creciente a disminuir sus márgenes de
intereses, acercándose a aquellos de los Bancos pequeños, lo que puede interpretarse
como una disminución generalizada de los precios de la industria. De esa forma, la
diferenciación por precio de los Bancos pequeños es algo que está en vías de
desaparecer.
17
Fuente: tabla del anexo D, la cual contiene datos extraídos de los volúmenes de Julio de los años 2000
al 2005 de la revista Información Financiera de la SBIF
24
Figura 2.7 Comparación entre Bancos medianos y pequeños de la razón de
margen de intereses / colocaciones, periodo 2000-200518
Una clave para sobrevivir pueden darla el BankBoston y el Citibank, que a pesar de
tener un tamaño reducido cuentan con márgenes de intereses muy por sobre aquellos
que presentan el resto de los Bancos pequeños. Los altos márgenes de intereses de los
dos Bancos antes mencionados pueden explicarse por su orientación a un segmento de
clientes preferenciales que están dispuestos a pagar un precio mayor al de mercado por
recibir un servicio diferenciado. De ahí surge un argumento presente en las hipótesis de
trabajo sobre las que se basa esta investigación: los Bancos pequeños para poder
competir se ven enfrentados a dos posibilidades, una de las cuales calza con lo que
han logrado el BankBoston y el Citibank, y que consiste en focalizarse en un nicho de
mercado específico donde es posible alcanzar márgenes de intereses (precios) por
sobre los de un mercado competitivo. La otra posibilidad para competir es bastante
obvia y consiste en crecer y alcanzar por esa vía mayores economías de escala.
La siguiente figura permite contrastar los márgenes de intereses del Citibank y del
BankBoston con los del resto de los bancos pequeños:
18
Fuente: tabla del anexo D, la cual contiene datos extraídos de los volúmenes de Julio de los años 2000
al 2005 de la revista Información Financiera de la SBIF
25
Figura 2.8 Comparación del margen de intereses sobre colocaciones entre
Bancos de clientes preferenciales y Bancos pequeños, periodo 2000-200519
19
Fuente: tabla del anexo D, la cual contiene datos extraídos de los volúmenes de Julio de los años 2000
al 2005 de la revista Información Financiera de la SBIF
26
Figura 2.9 Comparación de la rentabilidad sobre patrimonio de Bancos
grandes y pequeños, periodo 2000-200520
20
Fuente: tabla del anexo E, la cual contiene datos extraídos de los volúmenes de Julio de los años 2000
al 2005 de la revista Información Financiera de la SBIF
21
Fuente: idem. a la anterior
27
Por otro lado, es preciso notar que el sistema financiero chileno como un todo ha
crecido durante el periodo 2000-2004, y ello tanto en los productos hipotecarios, como
en las colocaciones para empresas o de consumo, como lo muestra la siguiente figura:
28
un avance sostenido de los Bancos medianos que finalizó el periodo 1999-2005 con
tasas por sobre el 10% anual. El crecimiento, por lo tanto, también muestra evidencias
de la existencia de fuertes economías de escala. La figura 2.12 permite constatar este
hecho:
Es posible observar el vínculo que existe entre tamaño y crecimiento utilizando una
matriz del Boston Consulting Group, en la cual los Bancos se clasifican en cuatro
grupos de acuerdo a su participación de mercado y a su porcentaje de crecimiento.
Todos los Bancos grandes pueden clasificarse como “vacas lecheras”, por cuanto
presentan una alta participación de mercado, superior al 6%, y un bajo crecimiento,
inferior al 15% anual. La totalidad de los Bancos medianos, en tanto, pueden
clasificarse como “estrellas”, con un crecimiento por sobre el 15% y un porcentaje de
participación sobre el total de las colocaciones superior al 6%. Los Bancos pequeños,
por su parte, pueden ser divididos en dos grupos: los poco atractivos (BICE, Citibank y
Scotiabank), con tasas de crecimiento inferiores al 15% al año; y las incógnitas
23
Fuente: tabla del anexo F, la cual contiene datos extraídos de los volúmenes de Julio de los años 1999
al 2005 de la revista Información Financiera de la SBIF
29
(Security, BankBoston y Bco. del Desarrollo), con tasas de crecimiento sobre el 15%. El
siguiente gráfico ilustra la matriz:
Hasta el momento se había podido constatar que los Bancos pequeños eran
consistentemente menos atractivos que los Bancos medianos o grandes, no obstante
ha surgido una nueva distinción entre los Bancos pequeños: las incógnitas y los poco
atractivos. Para poder explicar las diferencias en el desempeño entre estos dos grupos
de Bancos es preciso notar que estas instituciones no sólo difieren por su tamaño, sino
que también por sus orientaciones a distintos tipos de negocios, mercados y productos.
Dichas orientaciones juegan un papel fundamental en las diferencias de crecimiento y
de rentabilidad observadas entre los Bancos pequeños.
24
Fuente: tabla del anexo A, la cual contiene datos extraídos de los volúmenes de Julio de los años 2004
y 2005 de la revista Información Financiera de la SBIF
30
directamente en diferencias en ingresos, por cuanto cada negocio opera con tasas de
interés muy distintas. Por otro lado, para la mayoría de los Bancos nacionales el
margen de intereses contribuye al resultado operacional bruto en más de un 70%25.
El siguiente gráfico ilustra como las tasas de interés de las colocaciones de consumo
para personas naturales (tarjetas de crédito, líneas de crédito y créditos de consumo)
superan en mucho a las tasas hipotecarias y a las tasas de los créditos comerciales.
Es por esta razón que las colocaciones de consumo, que representan menos del 25%
del total de las colocaciones del sistema financiero27, contribuyen a los ingresos
bancarios en un porcentaje mucho mayor.
Es posible clasificar también a los Bancos de acuerdo a los porcentajes de los ingresos
operacionales que son generados por intereses, por comisiones o por otros ingresos
operacionales. El siguiente diagrama ilustra esa clasificación, pudiendo observarse
como los Bancos que muestran los mayores ingresos porcentuales por concepto de
intereses son aquellos con orientación a clientes preferenciales (vale decir el
25
Fuente: Revista Información Financiera, SBIF, Julio 2005
26
Fuente: tabla del anexo H, la cual contiene datos extraídos de los volúmenes del 2005 del Informe de
las Tasas de los Principales Productos de Consumo de la SBIF y del Informe de Mutuos Hipotecarios
Endosables de la SBIF
27
Fuente: Revista Información Financiera, SBIF, Julio 2005
31
BankBoston y el Citibank). Por otro lado, los Bancos más orientados a los créditos
hipotecarios, vale decir el BBVA y el BancoEstado, son aquellos con menores
contribuciones de los intereses al resultado operacional.
Figura 2.15 Composición del margen operacional bruto de los distintos Bancos,
Julio 200528
En la figura 2.16 dada más adelante se grafican los porcentajes que representan los
diversos tipos de crédito sobre el total de colocaciones de cada Banco. Los Bancos
pueden clasificarse en cuatro grupos en base a dicha figura: A, B, C y D. Las
instituciones del grupo A, que no son otras que los Bancos de las casas comerciales, se
orientan preferentemente a las colocaciones de consumo. El grupo B, en tanto, aglutina
fundamentalmente a los Bancos grandes y medianos, y en él las colocaciones de
consumo representan menos del 25% del total, al tiempo que las colocaciones para
empresas se ubican entre el 50% y el 70%. El grupo C incluye a pequeños Bancos
28
Fuente: tabla del anexo I, la cual contiene datos extraídos del volumen de Julio del 2005 de la revista
Información Financiera de la SBIF
32
orientados a las colocaciones de consumo, que superan el 25% del total. El grupo D
incluye a la mayoría de los Bancos pequeños, los cuales se enfocan fundamentalmente
en ofrecer créditos a las empresas.
Cabe notar que los Bancos del grupo C calzan casi perfectamente con los Bancos poco
atractivos de la matriz de crecimiento/participación. Ello debiera ser particularmente
preocupante, puesto que los Bancos de las casas comerciales son especialistas en
créditos de consumo, y su importancia y participación en el negocio se incrementa día a
día. Ante tal escenario el futuro para los Bancos del grupo C se augura poco
auspicioso, a menos que se enfoquen en nichos de mercado específicos, como lo ha
hecho el Citibank.
29
Fuente: tabla del anexo J, la cual contiene datos extraídos del volumen de febrero del 2005 del Informe
de Colocaciones por Actividad Económica de la SBIF, y del volumen del 2005 del Informe de Mutuos
Hipotecarios Endosables de la SBIF
33
Como la siguiente figura lo consigna, la orientación de ciertos Bancos los hace aparecer
entre los Bancos medianos en el ranking de colocaciones de consumo, a pesar de
tratarse sólo de Bancos pequeños en términos de colocaciones totales. Tal es el caso
del Scotiabank y del Citibank. Resulta notoria también la presencia en el ranking de los
Bancos de las casas comerciales, que ya superan a muchos Bancos pequeños en
cuanto a colocaciones de consumo. Claramente se avecinan días difíciles para los
Bancos del grupo C que no consigan diferenciarse, producto de una previsible dura
competencia por parte de los Bancos de las casas comerciales.
Las diferencias entre los Bancos grandes y pequeños muestran que el negocio bancario
está dominado por fuertes economías de escala. Ante dicho escenario resulta
30
Fuente: volumen de febrero del 2005 del Informe de Colocaciones por Actividad Económica de la SBIF
34
imprescindible para los Bancos pequeños crecer o enfocarse en nichos de mercado
susceptibles de ser atacados con servicios diferenciados.
2.4 La tecnología
La alta competencia entre los bancos nacionales los ha impulsado a implementar CRMs
analíticos capaces de orientar las campañas de consumo en forma altamente
sofisticada hacia las necesidades de los clientes. Al mismo tiempo, sistemas de
información conectados a datawarehouses han hecho posible determinar hasta qué
punto pueden extenderse en forma rentable las condiciones de las ofertas. Ello ha dado
31
Fuente: Data Mining Tools, METAspectrum Market Summary, META Group, September 2004,
www.metagroup.com
35
lugar a campañas bancarias concebidas como una herramienta estratégica clave, y
puede hablarse con propiedad de que en su diseño existe una orientación o un enfoque
“estratégico”. No obstante, dicho enfoque convive con otros que poseen Bancos
carentes de foco y liderazgo, instituciones abocadas principalmente a cumplir los
compromisos del día a día. Los enfoques asociados a tales instituciones pueden
denominarse “operacionales”.
36
niveles jerárquicos, cada uno con atribuciones de otorgamiento de montos de crédito
mayores. Bajo tal esquema la comunicación entre personas de diferentes niveles
jerárquicos es difícil o inexistente. Dicha forma de trabajar, ideal para controlar el
préstamo de dinero, dificulta la comunicación entre áreas y la innovación,
imprescindibles para implementar campañas eficaces.
Es posible que un Banco pequeño caiga en la trampa de realizar sus campañas con un
enfoque operacional, en cuyo caso el Área Comercial y el Área de Riesgo de Crédito
realizarán su labor descoordinadamente. Es probable que el Área Comercial defina su
propio plan para orientar las campañas, sin tener presente consideraciones de riesgo. A
su vez, es también probable que el Área de Riesgo de Crédito defina criterios de riesgo
aceptables, pero sin mezclarlos con los criterios del Área Comercial.
Bajo un enfoque operacional es probable que las campañas operen de una forma
descrita por los siguientes puntos:
1.- El Área Comercial define parámetros comerciales para cada uno de los productos
(como la edad de los clientes que serán considerados, los montos mínimos y máximos
de las ofertas, el segmento socioeconómico y en general el perfil de los cliente-objetivo
desde un punto de vista comercial).
2.- Luego de definidos dichos parámetros, el Área Comercial solicita al Área de Riesgo
de Crédito la generación de una base de campañas con montos preaprobados.
3.- La labor del Área de Riesgo de Crédito es la de aplicar filtros sobre los clientes
potenciales de manera de descartar aquellos que no cumplen con ciertas políticas de
riesgo (tales como edad mayor a 70 años; poseer deuda morosa, vencida o castigada
en el registro de deudas de la SBIF; poseer cheques u otros documentos protestados
en el Boletín de Informes Comerciales; poseer un ingreso inferior a un valor
determinado; tener un Dicom score inferior a un mínimo; tener índices de
endeudamiento hipotecario y no hipotecario acordes con los límites máximos definidos,
etc.).
4.- El Área de Riesgo de Crédito calcula para cada cliente el monto que es posible
ofrecer en conformidad a las políticas de crédito. En dicho cálculo en ningún momento
se considera la pérdida esperada asociada al préstamo ofrecido a cada cliente, por
37
cuanto bajo un esquema operacional no existen formas de calcular la probabilidad de
pérdida de los préstamos dirigidos a cada cliente individual.
Bajo un enfoque operacional existe una división del trabajo en la cual hay quienes
toman las decisiones y definen la estrategia, y quienes son simples entes ejecutores de
dichas decisiones y estrategias. En tal escenario un profesional que trate de realizar
datamining puede verse del todo incapacitado, si no se le hace partícipe de las
decisiones, ni de los motivos de dichas decisiones. La siguiente figura muestra como un
esquema de comunicación operacional, ideal para controlar el préstamo de dinero, se
vuelve inapropiado en un proyecto de datamining, al impedir a un profesional que
38
intenta desarrollar minería de datos el acceder a la información necesaria para dicha
labor:
32
Fuente: elaboración propia
39
constituye una fuente importante de inercia. Es posible incluso argumentar que las
cosas deben hacerse de un modo particular porque la experiencia dice que deben
hacerse así, sin atender a mayor razonamiento ni análisis. El enfoque operacional
conduce a una cierta forma de arrogancia en materias de conocimiento. En efecto, al no
ser capaz de ver más allá de los problemas inmediatos, las causas inmediatas y las
soluciones inmediatas, existe la tendencia a creer que todo lo que se ve es todo lo que
es necesario saber. Dicha creencia de “saberlo todo” constituye una enorme barrera al
aprendizaje, a la innovación y al espíritu crítico, aptitudes que son todas fundamentales
para poder mejorar cualquier proceso de negocios.
El enfoque operacional nace del trabajo con procedimientos definidos, con estándares
de respuesta claros, como en una cadena de ensamblaje donde cada operario sabe
bien qué debe hacer y le corresponde hacer exactamente eso, ni un ápice más ni un
ápice menos. El enfoque operacional no se ajusta bien a procesos que viven una etapa
de grandes cambios, donde los estándares del pasado ya no son válidos, o dónde los
pasos a seguir no están claros y deben ser redefinidos.
El enfoque operacional, ideal para evitar fraudes y para controlar el riesgo de los
préstamos de dinero, puede impedir la realización de datamining y con ello puede
dificultar a un Banco crecer y realizar buenos negocios.
40
sino que en probabilidades de que los clientes se transformaran en el futuro en malos
en términos crediticios, o en personas sin gran rentabilidad potencial. Una
segmentación semejante utilizaría el conocimiento que el Banco posee sobre las
características de sus clientes en mejor forma que el enfoque operacional.
41
3 OBJETIVOS DE LA INVESTIGACIÓN
Objetivo s3: Mostrar cómo es posible clasificar a los clientes en distintos segmentos de
riesgo y rentabilidad potencial, y cómo es posible dirigir una oferta diferenciada para
cada uno de esos segmentos.
Objetivo s4: Mostrar cómo un Banco puede crecer satisfaciendo un nivel mínimo de
riesgo, utilizando para ello puntajes calculados por modelos predictivos de riesgo de
crédito y de rentabilidad potencial de los clientes.
42
Banco pequeño construya e implemente modelos de datamining que le ayuden a
enfocarse en nichos de mercado. Por ello, las indicaciones que se entregan son
genéricas, puramente conceptuales, no están dirigidas a ningún Banco específico y no
se basan en ningún conjunto de datos de ningún grupo de personas.
43
4 DEFINICIONES PREVIAS
Dado que el tema de esta tesis gira en torno a la utilización de datamining en las
campañas bancarias y a un plan para construir modelos, es preciso primero que nada
dar una definición de los términos datamining y modelo.
“Data Mining – (1) The process of utilizing the results of data exploration to adjust or
enhance business strategies. It builds on the patterns, trends, and exceptions found
through data exploration to support the business. It is also known as data harvesting. (2)
A technique using software tools geared for the user who typically does not know
exactly what he’s searching for, but is looking for particular patterns or trends. Data
mining is the process of sifting through large amounts of data to produce data content
relationships. This is also known as data surfing”33.
“Data Mining, as we use the term, is the exploration and analysis, by automatic or
semiautomatic means, of large quantities of data in order to discover meaningful
patterns and rules”34.
“Data mining uses sophisticated statistical analysis and modeling techniques to uncover
patterns and relationships hidden in organizational databases – patterns that ordinary
methods might miss”36.
33
Fuente: Data Warehousing Technology Glossary, Applied Technology Group, 1997
34
Fuente: BERRY, M. J. A., LINOFF, G., Data Mining Techniques for Marketing, Sales, and Customer
Support, John Wiley & Sons, Inc., 1997
35
Fuente: WILSON, L., Canadian Bank Mines for Gold, Computerworld, 1997
36
Fuente: Introduction to Data Mining and Knowledge Discovery, Two Cross Corporation, 1998
44
“Data Mining [is] the process of efficient discovery of nonobvious valuable information
from a large collection of data”37.
45
4.3 Definición del concepto de técnica de modelamiento
46
4.5 Definición del concepto de plan de datamining
El presente documento describe cómo construir un plan de datamining para enfocar las
campañas de un Banco en los productos de créditos de consumo, tarjetas y líneas de
crédito. Las indicaciones de este documento pueden traducirse en un plan de
datamining concreto para un Banco específico, no obstante para ello es preciso definir
plazos, presupuesto, personas y recursos a utilizar. La implementación de dicho plan
puede a su vez traducirse en un proyecto de datamining, mediante la ejecución de cada
una de las actividades establecidas en el plan.
47
5 HIPÓTESIS DE TRABAJO
48
posible rescatar los respaldos de cintas con la información de un año atrás de todas las
fuentes de datos.
Se supone que existe un conjunto mínimo de bases de datos que cualquier banco debe
forzosamente poseer y cuya utilización no viola el secreto bancario y está en
conformidad con las leyes y reglamentos que rigen a la Banca. Muy en particular se
supone que la base de datos con las deudas consolidadas de 4.500.000 de chilenos
que elabora mensualmente la SBIF puede ser usada por los Bancos sin necesidad de
pedir la autorización a ninguna persona (dicha base de datos corresponde a la fuente
de datos denominada “Informe de la SBIF”, descrita en el capítulo 8).
49
crédito no pueden incluir características como el sexo o el grupo étnico. Se supondrá no
sólo que dicha legislación no existe en Chile, sino que tampoco existirá en el mediano
plazo.
Los supuestos antes descritos son utilizados en el capítulo 7, al momento de definir los
objetivos de negocios del proyecto de datamining (output 1a.2), y que son precisamente
focalizarse en nichos de mercado y crecer sujeto a un nivel mínimo de riesgo. A la luz
de los supuestos realizados, los objetivos de negocios planteados para el proyecto
adquieren sentido estratégico y no son simplemente metas arbitrarias.
50
Por otro lado, un supuesto de negocios adicional lo constituye el que el presente
estudio se enfoque sólo en los clientes deudores del Banco en algún producto y sólo en
las personas naturales sin giro. Del mismo modo, se da por hecho que las campañas a
las cuales se aplique el plan descrito en este documento no contemplarán créditos
destinados a prepagar otras deudas. No se considerarán, en consecuencia, ofertas
para los productos denominados “créditos de reciclaje” ni “créditos grúa”, y que están
destinados respectivamente a prepagar créditos de la propia institución o de otras
instituciones. Por lo tanto, como se ha mencionado en la sección 2.2, el estudio se
concentrará sólo en los clientes con capacidad para adquirir deudas adicionales a
aquellas que ya poseen. Estos supuestos son utilizados en el capítulo 7, al momento de
definir los conceptos de cliente “malo” desde un punto de vista crediticio y de cliente “sin
gran rentabilidad potencial”. Muy en particular, el hecho de dejar fuera de las campañas
a las personas sin capacidad de adquirir nuevas deudas se usa para clasificar como
“sin rentabilidad potencial” a ese tipo de clientes.
Se supone que el presente plan de datamining se elabora para un Banco pequeño que
realiza sus campañas con un enfoque operacional similar al descrito en el capítulo 2. Se
supondrá que el Área Comercial y el Área de Riesgo de Crédito ejecutan su labor
descoordinadamente: definiendo la primera su propio plan para orientar las campañas,
pero sin tener presente consideraciones de riesgo, y estableciendo la segunda criterios
de riesgo aceptables, pero sin mezclarlos con aspectos comerciales. En consecuencia
se supondrá que las campañas bancarias se realizan entregando una oferta estándar a
todos los clientes que cumplen con ciertos criterios de riesgo, sin segmentar por riesgo
y rentabilidad potencial.
51
probabilidad de pérdida asociada al monto total ofrecido en una campaña. En ausencia
de un modelo capaz de medir adecuadamente el nivel de riesgo de una campaña por la
vía de estimar la pérdida asociada al monto ofrecido en ésta, un Banco no podrá
aumentar los montos ofrecidos sujeto todo ello a la satisfacción de un cierto nivel de
riesgo.
52
6 METODOLOGÍA DE TRABAJO
53
Fase de manipulación de los datos: luego de finalizada la exploración de los datos se
procede a darles el formato adecuado para poder alimentar el modelo que se desarrolle
en la fase siguiente.
54
figura con las fases de esta metodología y sus correspondientes tareas, para luego
describirlas en mayor detalle.
38
Fuente: CHAPMAN, Pete, CLINTON, Julian, KERBER, Randy, KHABAZA, Thomas, REINARTZ,
Thomas, SHEARER, Colin, WIRTH, Rüdiger, CRISP DM 1.0 Step By Step Data Mining Guide, SPSS Inc.,
2000
55
determinar objetivos de datamining que traduzcan a criterios técnicos los objetivos de
negocios, y finalmente producir el plan del proyecto.
Fase de preparación de los datos: en esta fase debe construirse una base de datos, la
cual debe contener todas las características consideradas candidatas para estimar el
valor de una variable que se espera predecir. Esta fase incluye la tarea de selección de
los datos a los que se va a aplicar la técnica de modelamiento, la tarea de limpieza de
los mismos de manera de alcanzar el nivel de calidad requerido por las técnicas de
datamining que se seleccionen, la tarea de construir datos adicionales, la tarea de
integrar diferentes bases de datos, y la tarea de formatear los datos. La fase de
preparación de los datos debe entregar datos que estén en un formato adecuado para
la técnica de modelamiento que se empleará en la fase siguiente. Por ello, la fase de
modelamiento puede requerir volver a la fase de preparación de datos una o más
veces.
56
pruebas del modelo, la construcción del mismo, y finalmente, la evaluación técnica a la
que debe someterse el modelo a través de criterios estadísticos.
Fase de despliegue del modelo: en esta fase deberá definirse una estrategia para
implementar los resultados de la minería de datos. Incluye las tareas de planificar el
despliegue del modelo, de planificar el monitoreo y la mantención de los modelos, de
generar el reporte final del proyecto, y de revisar el proyecto en relación a evaluar lo
que ocurrió correctamente y lo que necesita ser mejorado.
57
mientras que la metodología CRISP-DM se inicia efectuando un análisis del problema
desde un punto de vista de negocios. La metodología CRISP-DM es más próxima a una
metodología de gestión de proyectos, pudiendo por ello integrarse en mejor forma a
proyectos cuyo ámbito dentro de la empresa sea más amplio que el simple manejo
estadístico.
La metodología SEMMA está muy ligada a los productos SAS, donde se encuentra
implementada, en tanto que la metodología CRISP-DM ha sido diseñada como una
metodología no vinculada a ningún proveedor de software, siendo su distribución
gratuita, por lo que es posible utilizarla con múltiples herramientas de business
intelligence, entre ellas Clementine de SPSS.
A todas las razones dadas anteriormente para justificar la elección de CRISP-DM debe
agregarse que es uno de los estándares más ampliamente utilizados en minería de
datos hoy en día.
58
7 PRIMERA FASE DEL PLAN: COMPRENSIÓN DEL NEGOCIO
El siguiente diagrama muestra las distintas tareas que deben ser realizadas en la fase
de comprensión del negocio de la metodología CRISP-DM, junto a los resultados o
outputs que deben obtenerse de la ejecución de cada una de ellas:
Pasar por alto esta fase traería como consecuencia el que se invertiría gran esfuerzo y
tiempo en responder las preguntas de negocios equivocadas. Algunos ejemplos de
39
Fuente: CHAPMAN, Pete, CLINTON, Julian, KERBER, Randy, KHABAZA, Thomas, REINARTZ,
Thomas, SHEARER, Colin, WIRTH, Rüdiger, CRISP DM 1.0 Step By Step Data Mining Guide, SPSS Inc.,
2000
59
posibles interrogantes de negocios que pueden motivar un estudio de datamining
referido a las campañas bancarias son las siguientes:
- ¿Es posible determinar el máximo de deuda que pueden contraer los clientes de un
Banco sin sobrepasar un nivel aceptable de riesgo de crédito?.
60
genérico y no se basa en el caso de ningún Banco específico, sólo es posible dar una
descripción también conceptual y genérica de los resultados que se refieren al
inventario de recursos del proyecto (output 1b.1), a los requisitos, supuestos y
restricciones del mismo (output 1b.2), al plan detallado del proyecto (output 1d.1) y a la
evaluación inicial de las herramientas y técnicas disponibles (output 1d.2).
Esta tarea corresponde a una labor de comprensión de qué es lo que el cliente del
proyecto de datamining quiere conseguir desde una perspectiva de negocios. Por
clientes de datamining se hace referencia a aquellos altos ejecutivos bancarios que
están interesados en que el proyecto de minería de datos sirva para algo (ya sea
aumentar la rentabilidad, la tasa de crecimiento del Banco o cualquier objetivo que se
espere conseguir a través del proyecto). Esta fase es equivalente, por lo tanto, a la
etapa de análisis de requerimientos de un proyecto de desarrollo de un sistema de
información y es importante, puesto que el cliente puede no tener claro qué es lo que
quiere.
Las descripciones de los resultados que se deben obtener como fruto de esta tarea se
entregan a continuación:
61
- Identificar un auspiciador interno (un auspiciador financiero y usuario principal).
- Identificar grupos objetivo para presentar el resultado del proyecto (por ejemplo,
determinar si se espera un reporte escrito para la alta gerencia o un sistema en
ejecución que sea utilizado por usuarios finales).
62
De todas las actividades antes mencionadas, la selección de un patrocinador es
fundamental. Si bien de acuerdo a la metodología CRISP-DM el éxito de un proyecto de
datamining dependerá de que se satisfagan objetivos de negocios y sus
correspondientes criterios de éxito, ello puede ser en gran parte secundario. En efecto,
si bien un Banco se beneficia como un todo al alcanzar determinados objetivos de
negocios, ello puede ser total y absolutamente indiferente para el patrocinador de un
proyecto de datamining. La pregunta no debiera ser tanto cómo un proyecto puede
beneficiar a la empresa, sino que cómo puede beneficiar los intereses de su
patrocinador. Un proyecto puede ser excelente en términos de alcanzar objetivos de
negocios de un Banco, no obstante sin un buen patrocinador puede estar de cualquier
modo condenado al fracaso. Los Bancos son instituciones enormes, y el beneficio
general para la institución se traducirá en éxito para un proyecto sólo en la medida que
los objetivos de negocios que éste permita alcanzar se traduzcan en un beneficio
tangible para el patrocinador del proyecto y sus intereses.
- Especificar en forma tan precisa como sea posible todas las interrogantes de negocios
que se pretenden responder mediante el proyecto de datamining. Dichas interrogantes
son aquellas planteadas a inicios del capítulo, las cuales pueden expresarse como los
objetivos de negocios de focalizarse en nichos de mercado y crecer sujeto a un nivel
mínimo de riesgo.
63
negocios de focalización corresponde a la meta de identificar segmentos de riesgo y
rentabilidad con características distintas a las de los clientes promedio. El objetivo de
negocios de crecimiento, por su parte, corresponde a la meta de aumentar tanto los
montos ofrecidos de créditos de consumo, como los montos ofrecidos en cupos en las
tarjetas y líneas de crédito, sujeto todo ello a satisfacer un nivel mínimo de riesgo.
- Especificar los criterios de éxito de negocios. Cada uno de los criterios de éxito debe
estar relacionado con al menos uno de los objetivos de negocios. En relación al objetivo
de crecer, debe definirse un porcentaje de aumento en los montos ofrecidos a través de
créditos de consumo, como así también en los montos de los aumentos de los cupos de
las tarjetas y de las líneas de crédito. Relacionado también al objetivo de crecer
64
satisfaciendo un nivel mínimo de riesgo, debe definirse un nivel de riesgo en la forma de
una pérdida esperada para una campaña (calculada como monto en deuda vencida o
castigada luego de transcurrido cierto tiempo).
- Identificar quien evalúa los criterios de éxito. Ello es importante para evaluar el
cumplimiento del objetivo de identificar segmentos de riesgo y rentabilidad con
características distintas a las de los clientes promedio, puesto que es difícil expresar tal
objetivo en términos numéricos.
Esta tarea consiste en realizar una investigación exhaustiva sobre los recursos,
restricciones y suposiciones que debieran ser considerados al momento de elaborar el
plan del proyecto de datamining. Las descripciones de los resultados que se deben
obtener como fruto de esta tarea se entregan a continuación:
- Recursos de personal (tales como expertos del negocio y de los datos, disponibilidad
de soporte técnico y de personal de datamining)
- Recursos computacionales (tales como servidores en los cuales pueden correr los
procesos de datamining, capacidad de almacenamiento en disco para guardar muestras
de datos necesarias para los estudios de datamining y acceso a redes de alta velocidad
para comunicar equipos servidores y clientes involucrados en el procesamiento de
datamining)
Entre las actividades que es preciso desarrollar para obtener este resultado se
encuentran las siguientes:
65
- Identificar el hardware que se utilizará.
- Identificar los tipos de fuentes de datos (si se trata de fuentes online, expertos,
documentación escrita, etc.).
66
ellas establecen condiciones sobre la validez de los resultados del proyecto. Asimismo,
el resultado debe incluir todas las restricciones establecidas en el proyecto, y que
pueden involucrar la no disponibilidad de recursos para llevar a cabo algunas tareas.
Entre las actividades que es preciso desarrollar para obtener este resultado se
encuentran:
- Identificar todos los requerimientos sobre plazos que deben cumplirse en el proyecto
de datamining.
- Elaborar una lista de suposiciones realizadas sobre la calidad de los datos (por
ejemplo, precisión y disponibilidad).
- Elaborar una lista de todas las suposiciones realizadas sobre la necesidad de explicar
el modelo a sus usuarios (por ejemplo: las suposiciones que dicen relación a cómo
debiera ser presentado el modelo y sus resultados a la alta gerencia y a su
patrocinador).
67
resultado final. Incluye también un listado de los correspondientes planes de
contingencia diseñados para mitigar dichos riesgos. Entre las actividades que es
preciso desarrollar para obtener este resultado se encuentran:
- Identificar riesgos que dependan de los datos y de las fuentes de datos (por ejemplo,
baja calidad de los datos).
- Determinar las condiciones bajo las cuales cada uno de los riesgos puede ocurrir.
68
segundo orden. La creencia de que es atributo privativo de los jefes el pensar y de los
subordinados simplemente ejecutar puede también frustrar las iniciativas de un
profesional que intente desarrollar datamining, al verse éste imposibilitado de realizar
cualquier labor por iniciativa propia. La importancia que se da a las relaciones
personales de confianza por sobre el profesionalismo puede también ir en contra de
quien intenta realizar datamining, si ésta persona no cuenta con el firme respaldo de
patrocinadores dentro de la organización.
41
Fuente: Jumpstart Clementine Training Brochure, Data Mining Jumpstart, Data Mining Projects
Clementine, SPSS, 2004
69
- Chequear la disponibilidad de glosarios existentes, o de lo contrario comenzar su
bosquejo.
- Haber presentado deuda directa vencida o deuda directa castigada en los últimos 12
meses de los informes de la SBIF.
- Presentar una deuda renegociada con el Banco que provenga con certeza de créditos
vencidos o castigados.
- Figurar con alguna cuenta “varios deudores” en el Banco, la cual con certeza
provenga de más de 60 días de mora en alguna tarjeta de crédito.
- Figurar en el denominado “file negativo” del Banco, que reúne al conjunto de clientes
con los que éste no desea operar.
- Figurar en el listado de los clientes cuyas cuentas hayan sido cerradas en el pasado
por el Banco.
70
7.2.4.2 Definición de rentabilidad potencial de un cliente
La rentabilidad potencial corresponde al valor actual neto de los flujos de efectivo que
generaría un cliente para el Banco, en el caso de que dicha institución fuese capaz de
vender a dicha persona el máximo de los servicios que eventualmente aquel estaría
dispuesto a contratar en el futuro.
La rentabilidad potencial trata de ser explotada por lo que se conoce como fidelización.
Detrás del concepto de fidelización se encuentra la idea de ofrecer productos que
constituyan un “gancho” para atraer a los clientes, a los cuales brindar a futuro otros
servicios financieros, hasta agotar su rentabilidad potencial. Por lo tanto, principalmente
la fidelización intenta provocar la conservación de los clientes por muchos años.
La figura 7.2 muestra la importancia que tiene conservar a los clientes, por cuanto los
flujos de efectivo que genera un cliente antiguo de una tarjeta de crédito bancaria son
42
Fuente: REICCHELD, SASSER, Zero Defections Come to Quality, HBR, 1990
71
mucho mayores que aquellos que genera un cliente nuevo. El gráfico muestra que los
clientes entregan sólo ganancias básicas el primer año (constituidas por cobros de
mantención y por un nivel de utilización reducido de las tarjetas). A partir del segundo
año los clientes comienzan a generar ganancias adicionales por distintos conceptos:
aumento de la utilización de los cupos de las tarjetas, aumento de las transacciones con
ellas, uso más eficiente de los servicios bancarios, entrega de recomendaciones de los
servicios del Banco a otras personas, o pago de sobreprecios por determinados
servicios. Mientras las ganancias básicas son las mismas, independientemente de la
antigüedad del cliente, las ganancias extra que se producen son mucho mayores en los
clientes más antiguos.
Las ganancias no básicas surgen precisamente de la utilización por parte del Banco de
la rentabilidad potencial de los clientes. Mientras mayor sea la rentabilidad potencial de
éstos, mayores serán las ganancias no básicas que podrían obtenerse. Un Banco que
sea incapaz de conservar a sus clientes, no podrá tampoco aprovechar su rentabilidad
potencial. Concentrando los esfuerzos de las campañas en los clientes con mayor
rentabilidad potencial será posible conservar a éstos por muchos años y de esa forma
será posible también aprovechar efectivamente su rentabilidad potencial.
Dado que la rentabilidad potencial corresponde al valor actual neto de los flujos de
efectivo que generaría un cliente para el Banco, un cliente “sin gran rentabilidad
potencial” será alguien que sin lugar a dudas posea un valor actual neto muy bajo para
el Banco.
En la presente investigación se entenderá por cliente sin una gran rentabilidad potencial
a toda persona que cumpla alguna de las condiciones siguientes, cada una de las
72
cuales va indisolublemente ligada a un valor presente del cliente que es claramente
muy bajo para el Banco:
- Ejercer determinadas profesiones y oficios que son mal remunerados, que tampoco
permiten a las personas aumentar sus ingresos significativamente en el futuro, y en los
cuales las personas tradicionalmente tienden a desempeñarse durante toda su vida (por
ejemplo: personal de orden y seguridad).
- La conjunción de las siguientes características: ser hombre y ser una persona mayor
(con una edad por sobre los 70 años, por ejemplo).
- La conjunción de las siguientes características: ser mujer y ser una persona mayor
(con una edad por sobre los 65 años, por ejemplo).
73
7.2.4.4 Definición de carga financiera
La carga financiera corresponde al porcentaje de los ingresos que una persona debe
destinar a solventar sus deudas, y constituye información fundamental tanto para
evaluar el nivel de riesgo del cliente como su rentabilidad potencial. En la medida que
una persona contrae progresivamente más deudas, el monto que debe reservar al pago
de éstas aumenta, al mismo tiempo que disminuye la proporción de su salario que
puede destinar al pago de otros servicios. Claramente en la medida que la carga
financiera de un cliente aumenta, mayor es también su riesgo de crédito y menor es su
rentabilidad potencial.
74
de una institución semejante son enfocarse en nichos de mercado o crecer. En efecto,
los puntajes de riesgo y rentabilidad que los modelos de datamining permiten asignar a
los clientes son útiles en ambos casos, tanto para enfocarse en nichos como para
crecer. En primer lugar, es posible identificar distintos segmentos de mercado a partir
de los puntajes de riesgo y rentabilidad. En segundo lugar, como se demuestra en la
sección 11.1, los mencionados puntajes permiten aumentar el dinero que es posible
ofrecer a los clientes en condiciones ventajosas para el Banco, al mismo tiempo que se
satisface un nivel mínimo de riesgo. De esa forma, los puntajes permiten también a un
Banco crecer por la vía de aumentar los montos ofrecidos en las campañas.
75
1. Especificar el nivel de riesgo asociado a los montos ofrecidos en una campaña.
76
antes de aceptar la oferta, se tendrá que la solución del modelo de programación
requerirá de estimaciones del nivel de riesgo y de la rentabilidad potencial de los
clientes. Restricciones adicionales de tal modelo son que los montos deben ser
positivos y que la carga financiera de cada cliente no puede exceder el 100% de sus
ingresos luego de aceptar la oferta. La especificación detallada de tal modelo de
programación se entrega en la sección 11.1, al mostrar como los puntajes calculados
con los modelos de riesgo y rentabilidad potencial permiten alcanzar los objetivos de
negocios del plan de datamining. No obstante, con lo que se ha mencionado es
evidente que el problema de determinar los montos de dinero a ofrecer en las
campañas sujeto a un nivel mínimo de riesgo requiere necesariamente estimar el riesgo
y la rentabilidad de los clientes.
- Especificar los criterios para la evaluación de los modelos (por ejemplo, precisión de
los modelos, desempeño de éstos y nivel de complejidad).
Esta tarea corresponde a la realización de una carta Gantt del proyecto de minería de
datos, junto a la cual debe describirse el plan con el que se espera alcanzar los
objetivos de datamining y los objetivos de negocios.
Las descripciones de los resultados que se deben obtener como fruto de esta tarea se
entregan a continuación:
78
de evaluación de negocios. Como parte del plan de datamining es también importante
analizar las dependencias entre los plazos y los riesgos. Es preciso detallar los
resultados de los análisis de riesgos en términos de acciones y recomendaciones sobre
los pasos a seguir en caso de contingencia. Entre las actividades que es preciso
desarrollar para obtener este resultado se encuentran:
- Definir el plan inicial del proyecto de datamining y discutir la factibilidad con todo el
personal involucrado en el proyecto.
- Reunir en un proceso coherente todos los objetivos identificados y todas las técnicas
de datamining seleccionadas, de manera de responder las preguntas de negocios y de
satisfacer los criterios de éxito del proyecto.
- Estimar el esfuerzo y los recursos necesarios para alcanzar y generar la solución del
proyecto de datamining. Se postula que entre un 50% y un 70% del tiempo en un
proyecto de datamining debiera destinarse a la fase de preparación de los datos,
mientras que tan solo un porcentaje ubicado entre un 10% y un 20% debiera dirigirse a
las fases de Modelamiento, Evaluación y Comprensión del Negocio. El porcentaje
asignado a la fase de Despliegue debiera encontrarse entre un 5% y un 10% del tiempo
total del proyecto.
- Identificar las principales iteraciones dentro del flujo de fases y tareas de datamining.
79
- Crear una lista de criterios para seleccionar las herramientas y técnicas de datamining.
80
8 SEGUNDA FASE DEL PLAN: COMPRENSIÓN DE LOS DATOS
El siguiente diagrama muestra las distintas tareas que deben ser realizadas en la fase
de comprensión de los datos de la metodología CRISP-DM, junto a los resultados o
outputs que deben obtenerse de la ejecución de cada una:
43
Fuente: CHAPMAN, Pete, CLINTON, Julian, KERBER, Randy, KHABAZA, Thomas, REINARTZ,
Thomas, SHEARER, Colin, WIRTH, Rüdiger, CRISP DM 1.0 Step By Step Data Mining Guide, SPSS Inc.,
2000
81
documento y de la guía de usuario de CRISP-DM44. Como se ha señalado en el
capitulo 3, esta tesis no se basa en ningún conjunto de datos de ningún grupo de
personas. Por ello no pueden entregarse indicaciones específicas sobre los reportes de
descripción, de exploración, o de calidad de los datos (outputs 2b.1, 2c.1 y 2d.1). Sin
embargo, en virtud de los supuestos dados en el capítulo que versa sobre las hipótesis
de trabajo es posible dar una descripción de las fuentes de datos que todo Banco debe
poseer y que proveen de información necesaria y suficiente para la realización de
estudios de datamining sobre las campañas bancarias. En consecuencia, como parte
de la explicación del reporte de recolección de los datos iniciales (output 2a.1), se
entregan en este capítulo las descripciones de todas las variables necesarias para
construir los modelos de datamining planteados en esta investigación, de igual modo
que todas las fuentes de datos que se utilizarán.
Esta tarea consiste en la realización de una recopilación de los datos necesarios para el
proyecto de datamining, utilizando para ello la lista de recursos disponibles elaborada
en la tarea 1b de la fase de comprensión del negocio. La recolección debe incluir la
carga de los datos en la herramienta de datamining, si ello ayuda a comprender la
información (como puede ser el caso de no existir un diccionario de datos que entregue
el significado de cada campo de una base de datos).
Las descripciones de los resultados que se deben obtener como fruto de esta tarea se
entregan a continuación:
44
Fuente: CRISP-DM User Guide, redactado por el CRISP-DM Consortium, documento contenido en
CHAPMAN, Pete, CLINTON, Julian, KERBER, Randy, KHABAZA, Thomas, REINARTZ, Thomas,
SHEARER, Colin, WIRTH, Rüdiger, CRISP DM 1.0 Step By Step Data Mining Guide, SPSS Inc., 2000
82
que esbozar una evaluación sobre la calidad de los datos. Entre las actividades que es
preciso desarrollar para obtener este resultado se encuentran:
- Determinar el número de meses pasados que debieran ser usados para seleccionar
los datos del proyecto de datamining (por ejemplo: aun si hay información disponible de
36 meses puede que sólo 18 meses de historia sean relevantes para la investigación).
- Determinar cómo se pueden obtener los atributos que faltan y que son relevantes para
el proyecto de datamining.
- Describir cómo extraer los datos (por ejemplo, vía un muestreo aleatorio simple).
El conjunto de atributos de los clientes que son necesarios para construir modelos
predictivos se entrega a continuación:
45
Fuente: elaboración propia
84
8.1.2.2 Grupo de variables de renta (B)
86
- Promedio del saldo de la deuda indirecta castigada en el sistema financiero en un
periodo comprendido entre 6 meses atrás y los últimos 3 meses.
- Promedio de la deuda directa morosa en el sistema financiero en un periodo
comprendido entre 15 meses atrás y los últimos 6 meses.
- Promedio de la deuda directa vencida en el sistema financiero en un periodo
comprendido entre 15 meses atrás y los últimos 6 meses.
- Promedio de la deuda indirecta vencida en el sistema financiero en un periodo
comprendido entre 15 meses atrás y los últimos 6 meses.
- Promedio del saldo de la deuda directa castigada en el sistema financiero en un
periodo comprendido entre 15 meses atrás y los últimos 6 meses.
- Promedio del saldo de la deuda indirecta castigada en el sistema financiero en un
periodo comprendido entre 15 meses atrás y los últimos 6 meses.
87
Variables de las deudas históricas en el sistema financiero
Los siguientes campos han sido obtenidos del informe SBIF
- Deuda directa vigente en el último mes del último informe de la SBIF.
- Monto de línea de crédito disponible en el último mes del último informe SBIF.
- Promedio de la deuda directa vigente en un periodo comprendido entre 6 meses
atrás y los últimos 3 meses.
- Promedio del monto de línea de crédito disponible en un periodo comprendido entre
6 meses atrás y los últimos 3 meses.
- Promedio de la deuda directa vigente en un periodo comprendido entre 15 meses
atrás y los últimos 6 meses.
- Promedio del monto de línea de crédito disponible en un periodo comprendido entre
15 meses atrás y los últimos 6 meses.
Informe D01 enviado a la SBIF: corresponde a un informe que mensualmente todos los
Bancos están obligados a enviar a la SBIF, y que detalla las deudas que cada uno de
sus clientes mantiene con ellos, clasificadas en deudas de consumo, comerciales e
hipotecarias, cada una dividida en deuda vigente o vencida y subdividida en cuentas de
activo y de orden. Se reporta además en este informe la deuda castigada del cliente
con el Banco. Adicionalmente, para poder identificar qué deudas del archivo de
operaciones fueron reportadas a la SBIF y bajo qué criterio, esta fuente de datos debe
además incorporar información que detalla para cada cuenta asociada a una operación
(intereses, capital, etc.) el monto que es reportado a la SBIF en el D01 bajo una de las
categorías siguientes:
Saldos el día de envío del D01: corresponde a una base de datos operacional con la
información, el día del envío del informe D01 a la SBIF hace dos meses, de cada uno
de los productos que tiene vigente cada cliente con el Banco. Debe contener la fecha
de otorgamiento del producto, su fecha de extinción, el monto original en pesos de los
89
créditos otorgados, el saldo operacional, el monto impago en los distintos tramos de
morosidad, el monto del capital vencido, el monto del capital castigado, el saldo
disponible en pesos de las líneas y tarjetas, la tasa de interés anual del producto, el
plazo en meses de éste y el tipo de producto al que se refiere.
90
Universidad y el régimen conyugal. Los campos fundamentales que debe incluir esta
fuente de datos son las fechas de nacimiento, las naturalezas jurídicas de las personas,
el campo que indica si se trata de un cliente que presenta alguna cuenta cerrada por el
Banco, y el campo que señala si éste se encuentra en el denominado “File Negativo”.
En esta tarea deberán describirse los datos en términos de tipo, distribución, tablas de
frecuencia, valores máximo y mínimo, y estadígrafos tales como el promedio, la
varianza, la asimetría y la curtosis, entre otros.
Las descripciones de los resultados que se deben obtener como fruto de esta tarea se
entregan a continuación:
- Utilizar análisis estadísticos de ser éstos necesarios para describir los datos.
91
- Realizar un reporte de las tablas que se utilizarán en el proyecto junto a sus
relaciones.
- Para cada atributo, calcular los estadísticos básicos (promedio, máximo, mínimo,
desviación estándar, varianza, asimetría, curtosis).
- Analizar las relaciones entre las distintas llaves de las tablas de datos a usar en el
proyecto.
92
datamining, como así también al refinamiento de la descripción de los datos o a la
verificación de la calidad de los mismos.
Las descripciones de los resultados que se deben obtener como fruto de esta tarea se
entregan a continuación:
- Ejecutar análisis básicos para verificar las hipótesis sobre los datos.
Esta tarea consiste en examinar la calidad de los datos, chequeando que éstos estén
completos, que no tengan valores faltantes y que cubran todos los casos requeridos. Si
los datos contienen errores, debe determinarse qué tan frecuentes son éstos, y si hay
valores faltantes es preciso investigar cómo están representados, dónde ocurren, y qué
93
tan comunes son. Las descripciones de los resultados que deben obtenerse como fruto
de esta tarea se entregan a continuación:
- Identificar valores especiales que pueden asumir los campos de los datos y realizar un
catálogo de su significado.
- Chequear cobertura de los datos (todos los valores que pueden estar representados).
- Chequear si calzan los significados de los atributos con los valores que contienen.
- Revisar atributos con un mismo significado, pero que presentan valores distintos.
- Chequear qué tan plausibles son los valores que presentan los campos de los datos
(por ejemplo: todos los campos no pueden tener los mismos o casi los mismos valores).
- Revisar todos los atributos que permiten elaborar conclusiones que caen en conflicto
con el sentido común (por ejemplo: carga financiera superior a un 100%).
- Usar distintos tipos de gráficos para mostrar las inconsistencias en los datos.
- Si los datos están almacenados en archivos de texto plano, chequear qué delimitador
es utilizado y si es usado en forma consistente en todos los atributos. Chequear el
número de campos en cada registro y ver si coinciden.
- Planificar cómo manejar el ruido en los datos. Excluir, si es necesario, algunos datos.
- Detectar el tipo de ruido que se presenta en los datos y qué atributos son afectados.
94
9 TERCERA FASE DEL PLAN: PREPARACIÓN DE LOS DATOS
El siguiente diagrama muestra las distintas tareas que deben ser realizadas en la fase
de preparación de los datos de la metodología CRISP-DM, junto a los resultados o
outputs que deben obtenerse de la ejecución de cada una de ellas:
Figura 9.1 Tareas y outputs de la fase de preparación de los datos, tercera fase
del proyecto de datamining según metodología CRISP-DM46
46
Fuente: CHAPMAN, Pete, CLINTON, Julian, KERBER, Randy, KHABAZA, Thomas, REINARTZ,
Thomas, SHEARER, Colin, WIRTH, Rüdiger, CRISP DM 1.0 Step By Step Data Mining Guide, SPSS Inc.,
2000
95
El conjunto de tareas de la fase de preparación de los datos, junto a sus
correspondientes resultados se describen a continuación. Se entregan consejos y
recomendaciones que recogen conceptos de la guía de usuario CRISP-DM47 a la vez
que aportes extraídos de la experiencia y reflexión del autor de este documento.
Dos de los resultados de esta fase no están vinculados a ninguna tarea específica y se
describen en primer lugar (output 3z.1 y 3z.2).
47
Fuente: CRISP-DM User Guide, redactado por el CRISP-DM Consortium, documento contenido en
CHAPMAN, Pete, CLINTON, Julian, KERBER, Randy, KHABAZA, Thomas, REINARTZ, Thomas,
SHEARER, Colin, WIRTH, Rüdiger, CRISP DM 1.0 Step By Step Data Mining Guide, SPSS Inc., 2000
96
9.1.1 Obtención automatizada del conjunto de datos en Clementine
a.- Los valores observados hoy de las variables que se esperaba predecir hace un año.
Las variables a predecir son dos: la condición del cliente de ser “malo” en términos de
crédito, y la condición del cliente de ser alguien “sin gran rentabilidad potencial”. El
conjunto de valores de las variables predictivas observables cuando todas las fuentes
de datos tienen fecha de un año atrás se denominará “base de variables predictivas
hace un año”. Por el contrario, el conjunto de valores de las variables predictivas
observables cuando todas las fuentes de datos tienen fecha de hoy se denominará
“base de variables predictivas hoy”. Mientras la “base de variables predictivas hace un
año” permite estimar el valor que tendrían hoy las variables a predecir, la “base de
variables predictivas hoy”, permite estimar el valor que ellas tendrían dentro de un año.
Por la forma como se han definido en la sección 7.2.4 los conceptos de cliente “malo” y
de cliente “sin gran rentabilidad potencial”, los valores de las variables del punto “a” del
output 3z.1 pueden determinarse a partir de la “base de variables predictivas hoy”. En
efecto, cada una de las características que debe poseer un cliente para ser clasificado
como “malo”, o “sin gran rentabilidad potencial” puede determinarse mediante simple
observación de grupos de variables presentes en la “base de variables predictivas hoy”,
sin mediar estimación ni predicción alguna, como se muestra a continuación:
97
Las características de un cliente “malo”, las cuales se detallan a continuación, pueden
todas observarse a partir del grupo de variables de comportamiento:
- Haber presentado deuda directa vencida o deuda directa castigada en los últimos 12
meses de los informes de la SBIF.
- Presentar una deuda renegociada con el Banco que provenga con certeza de créditos
vencidos o castigados.
- Figurar con alguna cuenta “varios deudores” en el Banco, la cual con certeza
provenga de más de 60 días de mora en alguna tarjeta de crédito.
- Figurar en el denominado “file negativo” del Banco, que reúne al conjunto de clientes
con los que éste no desea operar.
- Figurar en el listado de clientes cuyas cuentas han sido cerradas por el Banco.
- Ejercer determinadas profesiones y oficios que son mal remunerados, que no permiten
a las personas aumentar sus ingresos significativamente en el futuro, y en los cuales los
sujetos tienden a desempeñarse durante toda su vida.
98
- Poseer una capacidad residual de endeudamiento menor a un millón de pesos.
La figura 9.2 muestra como es posible elaborar en Clementine el output 3z.1 a partir de
la “base de variables predictivas hace un año” y de la “base de variables predictivas
hoy”. El flujo de datos, a parte de servir como un diagrama explicativo, constituye un
programa computacional de procesamiento de datos.
Figura 9.2 Flujo de datos en Clementine que obtiene la base de datos final para
construir un modelo predictivo48
El nodo etiquetado “Valor hoy de variables que se esperaba predecir hace un año” es
utilizado para calcular los valores de las variables que establecen la condición del
cliente de ser “malo” y de ser alguien “sin gran rentabilidad potencial”. Dichos valores
son calculados a partir de los registros del nodo etiquetado “Base de variables
predictivas hoy”. Luego, de los registros obtenidos se seleccionan solamente los
campos adicionales recién calculados, lo cual se efectúa en el nodo etiquetado
“Selecciona sólo variables que se esperaba predecir hace un año”. Se obtiene de esa
manera lo que corresponde a la parte “a” del output 3z.1, la cual se mezcla con los
registros del nodo “Base de variables predictivas hace un año”, que aporta la parte “b”
del output 3z.1. Se obtiene finalmente una “Base final para construir modelo predictivo”,
que corresponde al output 3z.1
99
9.1.1.1 Símbolos usados en Clementine para procesar datos
Los distintos símbolos usados en los diagramas en Clementine se explican agrupados
en conjuntos con características similares. Los símbolos que se entregan a la derecha
de cada par de íconos se utilizan en este documento para resaltar nodos al momento
de ser explicados en los diagramas.
100
Archivos de parámetros:
Estos íconos representan archivos de que no contienen información
de las bases de datos operacionales propiamente tales, sino tan sólo
parámetros (como la clasificación de los productos, los factores
estimados de carga financiera a asignar a los distintos tipos de
clientes, etc.). Corresponden a pequeños archivos de texto.
101
En la figura 9.2 se ha hecho referencia a bases de variables predictivas con datos
actuales y con datos válidos hace un año. Ambas bases pueden obtenerse con el flujo
de datos de la figura 9.3 dada abajo, alimentando apropiadamente dicho diagrama con
fuentes de datos con información vigente hoy, o por el contrario vigente hace un año.
Las fuentes de datos con información hace un año pueden obtenerse a partir los
respaldos en cinta de las bases operacionales. El diagrama 9.3 ilustra cómo obtener
una de tales “bases de variables predictivas” a partir de la mezcla, procesamiento y
depuración de las fuentes de datos que cualquier Banco debe necesariamente poseer,
y que se resaltan a la izquierda de la figura. La “base de variables predictivas”, en tanto,
se obtiene en la esquina inferior derecha luego de un largo procesamiento.
49
Fuente: elaboración propia
102
9.1.1.2 Flujo de datos que obtiene base de variables predictivas
En primer lugar, el flujo de datos trata de determinar las deudas que el cliente tiene con
otras instituciones financieras, para lo cual se requiere conocer las deudas del cliente
con el Banco y que fueron informadas a la SBIF hace dos meses. La idea fundamental
que se utiliza para estimar las deudas del cliente con otras instituciones es que no es
posible conocer dichas deudas hoy, pero si es posible conocer las obligaciones que
hace dos meses tenía el cliente en el sistema financiero. Ello se debe a que el informe
que elabora la SBIF, y que contiene las deudas consolidadas en el sistema financiero
de 4,5 millones de chilenos, es entregado a los Bancos con un desfase de dos meses.
Restando a las deudas que hace dos meses tenía el cliente en el sistema financiero
aquellas deudas que en igual periodo tenía el cliente con el propio Banco es posible
obtener con exactitud las deudas de los clientes con otras instituciones hace dos
meses. A falta de mayor información esa es la mejor estimación para las deudas que
una persona tiene con terceros hoy.
La figura 9.4, dada abajo, muestra como se obtienen las deudas del cliente con el
Banco y que fueron informadas a la SBIF hace dos meses. El diagrama es el mismo
antes entregado en la figura 9.3, con la salvedad de que en la figura la porción del
diagrama que se está analizando es resaltada en un pequeño recuadro en la esquina
superior izquierda. Dicho recuadro es ampliado en un cuadro de detalle en la esquina
inferior derecha. Los registros de la fuente de datos etiquetada “Saldos el día de envío
del D01” se mezclan con el archivo de parámetros titulado “Productos”, de manera tal
de considerar sólo los saldos de cuentas que corresponden efectivamente a productos
de créditos y no a otro tipo de productos o cuentas. Además, el cruce con el nodo
“Productos” permite clasificar los saldos en créditos comerciales, hipotecarios, de
consumo o cupos de líneas o tarjetas. El resultado de dicha mezcla se cruza a su vez
con el “Informe D01 enviado a la SBIF”, de manera que cada ítem reportado a la SBIF
(ya sea como interés, capital o monto en mora), pueda ser atribuido a un producto que
el cliente tenía vigente con el Banco hace dos meses. Así, se arriba al nodo “Deudas de
cliente con el Banco informadas a la SBIF”, cuyos registros almacenan entre sus
campos a una porción de las deudas que presentaban los clientes en el sistema
financiero hace dos meses, porción que corresponde efectivamente a deudas con el
propio Banco.
103
Figura 9.4 Flujo de datos en Clementine que obtiene las deudas de los clientes
con el Banco y que fueron informadas a la SBIF hace dos meses50
De acuerdo al plan para estimar las deudas de los clientes con otras instituciones se
mezcla el flujo de datos conseguido hasta este momento y titulado “Deudas de cliente
con el Banco informadas a la SBIF” con la fuente de datos etiquetada “Informe de la
SBIF” y que contiene las deudas consolidadas de los clientes en el sistema financiero
hace 2 meses. Restando a dichas deudas consolidadas las obligaciones de los clientes
con el propio Banco hace dos meses, se obtiene una estimación para las deudas de los
clientes con otras instituciones en el nodo “Deudas de clientes con terceros”, como se
muestra abajo en la figura 9.5. Es preciso notar, sin embargo, que dicho nodo no
contiene las deudas con terceros de aquellos clientes que nunca figuraron en el informe
50
Fuente: elaboración propia
104
D01 enviado a la SBIF hace dos meses. Dicha falencia se solucionará más adelante
(concretamente en el diagrama descrito en la figura 9.9).
Figura 9.5 Flujo de datos en Clementine que estima las deudas de un cliente
con terceros51
Se ha obtenido hasta este momento una estimación de las deudas de los clientes con
terceros a partir de las deudas informadas a la SBIF hace dos meses. Sin embargo, en
el caso de las deudas que mantienen los clientes con el propio Banco puede conocerse
el saldo actualizado de dichas obligaciones. Los siguientes diagramas tienen por
propósito precisamente obtener las deudas actualizadas de los clientes con el Banco.
En el diagrama 9.6 se mezclan en primer término los “Saldos actuales” de las cuentas
con los “Productos”, con el fin de clasificar las deudas en créditos comerciales, deudas
51
Fuente: elaboración propia
105
hipotecarias, créditos de consumo, cupos de tarjetas o líneas. Luego dichas deudas son
divididas entre aquellas que corresponden a deudas de cuentas que existían antes del
envío del archivo D01 a la SBIF hace dos meses, y aquellas que son obligaciones
contraídas por los clientes con el Banco hace menos de dos meses, y que por lo tanto
no fueron enviadas en el D01. Ambas bifurcaciones corresponden a los nodos
etiquetados “Saldos de cuentas creadas antes del envío del D01” y “Saldos de cuentas
creadas después del envío del D01”, como se muestra a continuación:
Figura 9.6 Flujo de datos en Clementine que obtiene los saldos actuales de las
cuentas, tanto antes como después del envío del D01 hace dos meses52
Los datos del nodo “Saldos de cuentas creadas antes del envío del D01” servirán para
actualizar las obligaciones que tenían los clientes con el Banco hace dos meses y que
52
Fuente: elaboración propia
106
por lo tanto aparecen entre las deudas consolidadas de los clientes en el último informe
de la SBIF. El diagrama 9.7 muestra esa actualización, mezclando el flujo “Saldos de
cuentas creadas antes del envío del D01” con los registros provenientes del nodo que
cruza “Informe D01 enviado a la SBIF” y la mezcla de “Saldos el día de envío del D01” y
“Productos”. El resultado es etiquetado “Saldos actualizados de cuentas reportadas en
el D01 enviado a la SBIF”.
Figura 9.7 Flujo de datos en Clementine que obtiene los saldos actualizados de
las cuentas reportadas hace dos meses en el D01 enviado a la SBIF53
53
Fuente: elaboración propia
107
mediante la mezcla del resultado del nodo “Saldo de cuentas creadas después del
envío del D01” y del nodo “Saldos actualizados de cuentas reportadas en el D01
enviado a la SBIF”. El resultado es denominado “Deudas de clientes con el Banco”.
Figura 9.8 Flujo de datos en Clementine que obtiene las deudas actualizadas
de los clientes con el Banco54
El lector habrá podido observar que el nodo “Saldos actuales” ya contenía las deudas
actualizadas de los clientes con el Banco. No parece muy inteligente separar los
registros de dicho nodo en “Saldos de cuentas creadas antes del envío del D01 y
“Saldos de cuentas creadas después del envío del D01”, para luego volver a unir ambos
conjuntos de registros en el nodo “Deudas de clientes con el Banco”. La separación y
posterior unión de registros se realiza con el propósito de descartar errores en los
54
Fuente: elaboración propia
108
archivos operacionales. En efecto, si una cuenta fue creada antes de la fecha de envío
del D01 hace dos meses, entonces necesariamente debiera aparecer entre los registros
del nodo “Informe D01 enviado a la SBIF”, o de lo contrario correspondería a un error
en los archivos operacionales, y debiera por lo tanto ser descartada. En este caso se
supone que los registros del nodo “Informe D01 enviado a la SBIF” no presentan los
errores que se observan en los datos operacionales del nodo “Saldos actuales”. Ello se
fundamenta en el hecho de que la información provista a la SBIF debe pasar por
exhaustivos procesos de depuración previos.
Si bien el número de errores en los datos puede ser muy reducido, es preciso
considerar que mecanismos como el antes descrito son vitales en datamining para
limitar su impacto. En efecto, aun cuando los datos puedan contener un 2% de datos
erróneos, ello puede ser totalmente inaceptable para construir modelos que traten de
detectar a clientes malos en una cartera (debe tenerse en consideración que los
clientes “malos” representarán generalmente un porcentaje inferior a un 2% de la
cartera55). La reducción de los errores presentes en la muestra que se empleará para
construir un modelo es uno de los medios para mejorar la predictibilidad de dicho
modelo.
Siguiendo con la explicación del flujo de datos que genera el output 3z.1, es preciso
notar que hasta este momento se han obtenido dos cosas importantes con los
diagramas de Clementine:
Falta, no obstante, un tercer elemento para obtener las deudas totales de los clientes,
tanto con el Banco como con terceros: el conjunto de deudas con terceros de aquellos
clientes recientes que nunca figuraron en el D01 enviado a la SBIF hace dos meses.
Dichos clientes recientes se denominarán “nuevos” de aquí en adelante. El siguiente
diagrama muestra la mezcla de los nodos “Deudas de clientes con terceros” y “Deudas
de clientes con el Banco”, para luego clasificar los resultados en “clientes nuevos” (con
menos de dos meses en el Banco) y “clientes antiguos”:
55
El autor del presente documento sugiere limitar los errores en los datos a niveles inferiores a 0,1%.
109
Figura 9.9 Flujo de datos en Clementine que separa los clientes “nuevos” (de
hace menos de dos meses) de los clientes antiguos56
El flujo explicado hasta este punto nunca ha rescatado las deudas del informe SBIF de
aquellos clientes que son “nuevos”. En efecto, en el flujo de datos se han obtenido
únicamente los registros del informe de la SBIF que corresponden a clientes que
figuraron en el informe D01 enviado hace dos meses, en circunstancias que los clientes
“nuevos” nunca estuvieron en dicho informe. Para obtener una estimación de las
deudas con terceros de esos clientes será preciso cruzar el nodo “clientes nuevos” con
el nodo “Informe de la SBIF”. Las estimaciones de las deudas de los clientes “nuevos”
con terceros no será otra cosa que la totalidad de las deudas de dichos clientes en el
último informe de la SBIF. Dichas estimaciones se muestran en el siguiente diagrama a
través del nodo denominado “Deuda con terceros de clientes nuevos”:
56
Fuente: elaboración propia
110
Figura 9.10 Flujo de datos en Clementine que estima las deudas con terceros de
los clientes “nuevos” (de menos de dos meses de antigüedad)57
En la figura 9.10 el recuadro superior que se utiliza para explicar el flujo de datos está
constituido por dos áreas disjuntas con borde sinusoidal, las cuales luego de ser
ampliadas aparecen en la parte inferior del diagrama en un cuadro de detalle. Dicha
representación no tiene otro propósito que mostrar el cuadro de detalle con un nivel de
aumento que facilite la lectura. Una representación análoga para el área a ser explicada
se utiliza en la figura 9.11, la cual muestra como se obtiene una base general de
clientes a partir de la unión de los registros del nodo “clientes antiguos” y del nodo
“Deudas con terceros de clientes nuevos”. El resultado es etiquetado “Deudas de
clientes con el Banco y terceros”.
57
Fuente: elaboración propia
111
Figura 9.11 Flujo de datos en Clementine que obtiene las deudas de los clientes
tanto con el Banco como con terceros58
58
Fuente: elaboración propia
112
variables demográficas y de renta, lo cual se realiza a través del flujo de datos descrito
en la figura 9.12 dada abajo:
Figura 9.12 Flujo de datos en Clementine que mezcla los datos de las deudas de
los clientes, de su renta y de sus características demográficas59
El diagrama 9.12 muestra la mezcla del nodo “Deudas de clientes con el Banco y
terceros” con la fuente de datos “Rentas de clientes”. El resultado de la mezcla anterior
aparece en la figura bajo la etiqueta “¿Existe renta?”, y es mezclado a su vez con la
fuente de datos “Características demográficas”. El resultado final es denominado “¿Está
en file negativo?” por permitir, entre otras cosas, identificar a los clientes impedidos de
operar con el Banco. El siguiente diagrama, en tanto, muestra la obtención de la base
de variables predictivas a partir del flujo de datos antes descrito.
59
Fuente: elaboración propia
113
Figura 9.13 Flujo de datos en Clementine que obtiene la base de variables
predictivas60
El conjunto de datos recibido de las etapas anteriores a través del nodo “¿Está en file
negativo” es mezclado con los registros de la fuente de datos denominada “Factores
estimados de carga”. Dicha fuente de datos contiene, para distintos tramos de renta,
una estimación de la carga financiera que un cliente promedio tendría por cada 100
pesos de deuda en el sistema financiero, distinguiendo la deuda en categorías
“hipotecaria” y “no hipotecaria”. El resultado de la mezcla permite calcular el nivel de
carga financiera de cada cliente, lo cual es realizado en el nodo que aparece en el
diagrama bajo la etiqueta “Carga financiera”. Finalmente, la mezcla del nodo “Carga
financiera” con la fuente de datos “Ingresos contables por cliente” genera la “Base de
variables predictivas” final, como indica la figura en el margen inferior derecho.
60
Fuente: elaboración propia
114
En las secciones previas se ha discutido ampliamente cómo es posible obtener el
conjunto de datos correspondiente al output 3z.1 de la fase de preparación de los datos,
sirviéndose para ello de la herramienta de datamining utilizada en el presente
documento (Clementine). En las secciones siguientes continuarán describiéndose los
distintos resultados que deben obtenerse y las distintas tareas que deben realizarse
como parte de la fase de preparación de los datos del proyecto de datamining.
Este resultado es el segundo de esta fase del proyecto de datamining que no está
vinculado directamente a ninguna tarea, y corresponde a la descripción del output 3z.1,
denominado en este documento “Base final para construir modelo predictivo”.
El output 3z.1 debe contener toda la información que a priori se considera relevante
para elaborar un modelo capaz de predecir el comportamiento futuro del cliente en
términos de riesgo y de rentabilidad potencial. El output 3z.1 debe poseer, por lo tanto,
90 campos, incluyendo un campo para cada una de las 88 variables descritas en el
capítulo 8. Además debe incluir dos campos adicionales para las variables que se
espera predecir, y que son la condición de ser “malo” en términos de riesgo y de ser un
cliente “sin gran rentabilidad potencial”.
Esta tarea consiste en escoger los datos que serán utilizados en el proyecto de
datamining. Los criterios de selección deberán incluir tanto la relevancia para los
objetivos de datamining, como las restricciones técnicas y de calidad (tales como los
límites en la capacidad de almacenamiento de los datos).
Las descripciones de los resultados que se deben obtener como fruto de esta tarea se
entregan a continuación:
115
- Recolectar datos adicionales de diferentes fuentes, tanto internas como externas a la
institución.
- Seleccionar diferentes subconjuntos de datos (por ejemplo: sólo datos que reúnan
ciertas condiciones).
- A partir de los criterios de selección de datos, decidir si uno o más atributos son más
importantes que otros y ponderarlos de acuerdo a ello. Basar la ponderación en el
contexto del problema (por ejemplo: en base a la utilización que se haga de los
atributos). Puede también ser útil tener muestras ponderadas para dar distinta
importancia a diferentes atributos o a diferentes valores del mismo atributo. Más
adelante, en el capítulo 10, se describe cómo puede ser deseable tener conjuntos de
datos de entrenamiento con una proporción de clientes “malos” mayor a la proporción
de clientes “buenos”, aun cuando en la realidad los clientes malos representen menos
de un 2% de la cartera.
Es importante señalar que en esta etapa del proyecto es preciso disminuir al máximo el
número de variables con que se alimentarán los modelos de datamining a desarrollar en
la fase siguiente. Si bien los modelos de regresión logística pueden ser refinados
116
iterativamente de manera de considerar sólo las variables realmente relevantes, y los
Esta tarea pretende mejorar la calidad de los datos, de manera de alcanzar el nivel de
calidad requerido por las técnicas de datamining que se seleccionen en la fase
siguiente del proyecto. Esta tarea puede involucrar la selección de subconjuntos de
datos que no presenten errores, como así también la inserción de valores por omisión
en el caso de existir datos faltantes.
La descripción de los resultados que se deben obtener como fruto de esta tarea se
entrega a continuación:
117
- Reconsiderar el tratamiento que se dará a los distintos tipos de ruido que se hayan
observado en los datos
- Determinar cómo manejar valores especiales, y qué significado atribuirles. Los valores
especiales pueden conducir a muchos resultados extraños y deben ser examinados
cuidadosamente. Ejemplos de valores especiales pueden surgir de información que no
fue preguntada a los clientes o que no fue respondida por éstos. También pueden
encontrarse valores especiales cuando los datos son truncados (por ejemplo 00 para la
edad de 100 años).
Esta tarea incluye la generación de atributos derivados a partir de otros campos, como
es el caso de los promedios o de la carga financiera estimada. Incluye también el
cambio de los formatos de los campos existentes, como puede ser el caso de la
transformación de la renta y la edad en categorías de renta y de edad. La
transformación de variables numéricas en variables discretas es necesaria para permitir
a los algoritmos de modelamiento entregar resultados en tiempos razonables (como es
el caso de las redes neuronales).
Las descripciones de los resultados que se deben obtener como fruto de esta tarea se
entregan a continuación:
118
- Determinar cómo pueden ser construidos o ingresados los datos faltantes. Determinar
el tipo de construcción (por ejemplo mediante un promedio, interpolando, o a partir de
un modelo predictivo).
Importantes atributos derivados son las estimaciones de las deudas de los clientes con
otras instituciones financieras, las cuales se explican a continuación:
119
incorporar un registro adicional para un cliente prototipo de cada segmento). Entre las
actividades que es preciso desarrollar para obtener este resultado se encuentra:
- Chequear las técnicas disponibles para generar datos, si es que éstas se requieren
(por ejemplo: mecanismos para determinar las características de los “clientes-prototipo”
de cada segmento).
- Chequear que las herramientas de integración sean capaces de mezclar las fuentes
de datos como se requiere.
120
9.7 Formatear los datos (tarea 3e)
En esta tarea se realizan modificaciones sobre los datos que no alteran su significado,
pero que pueden ser necesarias para trabajar con la herramienta de datamining. Un
ejemplo puede ser el cambio de la variable RUT desde tipo texto a número, a fin de
mezclar información sobre un mismo cliente contenida en dos tablas, en una de las
cuales el RUT es numérico y en la otra, texto. La descripción del resultado que debe
obtenerse como fruto de esta tarea se entrega a continuación:
121
10 CUARTA FASE DEL PLAN: MODELAMIENTO
El siguiente diagrama muestra las distintas tareas que deben ser realizadas en la fase
de modelamiento de la metodología CRISP-DM, junto a sus resultados:
A continuación se describen las distintas tareas que es preciso realizar en esta fase
junto a los resultados que deben obtenerse de cada una. Se entregan asimismo
61
Fuente: CHAPMAN, Pete, CLINTON, Julian, KERBER, Randy, KHABAZA, Thomas, REINARTZ,
Thomas, SHEARER, Colin, WIRTH, Rüdiger, CRISP DM 1.0 Step By Step Data Mining Guide, SPSS Inc.,
2000
122
consejos y recomendaciones extraídos de la guía de usuario CRISP-DM62 y de la
experiencia y reflexión del autor de este documento. Puesto que esta tesis no se basa
en ningún conjunto de datos, no pueden, por lo tanto, entregarse indicaciones
específicas con respecto a los resultados que requieren de la manipulación de datos
concretos. Así ocurre con los supuestos de modelamiento (output 4a.2), con la
definición de los parámetros de los modelos (output 4c.1) y con el establecimiento de
los parámetros revisados (output 4d.2). En cambio, en este capítulo se ofrece una
extensa descripción de las tres técnicas de modelamiento (output 4a.1) que se ajustan
mejor al caso de las campañas bancarias. Así mismo, al explicar el diseño de las
pruebas (output 4b.1) se dan también indicaciones prácticas referidas a las campañas
bancarias. Del mismo modo al describir el output 4c.3 se explican las formas de
especificar los modelos de riesgo y de rentabilidad con cada una de las tres técnicas de
modelamiento antes mencionadas. Posteriormente, al momento de comentar la
evaluación técnica de los modelos (output 4d.1) se detallan las principales medidas
estadísticas que es posible utilizar, a la vez que se explica cómo automatizar el proceso
de evaluación técnica mediante el empleo de Clementine.
123
este resultado se encuentra decidir sobre las técnicas apropiadas de datamining,
teniendo en mente la herramienta de software escogida (Clementine en este caso).
X : carga financiera
Y : condición de bueno o malo en términos de riesgo de crédito (0: bueno, 1: malo)
124
No es posible visualizar con claridad la existencia de una relación entre X e Y si las
observaciones antes obtenidas se representan contrastadas con los valores de la carga
financiera de cada cliente, como muestra el siguiente gráfico:
En cambio, si se divide la variable carga financiera en clases y se calcula para cada una
la proporción de clientes malos, se obtiene una gráfica bastante más instructiva:
63
Fuente: elaboración propia a partir del libro de TENENHAUS, Michele, Méthodes Statistiques en
Gestion, Editorial Dunod, France, 1996
64
Fuente: idem. a la anterior
125
Puede estimarse la probabilidad de que un cliente sea malo dada una carga financiera
a partir de la proporción de clientes malos por clase. Por otro lado la mencionada
( )
probabilidad condicional es igual a la esperanza E Y x , como lo demuestran las
( )
siguientes ecuaciones: E Y x = P Y = 1 x ( )* 1 + P(Y = 0 x )* 0 = P(Y = 1 x )
( )
El modelo de regresión lineal E Y x = α + βx no es aconsejable para representar la
α + βxi
πi = E (Y xi ) = P(Y = 1 xi ) =
e
α + βxi
1+ e
En lugar de modelar las probabilidades πi directamente, se prefiere modelar una
π
g ( xi ) = ln i = α + βxi
1 - πi
En la jerga de los modelos automatizados de decisión de crédito se conoce como
1 − πi
“odds” al término . Puede observarse que el modelo de regresión logística es
πi
lineal en el logaritmo de los “odds”.
126
Los parámetros α y β del modelo de regresión logística pueden estimarse mediante
el método de máxima verosimilitud. La función verosimilitud no es otra cosa que la
probabilidad de obtener valores de la variable Y , probabilidad expresada en forma tal
que las variables explicativas X se suponen fijas y los parámetros α y β se
consideran variables. Dada una muestra de n clientes, con un conjunto de valores de
r
las variables explicativas denotado por el vector x = ( x1 , x2 ...xn ) y un conjunto de
r
valores de las variables dependientes denotado por y = ( y1 , y2 ...yn ) , el método de
pueden ser escritas como potencias de yi , como muestran las siguientes ecuaciones:
1− yi
P ( yi = 0 ) = (1 - πi ) = (1 - πi ) = (1 - πi )
1
yi
P( yi = 1) = πi = (πi ) = (πi )
1
y 1− yi
En ambos casos pueden escribirse las probabilidades como: (πi ) (1 - πi )
i
Si las variables {Y1 ,Y2 ...Yn } son independientes entre si, la probabilidad de obtener los
r
resultadosy = ( y1 , y2 ...yn ) se obtiene multiplicando las probabilidades de obtener
r
cada yi . Por ello, la función verosimilitud de obtener y = ( y1 , y2 ...yn ) puede
n
r
L( y ) = ∏
i =1
y 1− y
(πi ) i (1 - πi ) i
Para determinar los parámetros que hacen que dicha función sea máxima puede
r
igualarse a cero el gradiente de la función verosimilitud L ( y ) con respecto al vector de
127
r
parámetros β = (α , β ) . No obstante, normalmente se prefiere trabajar con el logaritmo
r
de la función verosimilitud, que se denotará como l ( y ) y que puede calcularse como lo
indica la siguiente ecuación:
n
r r
l ( y ) = ln(L ( y )) = ln ∏
i =1
yi
(πi ) (1 - πi )
1 − yi
r r
Dado que la función logaritmo es monótona creciente, L ( y ) y l ( y ) son maximizadas
r r
por los mismos valores de β , por lo que se maximizará l ( y ) para obtener los
ˆr
estimadores β = (αˆ , βˆ ) de los parámetros del modelo. Utilizando las propiedades de
los logaritmos es posible escribir la ecuación anterior de manera más simple:
n π yi
∏ (1 - πi )
r
l ( y ) = ln i
1 - πi
i =1
n
π n
= ∑ yi ∗ ln
i
i i =1
1 - π ∑
+ ln(1 - πi )
i =1
r r
Luego puede expresarse l ( y ) en términos de los parámetros β , utilizando las
ecuaciones siguientes:
α + βxi
ln(1 − πi ) = ln 1 −
e
= ln
1
1 + e α + βxi α + βxi
1 + e
α + βxi
= −ln 1 + e
π
ln i = α + βxi
1 - πi
r
Finalmente se obtiene la siguiente expresión para l ( y) :
n n
α + βxi
∑ ∑ 1 + e
r
l ( y) = ( yi ∗ (α + βxi )) − ln
i =1 i =1
128
r r
Calculando el gradiente de l ( y ) con respecto a los parámetros β , evaluando luego
r̂
dicho gradiente en los estimadores β de los parámetros del modelo e igualando las
∇l (βr) βˆr = 0r
Dichas ecuaciones permiten obtener los estimadores de máxima verosimilitud y pueden
escribirse en este caso como sigue:
r r n n α + βxi
∂l ( β y ) e
∂α
= ∑ ∑ yi −
α + βxi
i =1 i =1 1 + e
n n
= ∑ yi − ∑ πi = 0
i =1 i =1
r r n n α + βxi
∂l ( β y ) e
∂β
= ∑ xi yi − ∑ xi ∗
1+ e
α + βxi
i =1 i =1
n n
= ∑ xi yi − ∑ xiπi = 0
i =1 i =1
variables, referidas todas a un mismo cliente i se denotará por xi = ( xi1 , xi2 ...xik ) . La
probabilidad de que un cliente i sea malo, en este caso, queda descrita por la siguiente
129
función logística: g ( xi ) = β0 + β1 xi1 + ⋅ ⋅ ⋅ + βk xik , donde g ( xi ) es la transformación
g ( xi )
πi =
e
g ( xi )
1+ e
Al igual que en el modelo simple de regresión logística, en este caso el logaritmo de la
función verosimilitud podrá también expresarse mediante la fórmula:
n π yi
∏ (1 - πi )
r
l ( y ) = ln
i
1 - πi
i =1
n
π n
= ∑ yi ∗ ln
i
i i =1
1 - π ∑
+ ln(1 - πi )
i =1
g ( xi )
ln(1 − πi ) = ln 1 −
e
= ln
1
1 + e g ( xi ) g (x )
1+ e i
g (x )
= −ln 1 + e i
π
ln i = g ( xi )
1 - πi
r
Finalmente se obtiene la siguiente expresión para l ( y) :
n n
g ( xi )
∑ ( yi ∗ g ( xi )) − ∑ ln 1 + e
r
l ( y) =
i =1 i =1
130
r r n n g ( xi )
∂l ( β y ) e
∂β0
= ∑ ∑yi −
g ( xi )
i =1 i =1 1 + e
n n
= ∑ yi − ∑ πi = 0
i =1 i =1
r r n n g ( xi )
∂l ( β y ) j e
∂β j
= ∑ j
xi yi − ∑
xi ∗ g (x )
i =1 i =1 1+ e i
n n
= ∑ xi yi − ∑ xij πi = 0 ∀j ∈{1,...k}
j
i =1 i =1
ˆ ˆ ˆ
Los estimadores de los parámetros vienen dados por: β = β
r
ˆ
0 , β1 ,...βk( )
10.1.2.2 Refinamiento iterativo de los modelos de regresión logística
Para refinar el modelo de regresión logística es importante incorporar en él solo las
variables que son realmente predictivas, por cuanto el resto sólo contribuye a aumentar
los errores entre las observaciones y las predicciones. Por ello es preciso determinar el
aporte de cada variable al modelo, para lo cual existen diversos tests, entre ellos el test
de Wald, el test de Score, y test de razón de verosimilitud, siendo éste último el más
utilizado. En el test de razón de verosimilitud se calcula el estadístico G :
131
incluyendo en él sólo las variables más significativas y descartando el resto. Una vez
eliminada la variable j vuelven a estimarse los parámetros de las variables restantes
∇
r r
l (β) ˆ = 0
r
β
r
Dicho sistema deberá ser reescrito, por cuanto β y xi ya no tendrán coeficientes ni
El diagrama 10.4 ilustra uno de tales nodos. Los nodos de las redes neuronales se
comunican mediante enlaces dirigidos. Un enlace del nodo j al nodo i propaga la
variable de activación a j desde j hasta i . Cada enlace tiene un peso W j,i asociado,
el cual sirve para determinar la intensidad y el signo de la conexión. El nodo i calcula
un promedio ponderado de las variables que recibe a través de los enlaces de entrada,
65
Fuente: RUSSELL, Stewart, NORVIG, Peter, Artificial Intelligence, a Modern Aprroach, Second Edition,
Chapter 20, Statistical Learning Methods, Prentice Hall, 2003
132
utilizando los pesos W j,i como factores de ponderación. La siguiente fórmula expresa
ini = ∑ (W j,i * a j )
j
ai = g (ini ) = g
j
∑(
W j,i * a j )
Las flechas de la izquierda de la figura 10.4 corresponden a enlaces de entrada que
recibe el nodo i desde nodos j . El nodo recibe además una variable con un valor fijo
a0 a través de una conexión especial con un peso W0,i , el cual se denomina “sesgo”.
El nodo i se “gatilla” cuando una combinación lineal de sus inputs sobrepasa cierto
umbral, el cual viene determinado por el “sesgo” W0,i .
66
Fuente: RUSSELL, Stewart, NORVIG, Peter, Artificial Intelligence, a Modern Aprroach, Second Edition,
Chapter 20, Statistical Learning Methods, Prentice Hall, 2003
133
El diagrama 10.5 muestra dos funciones de activación de una neurona. La función de
activación permite a un nodo arrojar un resultado sólo cuando los inputs son los
correctos. A continuación se muestra como los nodos de una red neuronal pueden ser
utilizados para representar funciones booleanas a través de distintos inputs a j y
“sesgos” W0,i .
Figura 10.6 Unidades con una función de activación escalonada que pueden
representar distintas puertas lógicas67
Las redes neuronales pueden servir incluso para representar funciones vectoriales,
mediante la utilización no sólo de una, sino de múltiples unidades de salida. De ese
modo los múltiples inputs de una red neuronal pueden conectarse a los resultados
arrojados por otra red neuronal cuyo output sea vectorial.
Existen dos clases de redes neuronales: las acíclicas y las cíclicas o recurrentes. Una
red acíclica entrega una función calculada exclusivamente a partir de sus inputs. Una
red cíclica, en cambio, entrega valores que además dependen del estado interno de la
red, el cual a su vez depende de los inputs previos que ésta haya recibido. Una red
cíclica, además, se retroalimenta de sus propios outputs, por lo que se comporta como
un sistema dinámico capaz de alcanzar un estado estable, de oscilar entre
determinados estados, o de funcionar como un sistema caótico. La siguiente figura
67
Fuente: RUSSELL, Stewart, NORVIG, Peter, Artificial Intelligence, a Modern Aprroach, Second Edition,
Chapter 20, Statistical Learning Methods, Prentice Hall, 2003
134
muestra una red neuronal acíclica con dos unidades de entrada, una unidad de salida y
dos unidades “ocultas” (vale decir, que no son unidades ni de entrada ni de salida):
Figura 10.7 Una red neuronal con dos inputs, un nivel oculto de dos unidades y
una salida68
r
(
Dado un vector de input x = x 1 , x 2 ) para la red neuronal, el conjunto de valores que
entregan las unidades de entrada “1” y “2” de la red (los resultados de los nodos de
68
Fuente: RUSSELL, Stewart, NORVIG, Peter, Artificial Intelligence, a Modern Aprroach, Second Edition,
Chapter 20, Statistical Learning Methods, Prentice Hall, 2003
135
Puede observarse como el resultado de la red neuronal acíclica es una función que
r
(
depende tan solo de los inputs x = x 1 , x 2 ) y de los parámetros W j,i . Por lo tanto,
r
escribiendo el vector de pesos comoW , puede expresarse el resultado que arroja una
r r r
red neuronal como una función que depende de x y W , lo cual se denota por h r ( x ) .
W
A continuación se explica como una red neuronal puede ser utilizada para predecir el
que un cliente se transforme en “malo” en el futuro. La idea central se encuentra en
modelar una función que asuma el valor “1” solamente cuando las variables explicativas
del comportamiento del cliente hagan posible predecir que éste no será un buen cliente.
“malo”. Por ello, a continuación se mostrará como las redes neuronales, al alimentarse
del resultado de otras redes neuronales, pueden arrojar un valor cercano a “1” en zonas
del espacio de variables que son progresivamente más complejas. Se dirá que la red
neuronal se “gatilla” en aquella región en la que arroja un resultado de “1”.
En primer lugar, en la figura 10.8 dada abajo, se muestra como mediante una red
neuronal con dos inputs x1 y x2 se puede representar un función simple que asume el
valor 1 en una mitad del plano x1 , x2 , y el valor cero en la otra mitad. Posteriormente
se mostrará como una red neuronal alimentada con dos inputs a1 y a2 , ambos
resultados de otras redes neuronales, puede “gatillarse” en regiones más complejas,
136
como son una franja intersección de dos semiplanos, o en un área finita del espacio
x1 , x 2 .
Figura 10.8 Gráfico del output de un perceptrón con dos unidades de entrada y
una función de activación sigmoidal69
Se entiende por perceptrón a una red neuronal simple, que carece de nodos ocultos. La
figura 10.8 muestra los resultados de un perceptrón, que para valores bajos de x1 se
“gatilla” cuando x2 alcanza un valor de 4. En cambio, cuando se está en presencia de
valores más altos de x1 , el perceptrón se gatilla con valores mucho menores de x2 .
Dicho comportamiento se debe a que el perceptrón arroja un resultado “1” cuando una
combinación lineal de sus inputs sobrepasa cierto umbral. Una combinación lineal de
x1 , x2 divide el espacio de los inputs en dos áreas, que en realidad son dos
semiplanos, en uno de los cuales se gatillará el perceptrón.
69
Fuente: RUSSELL, Stewart, NORVIG, Peter, Artificial Intelligence, a Modern Aprroach, Second Edition,
Chapter 20, Statistical Learning Methods, Prentice Hall, 2003
137
Una red neuronal que reciba como input los resultados de dos perceptrones como el
anterior puede entregar un output con forma de “cordillera”, como se ilustra en la figura:
Abajo, en la figura 10.10 se muestra la salida con forma de “cerro” que es posible
obtener de una unidad que se alimenta con los resultados en forma de “cordillera” de
dos redes neuronales como la antes descrita. Alimentando una red neuronal con inputs
en forma de “cerro” es posible generar una salida con múltiples “montañas” ubicadas
sobre puntos específicos del espacio de variables de entrada.
70
Fuente: RUSSELL, Stewart, NORVIG, Peter, Artificial Intelligence, a Modern Aprroach, Second Edition,
Chapter 20, Statistical Learning Methods, Prentice Hall, 2003
138
Figura 10.10 El resultado de combinar dos cordilleras para producir un cerro71
Con un solo nivel de unidades ocultas y suficientes nodos en dicho nivel es posible
representar cualquier función continua con el nivel de precisión que se desee, en tanto
que con dos niveles de unidades ocultas es posible representar aun cualquier función
discontinua.
A continuación se describe primero un algoritmo iterativo para ajustar los pesos de una
red neuronal acíclica sin unidades ocultas (vale decir, un perceptrón), para luego
extrapolar dicho algoritmo a una red con un nivel de unidades ocultas. Se entrega
finalmente un algoritmo para ajustar los pesos de una red neuronal acíclica con
múltiples niveles de unidades ocultas. Para facilitar la primera fase de explicación del
71
Fuente: RUSSELL, Stewart, NORVIG, Peter, Artificial Intelligence, a Modern Aprroach, Second Edition,
Chapter 20, Statistical Learning Methods, Prentice Hall, 2003
139
algoritmo se entrega la siguiente figura que representa un perceptrón con cuatro
unidades de entrada y una unidad de salida:
( )
2
1 1 r
E = Err ≡ y − h r ( x )
2
2 2 W
( )
r r r
W ' ' = W ' + α ∗ ∇E W r r '
W =W
72
Fuente: RUSSELL, Stewart, NORVIG, Peter, Artificial Intelligence, a Modern Approach, Second Edition,
Chapter 20, Statistical Learning Methods, Prentice Hall, 2003
73
Fuente: HILLIER F., LIEBERMAN G., Investigación de Operaciones, Séptima edición, Capítulo 13,
Programación no Lineal, McGraw-Hill Interamericana, 2002
140
r
Donde α es un parámetro conocido como tasa de aprendizaje. Los vectores W'' y
r r
W ' corresponden al vector de pesos W ajustado en iteraciones sucesivas. En tanto
r
W y el gradiente del error al cuadrado vienen dados por los siguientes vectores:
∂E
W1,i ∂W1,i
... r ...
( )
r
W= ∇E W =
W j,i ∂E
...etc. ∂W j,i
...etc.
Cada uno de los términos del gradiente puede verse como la contribución que cada
W j,i entrega al error al cuadrado total, y es equivalente a las expresiones siguientes:
∂E ∂Err
= Err ∗
∂W j,i ∂W j,i
∑( )
∂
= Err ∗ y − g W j,i * x j
∂W j,i j
= − Err ∗ g' (ini ) ∗ x j
Donde x j corresponde a uno de los inputs que recibe el perceptrón desde sus
r
unidades de entrada, y forma parte, por lo tanto, del vector x de input. En tanto g' es
El algoritmo de ajuste de los pesos prosigue para cada ejemplo del conjunto de datos
de entrenamiento. Cuando se ha aplicado a todos los ejemplos se habla de que se ha
completado un “periodo”. El algoritmo continua completando “periodos” hasta que se
141
alcanza algún criterio de término (por ejemplo: cuando las variaciones consecutivas de
r r
los pesos W ' y W '' son ya muy pequeñas).
Ahora se deducirá un algoritmo similar aplicado a una red neuronal que contiene
unidades ocultas. Para ello es preciso notar que en el caso de tener una red neuronal
con uno o más niveles de unidades ocultas no existe a priori una interpretación clara
para los errores de las salidas de dichas unidades debido a que no existen
observaciones que permitan realizar una comparación. Es necesario, por lo tanto,
calcular la contribución al error de la red neuronal completa que realiza la salida de una
unidad oculta. A continuación se derivará dicha contribución a partir de la minimización
de la suma de los errores al cuadrado de una red neuronal con un único nivel de
unidades ocultas y varios nodos de salida, como la red de la figura:
Figura 10.12 Red neuronal con un nivel oculto y dos unidades de salida74
El error al cuadrado observado para un ejemplo de prueba usado para entrenar la red
neuronal puede expresarse a través de la siguiente ecuación:
1 1
∑ ∑ ( yi − ai )
2
E= Erri2 =
2 2
i i
74
Fuente: elaboración propia
142
Donde yi es el resultado a obtener si la red funcionara correctamente, mientras que ai
corresponde al resultado que la red efectivamente calcula. La suma se realiza sobre los
nodos i de las unidades de salida. La componente del gradiente de ese error al
cuadrado con respecto a un peso específico W j,i en el nivel de salida viene dado por:
∂E ∂a ∂g (ini )
= −( yi - ai ) i = −( yi - ai )
∂W j,i ∂W j,i ∂W j,i
∂ini
= −( yi - ai )g' (ini )
∂W j,i
∂
= −( yi - ai )g' (ini )
∂W j,i ∑ (W j,i a j )
j
= −( yi - ai )g' (ini ) ∗ a j = − a j ∆ i
Para obtener la contribución al error al cuadrado de los pesos Wk, j que conectan las
completa de las derivadas parciales sobre todos los nodos de salida, por cuanto cada
valor de salida ai puede verse afectado por los cambios en Wk, j .
Antes, al obtener el gradiente con respecto a W j,i se utilizó que los resultados de un
nodo j del nivel oculto no dependían de los pesos W j,i en el nivel de salida i , en
∂a j
otras palabras: = 0 . Ahora bien, al calcular el gradiente con respecto a los pesos
∂W j,i
Wk, j del nivel de entrada k será preciso considerar que los resultados a j del nivel
∂a j ∂g (in j )
oculto si dependerán de los pesos Wk, j , o en otras palabras: = ≠0
∂Wk, j ∂Wk, j
Con ello en mente las componentes del gradiente obtenidas al derivar el error al
cuadrado con respecto a Wk, j vienen dadas por las expresiones siguientes, en las que
144
r
Puede obtenerse el vector de pesos W que minimiza el error al cuadrado mediante el
método del gradiente, actualizando los pesos a través de la ecuación:
( )
r r r
W ' ' = W ' + α ∗ ∇E W r r '
W =W
El algoritmo de “ajuste” de los pesos a través de la red neuronal con varios niveles de
unidades ocultas procede en forma análoga al algoritmo antes presentado.
10.1.3.3 Cálculo con red neuronal de probabilidad de que un cliente sea malo
En una sección anterior se ha mostrado como las redes neuronales pueden predecir el
que un cliente se vuelva “malo” en el futuro, imitando para ello una función que asume
el valor “1” solamente cuando las variables explicativas hacen posible predecir que el
cliente no será un buen cliente. En esta sección se muestra como las redes neuronales
pueden ser usadas también para calcular la probabilidad de que un cliente sea bueno o
malo en términos crediticios o de rentabilidad en un determinado horizonte de tiempo.
La idea central radica en que al utilizar funciones de activación logísticas el resultado de
cada neurona puede interpretarse en forma probabilística. En efecto, una red neuronal
con una función de activación logística puede interpretarse como una red bayesiana.
Las redes bayesianas son grafos dirigidos acíclicos cuyos nodos representan variables
aleatorias y cuyos arcos denotan dependencia. Así, una flecha de un nodo A a un nodo
(
la probabilidad de obtener los valores x 1 , x 2 ... x k ) de un grupo de variables aleatorias
{X 1 , X 2 ...X k } se representa por: P(x1 , x 2 ...x k ) = ∏ P xi Padres X
i
i
145
Un perceptrón que trata de reproducir una variable binaria puede ser visto como una
red bayesiana. Es posible apreciar esto con claridad si se piensa en el output de la
función logística como la probabilidad condicional de obtener un resultado “1” dados los
valores de los inputs. Bajo este punto de vista las redes neuronales que tratan de
modelar el que un cliente sea malo dentro de un determinado horizonte de tiempo en el
fondo no hacen sino calcular la probabilidad condicional de que dicho cliente sea malo
r
dado que las variables de input x han asumido determinados valores.
Ahora bien, si es posible interpretar el resultado de una red neuronal como una
probabilidad condicional cabe preguntarse qué tipo de estimación de dicha probabilidad
se obtiene al aplicar el algoritmo de refinamiento iterativo que se ha entregado en la
sección anterior. Como se mostrará a continuación, el algoritmo que minimiza los
errores entre las observaciones y los resultados de una red neuronal no hace otra cosa
que maximizar la función verosimilitud de las observaciones consideradas en los
ejemplos de entrenamiento. En otras palabras, las probabilidades condicionales que
r
entrega una red neuronal utilizan estimadores de W que han sido obtenidos mediante
el método de máxima verosimilitud al aplicar el algoritmo iterativo de refinamiento de la
red sobre una base de ejemplos de entrenamiento.
r
A continuación se calculará el gradiente con respecto a W de la función verosimilitud
del resultado y que arroja un perceptrón con una única unidad de salida al recibir los
r
inputs x . Se mostrará que dicho gradiente posee una dirección contraria al gradiente
del error al cuadrado que es usado en el algoritmo de refinamiento iterativo de las redes
neuronales. Por ello, es claro que al minimizar el error al cuadrado de las observaciones
no se hace otra cosa sino maximizar la función verosimilitud del resultado y.
( ) (
r y
)
r 1− y
P( y ) = hWr ( x ) 1 − hWr ( x )
Ello viene del hecho de poder escribir las probabilidades como sigue:
146
r r 1
( r y
P( y = 1) = hWr ( x ) = hWr ( x ) = hWr ( x ) ) ( )
( r
) (
r 1
) (
r 1− y
P( y = 0 ) = 1 − hWr ( x ) = 1 − hWr ( x ) = 1 − hWr ( x ) )
El logaritmo de la función verosimilitud estará descrito por:
r y
( ) (
r 1− y
L = ln hWr ( x ) 1 − hWr ( x ) )
En vez de maximizar la función verosimilitud se puede maximizar el logaritmo de dicha
función. El gradiente del logaritmo de la función verosimilitud vendrá dado por:
∂L
=
∂ r r y
(
ln hW ( x ) 1 − hWr ( x )
∂Wj,i ∂Wj,i
) (
r 1 − y
)
=
∂
∂Wj,i
( r
( ) r
y ∗ ln hWr ( x ) + (1 − y ) ∗ ln 1 − hWr ( x ) ( ))
=y
( r
∂ln hWr ( x ) ) + (1 − y ) ∂ln(1 − hWr (xr ))
∂Wj,i ∂Wj,i
r r
y ∂hWr ( x )
1− y ∂hWr ( x )
= r ∗ − r ∗
hWr ( x ) ∂Wj,i 1 − hWr ( x ) ∂Wj,i
=
( r
) r
∗
r
y 1 − hWr ( x ) − (1 − y )hWr ( x ) ∂hWr ( x )
r r
(
hW ( x ) 1 − hW ( x )
r r )
∂Wj,i
r r
y − hWr ( x ) ∂hWr ( x )
= ∗
r
( r
hWr ( x ) 1 − hWr ( x ) ) ∂Wj,i
r
Err ∂hWr ( x )
= ∗
r
( r
hWr ( x ) 1 − hWr ( x ) ) ∂Wj,i
r
Esta última expresión puede simplificarse aun más considerando que h r ( x ) es una
W
función logística, y que la derivada de una función logística debe cumplir la ecuación:
147
r
g' = g ∗ (1 − g ) . Así se tiene que la derivada del resultado h r ( x ) con respecto a W j,i
W
puede escribirse como sigue:
r r
∂hWr ( x )
∂hWr ( x ) ∂ (ini )
= ∗
∂Wj,i ∂ini ∂Wj,i
r
( r
)
= hWr ( x ) 1 − hWr ( x ) ∗
∂
∑(
∂Wj,i
Wj,i * x j )
j
r
( r
)
= hWr ( x ) 1 − hWr ( x ) ∗ x j
∂L
Por lo que se obtiene finalmente que: = Err ∗ x j
∂Wj,i
Puede verse que el gradiente obtenido tiene sentido contrario a la dirección de ajuste
de los coeficientes en la ecuación del procedimiento de minimización de los errores al
cuadrado dado en la sección anterior. Se puede concluir, por lo tanto, que el algoritmo
que minimiza la suma de los errores al cuadrado del perceptrón maximiza la
verosimilitud de las observaciones utilizadas para construir el modelo. Si bien ello no se
mostrará en esta sección, la conclusión anterior no sólo es válida para un perceptrón,
sino que también para redes neuronales con múltiples niveles de unidades ocultas.
Un árbol de decisión recibe como input un conjunto de atributos y entrega una decisión,
que puede ser vista también como una predicción del output dados los inputs. Los
inputs y los outputs de un árbol de decisión pueden ser discretos o continuos, no
obstante en esta sección se supondrán inputs discretos y outputs booleanos. Un árbol
llega a una decisión luego de aplicar en cada nodo un test a un atributo. Cada rama
corresponde a uno de los valores posibles de dicho atributo. Las hojas entregan el
output del árbol.
148
aval?, cliente antiguo?, rotación empleo, renta, profesión, dependiente?, patrimonio,
comuna, y finalmente, deuda.
Figura 10.13 Ejemplo de árbol de decisión que permite clasificar a los clientes en
buenos y malos75
Cada uno de los nodos del árbol, representados en el diagrama mediante cajas, está
etiquetado con el nombre de un atributo, indicando con ello que en él se aplica un test a
los valores de dicho atributo. Así, por ejemplo, el nodo “morosidad” prueba el valor del
atributo del mismo nombre, entregando como output el resultado del subárbol que
comienza en la rama etiquetada con el valor que haya asumido dicho atributo. Si la
morosidad de un cliente es baja, el nodo “morosidad” entregará como output el
resultado del subárbol que comienza en la rama etiquetada “baja”, análogamente si la
morosidad es “alta”, el nodo entregará el resultado del subárbol que comienza con la
rama etiquetada como “alta”. El árbol que sigue la rama “baja” de uno de los nodos
75
Fuente: elaboración propia
149
etiquetados “morosidad” es una hoja, graficada como un círculo en el diagrama, y por lo
tanto entrega una decisión final del árbol (en este caso un “Si”).
Una forma que parecería a primera vista “inteligente” de construir un árbol de decisión
sería el generar el árbol más pequeño y simple posible que fuese consistente con los
ejemplos de la función booleana. Sin embargo, el problema de encontrar dicho árbol es
intratable computacionalmente para cualquier definición razonable de “pequeño” o
“simple”. A continuación se describirá un algoritmo razonable y tratable
computacionalmente para construir árboles de decisión sobre n atributos que se
ajusten a los resultados de un conjunto de ejemplos. El algoritmo entregado se
denomina “algoritmo de aprendizaje de árboles de decisión”, no obstante existen
algoritmos de uso comercial que ofrecen un desempeño superior, y cuya exacta
implementación está encircuitada dentro de herramientas de software específicas. Tal
es el caso del algoritmo C5, encircuitado en Clementine entre otras herramientas.
Existe una forma trivial para construir un árbol de decisión que sea consistente con el
conjunto de datos de entrenamiento: asignar una hoja del árbol a cada uno de los
ejemplos, con una ruta que desde la raíz aplique un test sobre cada atributo, siguiendo
siempre las ramas correspondientes a los valores asumidos por el ejemplo.
Desafortunadamente un árbol construido así no puede decir mucho sobre otros
ejemplos distintos de los del conjunto de entrenamiento, puesto que en realidad no
hace sino memorizar las observaciones, sin extrapolar ningún patrón.
151
Figura 10.14 Ejemplos de clientes clasificados como buenos o malos76
76
Fuente: elaboración propia a partir del libro de RUSSELL, Stewart, NORVIG, Peter, Artificial
Intelligence, a Modern Aprroach, Second Edition, Chapter 18, Learning Decision Trees, Prentice Hall,
2003
152
Figura 10.15 Clasificación de conjunto de datos de entrenamiento mediante el
atributo de comuna77
Para cualquiera de los valores de comuna posibles asumidos en los ejemplos del
conjunto de entrenamiento se tiene que existen tantos ejemplos positivos como
negativos. Claramente el atributo comuna no divide de buena forma el conjunto de
datos. La figura 10.16 dada abajo, en cambio muestra la división del conjunto de datos
de entrenamiento que realiza el atributo renta. Cuando la renta es baja, todos los
ejemplos observados en el conjunto de entrenamiento son negativos, en tanto que
cuando es alta, todos los ejemplos son positivos. Por lo tanto es posible clasificar
perfectamente a los clientes cuando su renta es baja o alta, y resulta por ende claro que
el atributo renta permite clasificar de mejor forma a los clientes. No obstante, cuando los
ejemplos del conjunto de entrenamiento presentan renta media se tiene una mezcla de
resultados positivos y negativos, por lo que la información contenida en el atributo renta
no es suficiente para clasificar a los clientes, y es preciso mirar algún atributo adicional.
En la figura se muestra como clasificar a los clientes que han presentado renta media
observando su rotación en el empleo. Si ésta es baja, todos los casos corresponden a
ejemplos negativos. En cambio, si la rotación es alta se tiene nuevamente una mezcla
de resultados y se requiere, en consecuencia, mirar atributos adicionales.
77
Fuente: elaboración propia
153
Figura 10.16 Clasificación de conjunto de datos de entrenamiento mediante
atributos de renta y rotación de empleo78
78
Fuente: elaboración propia
154
clasificar por completo los ejemplos, o bien que los resultados que se trata de
modelar son no determinísticos. En cualquier caso una forma de enfrentar el
problema es escoger como output la función booleana mayoría aplicada a la
clasificación de los ejemplos restantes.
Figura 10.17 Árbol de decisión generado por algoritmo a partir de los ejemplos
del conjunto de datos de entrenamiento79
Cabe notar que el árbol obtenido es bastante más simple que el de la figura 10.13, que
se utilizó para generar los 12 ejemplos del conjunto de entrenamiento. Con mayor
número de ejemplos en el conjunto de entrenamiento es posible arribar a un árbol de
decisión más parecido al árbol original que sirvió para generar los datos. Es preciso
decir también que el árbol de decisión generado es consistente con el conjunto de datos
de entrenamiento de la figura 10.14, pero no tiene por qué ser consistente con ejemplos
79
Fuente: elaboración propia a partir del libro de RUSSELL, Stewart, NORVIG, Peter, Artificial
Intelligence, a Modern Aprroach, Second Edition, Chapter 18, Learning Decision Trees, Prentice Hall,
2003
155
que no hayan estado en dicho conjunto. Por ello un árbol de decisión estará sujeto a
error al enfrentarse a nuevos ejemplos.
80
Fuente: SHANNON, C. E., WEAVER, W., The Mathematical Theory of Communication, University of
Illinois Press, 1949
156
p n
p n p p+n n p+n
I , = −log 2
p+n p+n p + n p + n
La función información, por lo tanto, corresponderá a un logaritmo de una cierta forma
de promedio geométrico entre la proporción de ejemplos positivos y la proporción de
ejemplos negativos. La siguiente figura grafica la función información y el promedio
geométrico antes descrito en función de la proporción de ejemplos positivos:
81
Fuente: elaboración propia
157
Se tiene un conjunto de datos con p resultados positivos y n resultados negativos. Un
atributo A divide un conjunto de datos en v grupos, de acuerdo al valor que asume.
Un grupo i de esos v grupos tiene pi resultados positivos y ni resultados negativos.
Se tendrá que un ejemplo escogido aleatoriamente mostrará el valor i del atributo con
pi + ni
una probabilidad dada por: . Por lo tanto, el valor esperado de la información
p+n
restante necesaria para clasificar un ejemplo luego de haber aplicado el test a un
atributo A vendrá dado por:
v
pi + ni pi ni
Resto( A) = ∑ p+n
I
p + n
,
i i i ip + n
i =1
La ganancia de información obtenida al aplicar el test sobre un atributo A será:
p n
Ganancia ( A) = I , − Resto( A)
p+n p+n
La función ganancia de información permite comparar atributos, como puede
comprobarse con la renta y comuna de los ejemplos de la figura 10.14:
2 2 4
Ganancia( Renta ) = 1 − I (0 ,1) + I (1,0 ) + I , = 0 ,541
4 6
12 12 12 6 6
2 1 1 2 2
Ganancia(Comuna ) = 1 − I , + I , + I , + I , = 0
2 1 1 4 2 2 4
12 2 2 12 2 2 12 4 4 12 4 4
El atributo renta divide al conjunto de datos de entrenamiento en mejor forma que el
atributo comuna, por cuanto la ganancia de información requerida para clasificar datos
es mayor si se utiliza el atributo renta que si se usa el atributo comuna.
158
2
cuando los datos contienen gran cantidad de ruido. La “poda χ ” permite definir un
nodo del árbol como hoja, aun cuando los datos en dicho nodo no corresponden sólo a
2
ejemplos positivos o sólo a ejemplos negativos. Para aplicar la “poda χ ” es preciso
determinar cuando un atributo es irrelevante.
v ( p − ˆp ) 2 (n − nˆ ) 2
D= ∑ i
ˆpi
i + i
nˆ i
i
i =1
159
2
Bajo la hipótesis H 0 el valor de D distribuye χ con v − 1 grados de libertad. La
probabilidad de que el atributo sea realmente irrelevante puede ser calculada con la
2
ayuda de las tablas de la distribución χ .
Ventajas Desventajas
160
En las secciones anteriores se han detallado las principales técnicas de modelamiento
aplicables al caso de las campañas bancarias, ello como parte de la descripción del
output 4a.1 de la tarea de seleccionar la técnica de modelamiento (tarea 4a) de cuarta
fase del proyecto de datamining. En las secciones siguientes se describen los
resultados y tareas restantes de dicha fase del proyecto.
- Definir cualquier supuesto sobre los datos que esté implícito en la técnica de
datamining escogida (por ejemplo: calidad, formato, distribución de las variables).
- Comparar dichos supuestos con aquellos del reporte de descripción de los datos.
Esta tarea consiste en una definición del procedimiento que se utilizará para probar la
calidad y validez del modelo. El diseño de las pruebas debe especificar qué datos
deberán ser separados del resto para conformar el conjunto de datos de entrenamiento
con el que se construirá el modelo. Deberá especificarse también qué datos formarán el
conjunto de datos de prueba con el que se validará el modelo antes construido.
La descripción de los resultados que se deben obtener como fruto de esta tarea se
entrega a continuación:
161
conjunto de datos disponible en un conjunto de datos de entrenamiento y un conjunto
datos de prueba. Entre las actividades que es preciso desarrollar se encuentran:
- Decidir los pasos necesarios para ejecutar cada prueba (número de iteraciones, etc.).
- Preparar los datos requeridos para las pruebas (el conjunto de datos de entrenamiento
y el conjunto de datos de prueba).
En este punto es importante señalar además que el conjunto de datos de prueba usado
para validar los modelos no debe tener datos en común con el conjunto de datos de
entrenamiento utilizado en la generación de dichos modelos. De lo contrario la
evaluación de los modelos pierde toda validez, tendiendo a favorecer a los modelos
sobreajustados.
162
10.3 Construir un modelo (tarea 4c)
- Procesar los resultados de datamining arrojados por el modelo (por ejemplo: editar las
reglas en el caso de un árbol de decisión).
Selección de muestras:
Este icono selecciona una muestra del flujo de datos que recibe
como input.
82
Fuente: elaboración propia
164
Nodos generadores de modelos:
Los siguientes íconos representan nodos que reciben como input un conjunto de datos
de entrenamiento, donde cada registro corresponde a una lista de valores de las
variables predictivas más un valor de la variable que se espera predecir. A partir de esa
información cada uno de éstos nodos genera un modelo predictivo, el cual es entregado
como output en la forma de nodo.
Los siguientes íconos representan modelos predictivos que ya han sido generados por
alguno de los nodos antes descritos. Cada uno de ellos puede ser utilizado en
Clementine de la misma forma que los nodos predefinidos por el software, sin
necesidad de programar su funcionamiento. Estos nodos al recibir como input un
conjunto de valores de las variables predictivas para un cliente en particular arrojan una
predicción para la variable a predecir.
165
10.3.3.2 Descripción del diagrama en Clementine que genera un modelo
El diagrama en Clementine que permite generar modelos se explica en dos fases:
primero la obtención de un conjunto de datos de entrenamiento (figura 10.20), y luego la
generación del modelo a partir de dicho conjunto de datos (figura 10.21).
En la figura 10.20 el nodo “Base final para construir modelo predictivo” del recuadro
contiene datos tanto de una base de variables predictivas de hace un año, como de las
clasificaciones de la base de clientes hoy. Dicha clasificación divide a los clientes en
“buenos” o “malos” y en “clientes con gran rentabilidad potencial” o “clientes sin gran
rentabilidad potencial”. Como primer paso del diagrama los distintos campos de dicha
base son transformados en variables discretas. Dicha labor, que ocurre en el nodo
denominado “Transforma en categorías”, se realiza para facilitar la iteración de los
algoritmos de generación de modelos. Los registros resultantes son divididos en
83
Fuente: elaboración propia
166
aquellos correspondientes a los clientes malos y a los clientes buenos (los cuales son
seleccionados en el diagrama por los nodos “Clientes malos hoy” y “Clientes buenos
hoy”, respectivamente)84. Posteriormente, el flujo de datos en Clementine procede a
construir el conjunto de datos de entrenamiento que se utilizará en la generación de los
modelos, para lo cual se selecciona el 50% de los clientes malos y el resultado se
mezcla con el nodo “1% de muestra de buenos”. Los porcentajes han sido escogidos
para asegurar la obtención de una muestra balanceada para la generación de modelos
predictivos (por cuanto el 1% de los clientes buenos es tan numeroso como el 50% de
los clientes malos). La muestra balanceada se obtiene en el diagrama en el nodo
etiquetado como “Conjunto de datos de entrenamiento”.
84
Una acción análoga es necesaria para trabajar con clientes con gran rentabilidad potencial y clientes sin
gran rentabilidad potencial
85
Fuente: elaboración propia
167
La muestra antes obtenida se resalta mediante la etiqueta “Conjunto de datos de
entrenamiento” a la izquierda del diagrama. En la mitad superior de la figura, en tanto,
se resaltan los nodos generadores de modelos, bajo la etiqueta “Generación de
modelos”. Estos nodos generadores de modelos reciben como input el conjunto de
datos de entrenamiento y al momento de ser ejecutados por el usuario entregan como
output “nodos generados”. Cada “nodo generado” puede entenderse como un
programa, que puede ser utilizado en Clementine de igual forma que cualquier otro
nodo predefinido. Los “nodos generados” son depositados por los nodos generadores
en la esquina superior derecha del diagrama, donde aparecen resaltados con la
etiqueta “Modelos generados”.
- Describir cualquier característica del modelo que pueda ser útil en el futuro.
- Registrar los valores establecidos de los parámetros que se han utilizado para producir
el modelo.
- Para modelos basados en reglas, realizar una lista de todas las reglas producidas más
cualquier estimación del porcentaje de clientes que sería cubierto por cada regla.
- Para las redes neuronales realizar una lista de cualquier información técnica sobre el
modelo (tal como la topología) y cualquier descripción del comportamiento del modelo
obtenida durante el proceso de modelamiento (tal como la precisión o la sensibilidad
esperada del modelo).
- Establecer conclusiones sobre los patrones descubiertos en los datos (si es que éstos
existen).
168
A continuación se entregan las meta-especificaciones de los modelos de riesgo y de
rentabilidad perseguidos por esta investigación, utilizando para ello las tres técnicas de
modelamiento descritas previamente: regresión logística, redes neuronales y árboles de
decisión.
X = ( X A1 , X A2 ...X A14 ,
X B1 , X B2 ...X B7 ,
X C1 , X C2 ...X C15 ,
X D1 , X D2 ...X D4 ,
X E1 , X E2 ...X E29 ,
X F1 , X F2 ...X F19 )
Cada una de las componentes de dicho vector es una variable que representa una
determinada característica, lo cual puede resumirse de la forma siguiente:
169
El conjunto de observaciones de dichas variables para un cliente particular i se denota
como sigue:
Con estas definiciones la estimación que entrega un modelo de regresión logística para
la probabilidad de que un cliente i sea malo, dado que presenta características
g ( xi )
πi =
e
g ( xi )
1+ e
r T
( xi ) . El vector (1 xi )
T
Donde g ( xi ) corresponde a la ecuación g ( xi ) = β • 1 es
La razón para agregar el número “1” al vector xi se debe a que se desea incorporar el
170
r
β = ( β0 , β A1,β A2 ...β A14 , (1 xi ) = (1, xiA1 , xiA2 ...xiA14 ,
βB1,βB 2 ...β B7 , xiB1 , xiB2 ...xiB7 ,
βC 1,βC 2 ...βC 15 , xiC1 , xiC2 ...xiC15 ,
β D1 ,β D 2 ...β D 4 ,
xiD1 , xiD2 ...xiD4 ,
β D1 ,β D 2 ...β D 29 ,
xiE1 , xiE2 ...xiE29 ,
β F 1 ,β F 2 ...β F 19 )
xiF1 , xiF2 ...xiF19 )
r
Los coeficientes β se obtienen de resolver numéricamente el sistema de ecuaciones:
∇ r r
l (β) ˆ = 0
r
β
r
l ( y ) con respecto
Dicho sistema de ecuaciones se obtiene calculando el gradiente de
r r̂
a los parámetros β , evaluado luego dichos parámetros en los estimadores β e
El modelo tal y como se ha descrito acá tiene 88 variables, las cuales claramente están
mutuamente correlacionadas entre si. No obstante, un modelo de regresión lineal
requiere que las variables no tengan correlaciones importantes, pues de lo contrario el
modelo tiende a tratar de replicar los “ruidos” contenidos en la muestra. Para evitar
dicho inconveniente es preciso depurar el modelo, dejando en él solamente las
variables que son más predictivas. Una forma de realizar dicho proceso consiste en
determinar el aporte de cada variable al modelo mediante el test de razón de
verosimilitud que se ha descrito antes en este documento.
171
variable dependiente Y describe la condición de ser o no un cliente con gran
rentabilidad potencial (0: con gran rentabilidad potencial, 1: sin gran rentabilidad
potencial). Se denotan las observaciones de dicha variable para un cliente i como yi .
vectorial X para un cliente particular i , definida del mismo modo que en el modelo de
riesgo de crédito. La estimación que entrega un modelo de regresión logística para la
probabilidad de que un cliente i no tenga una gran rentabilidad potencial dado que
g ( xi )
πi =
e
g ( xi )
1+ e
Donde g ( xi ) se obtiene en la misma forma que en el caso del modelo de riesgo.
X = ( X A1 , X A2 ...X A14 ,
X B1 , X B2 ...X B7 ,
X C1 , X C2 ...X C15 ,
X D1 , X D2 ...X D4 ,
X E1 , X E2 ...X E29 ,
X F1 , X F2 ...X F19 )
Cada una de las componentes de dicho vector son variables que representan una
determinada característica, y que pueden resumirse de la forma siguiente:
172
{ X A1 , X A2 ...X A14 } Variables demográficas
173
modelo de regresión logística) y la variable a predecir Y , que describe la condición de
ser o no un cliente con gran rentabilidad potencial (0: con gran rentabilidad potencial, 1:
r
sin gran rentabilidad potencial). La variable x corresponde a una observación para un
cliente particular de la variable explicativa vectorial X , definida en la misma forma que
para los modelos antes descritos. La estimación que entrega un modelo de red
neuronal para la probabilidad condicional de que un cliente no tenga una gran
rentabilidad potencial dado que posee un conjunto de características descritas por la
r r
variable x viene dada por h r ( x ) .
W
86
Fuente: CLEMENTINE 7.0 User’s Guide, SPSS, 2002
174
ítem ubicado después de los dos puntos corresponde a una “clasificación” (output del
árbol de decisión). En el caso de un nodo rama, el test contenido en la línea se aplicará
a uno de los posibles valores de un atributo, por ejemplo del atributo A . Las líneas
siguientes a dicho nodo rama corresponderán a tests aplicados a otros atributos, o al
mismo atributo A . Dependiendo de qué atributo se trate es posible identificar si la línea
siguiente corresponde a un nodo “hijo”, “hermano” o “tío” del nodo rama de la línea
anterior. A continuación se entrega la sintaxis y un ejemplo de esta especificación.
175
Sintaxis RULESET RESULT FORMAT:
<Regla> == Rule <número de regla> : <Condición>*
Î class <Clasificación>
<Condición> == <Campo> <Comparación> <Valor> :
<Comparación> == ‘=’ | ‘>’ | ‘<=’ | ‘<’
176
entrenamiento, a partir de los porcentajes observados de clientes “malos” en cada nodo
sobre el total de los clientes que han sido clasificados en dicho nodo.
Variables demográficas:
X A1 Región X A8 Nivel educacional
Variables de renta:
X B4 Renta
177
Variables de vínculo con el cliente:
X C4 Fecha más remota de apertura de línea de crédito hoy vigente con el Banco
X C7 Monto original de las tarjetas de crédito del Banco que el cliente posee
X C14 Monto original adeudado en créditos hipotecarios hoy vigentes con el Banco
X C15 Plazo máximo de créditos hipotecarios hoy vigentes con el Banco
178
Variables de comportamiento del cliente:
X E2 Monto en mora
X E15 Promedio del saldo de la deuda directa castigada en el sistema financiero los
últimos 3 meses
X E16 Promedio del saldo de la deuda indirecta castigada en el sistema financiero los
últimos 3 meses
179
X E20 Promedio del saldo de la deuda directa castigada en el sistema financiero en un
periodo comprendido entre 6 meses atrás y los últimos 3 meses
180
X F11 Deuda directa vigente en el último mes del último informe SBIF
X F12 Monto de línea de crédito disponible en el último informe SBIF
X F17 Nivel de leverage hipotecario total del cliente, el cual se calcula como la deuda
hipotecaria dividida por la renta
X F18 Nivel de leverage no hipotecario total del cliente, el cual se calcula como la
deuda no hipotecaria dividida por la renta
Esta tarea se encarga de evaluar el modelo para asegurar que satisface tanto los
criterios de éxito de datamining (output 1c.2) como los criterios de las pruebas (output
4b.1). Corresponde a una evaluación puramente técnica y estadística, basada en el
resultado de las tareas de modelamiento. Difiere por tanto de la subsiguiente fase de
evaluación de negocios del modelo de datamining precisamente por su enfoque técnico.
La descripción de los resultados que se deben obtener como fruto de esta tarea se
entrega a continuación:
181
- Evaluar los resultados del modelo con respecto a los criterios de éxito de datamining
(output 1c.2), muy en particular con respecto a los errores tipo I y tipo II definidos en la
sección 7.3, y expresados como porcentaje de un conjunto de datos de prueba. En este
punto es preciso fijar un “puntaje de corte”, o nota mínima que permite clasificar como
bueno a un cliente87, y calcular los errores tipo I y tipo II que se obtengan para un
conjunto de datos de prueba. En un modelo de riesgo el error tipo I proviene de
clasificar como bueno a un cliente que será malo, mientras que el error tipo II surge al
clasificar como malo a un cliente que será bueno88.
- Validar los resultados del modelo siguiendo la estrategia de pruebas (output 4b.1).
- Si hay una descripción verbal del modelo generado, por ejemplo vía reglas, evaluar si
las reglas son lógicas o factibles, o si contrarían el sentido común.
182
10.4.2.1 Divergencia
La divergencia puede usarse para medir la separación de la distribución de clientes
malos de la distribución de clientes buenos. Un modelo que entregue mayor divergencia
que otro será capaz de separar mejor a los clientes buenos de los malos a través de las
notas de riesgo, en otras palabras será capaz de distinguir mejor a los clientes malos de
los buenos. La distribución de clientes malos puede estimarse a partir del histograma de
frecuencia de los puntajes de riesgo de los clientes malos. La distribución de clientes
buenos puede aproximarse análogamente a partir de un histograma de los puntajes de
clientes buenos. La divergencia D de dos modelos se calcula como sigue:
2
(µ − µ )
D= m b
(
1 2
2
σ m + σ b2 )
Donde µb y σ b2 son la media y la varianza de la distribución de puntaje de los clientes
89
Fuente: ADAMSON, J. DOUGLAS, Evaluating & Comparing Predictive Models, Fair Isaac Insight
Series, 1999
183
Entre las ventajas de este estadístico se encuentran el que considera las distribuciones
de puntajes completas para realizar la comparación de modelos. Toma en
consideración la separación de los dos grupos de clientes, buenos y malos, al igual que
las varianzas de sus distribuciones. Entre sus desventajas están el que tal vez no
identifica el mejor modelo para una determinada “nota de corte”, entendiendo esta
última como la nota mínima aceptable para aprobar una decisión de otorgamiento de
crédito. Ello proviene del hecho de que si bien un modelo puede separar mejor a los
clientes malos de los buenos en términos generales, ello no garantiza que para una
nota específica tal modelo separe mejor que el resto a los clientes buenos de los malos.
Figura 10.23 Estadígrafo K-S, calculado como la máxima distancia entre las
distribuciones de buenos y malos de un modelo de puntaje90
Mientras mayor sea el estadístico K-S de un modelo, mejor será la capacidad de dicho
modelo para separar a los clientes buenos de los malos. Este estadístico tiene la
ventaja de ser fácil de interpretar. Sus desventajas incluyen el medir la separación de
90
Fuente: ADAMSON, J. DOUGLAS, Evaluating & Comparing Predictive Models, Fair Isaac Insight
Series, 1999
184
dos distribuciones de probabilidad en un solo punto y el ser un método que depende
fuertemente de cual sea la elección de las bandas de puntaje. No obstante, la mayor
desventaja radica en que el punto de máxima separación entre las distribuciones de
buenos y malos puede estar lejos del puntaje de corte que esté siendo utilizado para
tomar decisiones de otorgamiento de crédito. Un modelo puede separar en general
mejor que el resto a los clientes buenos de los malos por tener un estadístico K-S más
elevado, no obstante ello no garantiza que dicho modelo sea mejor que el resto
distinguiendo a los clientes buenos de los malos para un puntaje de riesgo específico
(por ejemplo: un “puntaje de corte” mínimo usado para otorgar crédito).
91
Fuente: ADAMSON, J. DOUGLAS, Evaluating & Comparing Predictive Models, Fair Isaac Insight
Series, 1999
185
La curva ROC (Receiver Operating Characteristic Curve), conocida también como curva
de trade-off, es análoga a la curva de Lorenz, con la salvedad de que ordena a los
clientes de mayor a menor nota. Luego de ordenados éstos, para cada nota debe
contarse el número de clientes “P” con un puntaje igual o menor a dicha nota, a la vez
que el número de clientes malos “M” con un puntaje igual o inferior. La curva ROC se
obtiene graficando M v/s P, expresados en términos de porcentajes sobre el total de
clientes malos y sobre el total de clientes de la población, respectivamente. Entre las
ventajas de la curva ROC están el permitir comparar visualmente la efectividad de dos
modelos, del mismo modo que realizar comparaciones de distintos “puntajes de corte”.
La figura 10.24 muestra la curva ROC para dos modelos, A y B. A presenta un mejor
desempeño que B, puesto que para el X % de la población con peores notas B
identifica solamente Z % de los malos, en tanto que A logra reconocer Y %. La línea
aleatoria ordena a los clientes por puntajes con distribución uniforme de probabilidad.
92
Fuente: ADAMSON, J. DOUGLAS, Evaluating & Comparing Predictive Models, Fair Isaac Insight
Series, 1999
186
Entre las ventajas de este estadístico están el proveer un valor cuantitativo, y el permitir
comparar curvas de trade-off completas, considerando toda la población. Cuando las
curvas de trade-off se cruzan, ayuda a indicar qué modelo es más efectivo en términos
globales. Entre sus desventajas están que no permite indicar qué modelo puede
separar en mejor forma a los clientes buenos de los malos para un puntaje de riesgo
determinado (por ejemplo: un “puntaje de corte” mínimo usado para otorgar crédito).
Este estadístico puede ser usado para comparar el desempeño de un mismo modelo a
lo largo del tiempo, o para comparar el desempeño de un mismo modelo sobre
segmentos de clientes distintos. Entre sus ventajas están el mostrar la capacidad de
ordenamiento por puntaje que posee un modelo. Entre sus desventajas figuran el que
no provee de información sobre la distribución subyacente (como la curva de trade-off),
y el que no permite comparar modelos distintos con escalas de puntajes distintas.
93
Fuente: ADAMSON, J. DOUGLAS, Evaluating & Comparing Predictive Models, Fair Isaac Insight
Series, 1999
187
10.4.3 Evaluación técnica automatizada de modelos utilizando Clementine
A continuación se muestra como Clementine ayuda a automatizar la obtención del
resultado 4d.1, correspondiente a la evaluación técnica de los modelos. En el diagrama
10.27 se ilustra como seleccionar una muestra para validar los modelos, la cual se
denomina “conjunto de datos de prueba”. En la figura Clementine toma de los nodos
etiquetados “Clientes malos hoy” y “Clientes buenos hoy” todos aquellos registros que
no fueron seleccionados para conformar el conjunto de datos de entrenamiento.
El nodo etiquetado “50% restante de muestra de malos” realiza una mezcla especial de
sus inputs conocida como “antijoin”, que lo que hace es seleccionar todos aquellos
registros del nodo “Clientes malos hoy” que no se encuentran entre los registros del
nodo “50% de muestra de malos” (los cuales fueron utilizados en el conjunto de datos
de entrenamiento). El nodo etiquetado “99% restante de muestra de buenos” realiza
94
Fuente: elaboración propia
188
una mezcla análoga empleando la modalidad “antijoin” de manera de no utilizar los
registros empleados en el conjunto de datos de entrenamiento.
La figura 10.28 muestra como los modelos generados que aparecen en la esquina
superior derecha pueden ser “enchufados” al conjunto de datos de prueba. En efecto, el
conjunto de datos de prueba aparece conectado a un grupo de modelos que figuran
sobre la etiqueta “Utilización de modelos”, obteniendo notas de riesgo o rentabilidad
potencial en los nodos sobre la etiqueta “Predicciones”. Dichas notas corresponden
efectivamente a predicciones o estimaciones de las probabilidades de que los clientes
se transformen en “malos” o en personas “sin gran rentabilidad potencial”. Al clasificar
con aquellas notas de riesgo y rentabilidad potencial un conjunto de clientes contenidos
en el conjunto de datos de prueba es posible utilizar las distintas medidas estadísticas
para evaluar los modelos técnicamente (divergencia, estadístico K-S, etc., las cuales se
95
Fuente: elaboración propia
189
han detallado en la sección 10.4.2). Del mismo modo, a partir de los puntajes
calculados para el conjunto de datos de prueba, y habiendo definido puntajes de corte
para los modelos de riesgo y de rentabilidad potencial es posible calcular los errores
tipo I y tipo 2 definidos en la sección 7.3 (output 1c.2).
190
11 QUINTA FASE DEL PLAN: EVALUACIÓN DE NEGOCIOS
El siguiente diagrama muestra las distintas tareas que deben ser realizadas en la fase
de evaluación de negocios de la metodología CRISP-DM, junto a los resultados que
deben obtenerse de la ejecución de cada una de ellas:
191
también genéricas y conceptuales todas las indicaciones que se entregan con respecto
a los modelos aprobados (output 5a.2), a la revisión del proceso (output 5b.1) a la lista
de acciones posibles (output 5c.1) y a la decisión a tomar en esta fase (output 5c.2). Se
entregan, en cambio, comentarios referidos a las campañas bancarias al describir la
evaluación de negocios de los resultados de datamining (output 5a.1), por cuanto para
dichas campañas se han definido en este documento dos objetivos de negocios
concretos.
- Interpretar los resultados de los modelos en términos de la aplicación que se les dará.
- Evaluar los resultados de datamining con respecto a los criterios de éxito de negocios,
vale decir, verificar si el proyecto consiguió los objetivos de negocios originales. Muy en
especial es preciso chequear el cumplimiento de los criterios de éxito de negocios
192
(output 1a.3) de aumentar los montos ofrecidos en las campañas en un porcentaje
determinado y de acotar las pérdidas esperadas de éstas en una cifra determinada.
Es claro que identificando segmentos como los de la figura 11.2 puede dirigirse una
oferta diferenciada a cada segmento (por ejemplo: créditos de consumo con tasas
preferenciales sólo para el segmento “riesgo bajo, alta rentabilidad”).
Por otro lado, un esquema multisegmentos como el dado en la figura 11.2 permite
apoyar la implementación de una orientación estratégica de las campañas, entendida
como se ha descrito en el capítulo 2.
193
Figura 11.2 Segmentos de riesgo y rentabilidad98
Bajo un enfoque operacional las campañas bancarias se realizan sin segmentar a los
clientes por criterios de riesgo y rentabilidad potencial, entregando una oferta estándar
a todos quienes cumplan ciertos criterios de riesgo. La siguiente figura ilustra una
segmentación semejante:
98
Fuente: elaboración propia
194
Figura 11.3 Orientación operacional de las campañas bancarias99
1. Existe un segmento de la figura 11.2 que no recibe oferta alguna en la figura 11.3, y
que puede ser objeto de una oferta diferenciada.
195
un problema de programación no lineal, en la medida que la restricción contempla la
multiplicación de las variables por probabilidades que dependen de las mismas
variables. A continuación se entregará una especificación de un modelo de
programación no lineal que permite estimar los montos a ofrecer en las campañas, a
la vez que se dan algunas indicaciones sobre como resolverlo. De cualquier forma la
resolución de semejante problema escapa a los objetivos de esta investigación. En
esta sección simplemente se desea mostrar como los puntajes de riesgo y
rentabilidad permiten especificar matemáticamente el problema de determinar los
montos a ofrecer en una campaña, satisfaciendo un determinado nivel de riesgo. Si
bien el problema especificado puede ser difícil de resolver en forma exacta, su sola
especificación ya permite comparar distintas soluciones posibles, por lo que hace
posible escoger la mejor solución entre ellas. Por lo tanto, la especificación del
problema permite por si sola cumplir el objetivo de aumentar los montos ofrecidos en
una campaña sujeto a satisfacer un cierto nivel de riesgo.
dicha probabilidad. Por lo tanto, los valores posibles para ∆pi se encuentran entre 0%
y 100%.
196
Figura 11.4 Funciones continua y escalonada que describen el aumento del
riesgo de los clientes al aumentar su carga financiera100
pi2 - pi1
∆pi =
1 - pi1
100
Fuente: elaboración propia
197
i y como Cuota ( xi ) la cuota que correspondería pagar mensualmente a dicho cliente
por un monto ofrecido xi , se tendrá que ∆qi vendrá dado por la siguiente relación:
Cuota ( xi )
∆qi =
Ii
Claramente ∆qi debe ser mayor que 0. Por otro lado, denotando como qi la carga
financiera del cliente i antes de aceptar el monto ofrecido en la campaña, debe tenerse
que la suma entre qi y ∆qi deberá ser menor a 1 (puesto que no puede superar el
100% de los ingresos de un cliente).
s.a.
n
∑ (xi ∗ pi ) = P2
i =1
(
pi2 = pi1 + ∆pi 1 - pi1( ))
Cuota ( xi )
∆qi = ∀i ∈{1,...n}
Ii
xi ≥ 0 ∀i ∈{1,...n}
qi + ∆qi ≤ 1 ∀i ∈{1,...n}
198
n
∑
Max Cuota -1 (∆qi ∗ I i )
∆qi i =1
s.a.
n
∑ Cuota - (∆qi ∗ Ii ) ∗ (pi + ∆pi (1 - pi )) = P
1 1 1
i =1
0 ≤ ∆qi ∀i ∈{1,...n}
qi + ∆qi ≤ 1 ∀i ∈{1,...n}
Algunas formas de de resolver el modelo anterior, como son el método del gradiente y
las condiciones de Karush-Kuhn-Tucker, requerirán que la función ∆pi esté expresada
en forma continua y diferenciable. No obstante, es posible entregar una forma ingenua y
fácilmente comprensible de resolver el modelo anterior si ∆qi puede asumir
únicamente valores discretos, y si ∆pi es una función escalonada. Dicha solución
consiste en probar todas las posibles combinaciones de valores para el conjunto de
variables ∆qi . Si los valores que ∆qi puede asumir se limitan a tan solo 11 números
101
En efecto, si un computador puede realizar millones de operaciones por segundo, podrá realizar 1110
operaciones en unas 7 horas.
199
Bajo un esquema operacional la máxima cuota que puede pagar un cliente se
determina a partir de las políticas de crédito del Banco, lo cual no necesariamente debe
ser lo más adecuado, en particular porque en ningún momento se utiliza el nivel de
rentabilidad potencial de los clientes.
En resumen, puede observarse, por lo tanto, que mediante modelos predictivos que
calculan puntajes de riesgo y rentabilidad pueden construirse segmentaciones que
ayuden a que un Banco crezca y controle un nivel mínimo de riesgo.
La descripción de los resultados que se deben obtener como fruto de esta tarea se
entrega a continuación:
200
11.2.1 Revisión del proceso de datamining (output 5b.1)
De acuerdo a la guía de usuario de la metodología CRISP-DM, este resultado
corresponde a un resumen de la revisión del proceso de datamining. Es un documento
que contiene pistas para descubrir actividades que han sido olvidadas o que debieran
ser repetidas. Entre las actividades que es preciso desarrollar para obtener este
resultado se encuentran las siguientes:
Las descripciones de los resultados que se deben obtener como fruto de esta tarea se
entregan a continuación:
201
- Recomendar alternativas de continuación del proyecto de datamining.
202
12 SEXTA FASE DEL PLAN: DESPLIEGUE DE LOS RESULTADOS
El siguiente diagrama muestra las distintas tareas que deben ser realizadas en la fase
de despliegue de la metodología CRISP-DM, junto a los resultados que deben
obtenerse de la ejecución de cada una de ellas:
Figura 12.1 Tareas y outputs de la fase de despliegue, sexta y última fase del
proyecto de datamining según metodología CRISP-DM102
102
Fuente: CHAPMAN, Pete, CLINTON, Julian, KERBER, Randy, KHABAZA, Thomas, REINARTZ,
Thomas, SHEARER, Colin, WIRTH, Rüdiger, CRISP DM 1.0 Step By Step Data Mining Guide, SPSS Inc.,
2000
203
la experiencia y reflexión del autor de este documento. En virtud de que el plan de
datamining que se ha elaborado en el presente documento es conceptual y no se basa
en ningún caso específico de ningún Banco, son también conceptuales las
recomendaciones entregadas para el plan de monitoreo y mantención (output 6b.1),
para el reporte y la presentación finales (outputs 6c.1 y 6c.2) y para la documentación
de la experiencia (output 6d.1). Un caso distinto corresponde al plan de despliegue
(output 6a.1), que se describe en este capítulo aportando antecedentes sobre cómo es
posible automatizar la implementación de los modelos de las campañas dentro de los
sistemas informáticos de un Banco sin incurrir en costos de desarrollo de software.
Esta tarea toma los resultados de la evaluación del modelo de datamining y elabora una
estrategia para desplegar el modelo en el negocio. Se debe determinar cómo propagar
a los usuarios la información generada por el modelo, y cómo desplegar los resultados
de éste dentro de los sistemas informáticos de la empresa. Deben también identificarse
problemas que pudiesen surgir al desplegar los resultados de datamining. Las
descripciones de los resultados que se deben obtener como fruto de esta tarea se
entregan a continuación:
103
Fuente: CRISP-DM User Guide, redactado por el CRISP-DM Consortium, documento contenido en
CHAPMAN, Pete, CLINTON, Julian, KERBER, Randy, KHABAZA, Thomas, REINARTZ, Thomas,
SHEARER, Colin, WIRTH, Rüdiger, CRISP DM 1.0 Step By Step Data Mining Guide, SPSS Inc., 2000
204
- Determinar cómo se monitoreará la utilización de los resultados de los modelos y
cómo se medirán sus beneficios.
- Identificar posibles problemas que podrían surgir al desplegar los resultados.
Figura 12.2 Flujo de datos en Clementine que obtiene una base de clientes con
notas de riesgo y rentabilidad a partir de una base de variables predictivas104
104
Fuente: elaboración propia
205
La figura 12.2 contiene el mismo diagrama que se ha utilizado en el capítulo 9 para
obtener una base de variables predictivas, con la salvedad que se ha agregado uno de
los mencionados “nodo-programa” en la esquina inferior derecha bajo la etiqueta
“Modelo”. Al “enchufar” a la base de variables predictivas uno de esos nodos-programa
se obtienen notas de riesgo o de rentabilidad de los clientes. Dichas “notas” de riesgo y
de rentabilidad potencial permiten a su vez generar ofertas automáticamente a través
de Clementine, como se ilustra abajo en la figura 12.3:
Figura 12.3 Flujo de datos en Clementine que obtiene una base de ofertas
comerciales a partir de una base con notas de riesgo y rentabilidad105
En esta tarea debe determinarse cómo se monitoreará la precisión del modelo y sus
resultados, y cuándo deben dejar de utilizarse éstos. El monitoreo y la mantención son
en extremo importantes en el caso de las campañas bancarias, puesto que los
resultados de datamining se vuelven parte del trabajo operacional cotidiano de un
Banco. Un buen plan de mantención ayuda a evitar el peligro del uso incorrecto de los
resultados de datamining. Las descripciones de los resultados que se deben obtener
como fruto de esta tarea se entregan a continuación:
105
Fuente: elaboración propia
206
los pasos necesarios y cómo ejecutarlos. Entre las actividades que es preciso
desarrollar para obtener este resultado se encuentran:
207
12.3.2 Presentación final (output 6c.2)
Este resultado es el segundo de la tarea de producir el reporte final (tarea 6c). De
acuerdo a la guía de usuario de la metodología CRISP-DM, este output corresponde a
una reunión al final del proyecto en la cual los resultados del proyecto de datamining
son presentados a su auspiciador.
En esta tarea corresponde evaluar lo que ocurrió correctamente y lo que ocurrió mal en
el proyecto de minería de datos, lo que se hizo bien y lo que necesita ser mejorado. La
descripción del resultado que se debe obtener como fruto de esta tarea se entrega a
continuación:
208
13 CONCLUSIÓN
Se han extraído también conclusiones relevantes de cada una de las seis fases en las
que se ha dividido el desarrollo de la tesis. Dichas conclusiones se detallan a
continuación:
209
características aparecen como las más importantes en opinión de las personas que
han trabajado como ejecutivos de crédito, y es información que está disponible en
las bases operacionales de cualquier Banco (aceptando los supuestos dados en las
hipótesis de trabajo).
210
mediante datamining un Banco puede focalizarse en segmentos de clientes
clasificados por riesgo y rentabilidad, y que puede crecer satisfaciendo un nivel
mínimo de riesgo.
Entre las recomendaciones que pueden entregarse a partir de los resultados de esta
investigación destacan el buscar un apoyo firme y decidido de la gerencia de un Banco
antes de comenzar un proyecto de datamining. En particular ello debe traducirse en dos
resultados concretos. En primer lugar un presupuesto relevante para la investigación, lo
suficientemente cuantioso para brindar estatus al proyecto y para comprometer al
Banco en su éxito. En segundo lugar es preciso recibir el nombramiento de un cargo
dentro de la estructura organizacional del Banco para garantizar el éxito del proyecto de
datamining. Ello obedece al hecho de que los Bancos son instituciones altamente
jerarquizadas, en las que para realizar cualquier tipo de proyecto es preciso disponer de
un nivel jerárquico adecuado. Aun en el caso de tratarse de un proyecto realizado por
consultores externos, éstos deben recibir el respaldo de la organización en la forma de
un nombramiento de jefes o gerentes de proyecto. Se recomienda en todo caso realizar
los estudios de datamining a través de consultorías externas, de manera tal de tratar de
evitar los ataques que pudiesen provenir desde dentro de la institución.
211
14 BIBLIOGRAFÍA
212
17. EL DIARIO FINANCIERO, Filiales de Bancos Arremeten en Competencia por
Clientes, 11/05/2005.
18. EL DIARIO FINANCIERO, Los Bancos Extranjeros han Inyectado Mayor
Competencia al Mercado, 05/06/2005.
19. EL DIARIO FINANCIERO, Bancos y Multitiendas Olvidan sus Diferencias por
Conveniencia Mutua, 06/06/2005.
20. EL DIARIO FINANCIERO, Bancos en Alerta por Posible Regulación de Tarjetas
del Comercio, 16/06/2005.
21. EL DIARIO FINANCIERO, Bank of America, Reportaje, 12/05/2006
22. HALLBERG, Garth, OGILVY, David, Todos Los Consumidores No Son Iguales,
Capítulo 3: Por qué no Todos los Consumidores Han Sido Creados Iguales, Deusto,
1999.
23. HILLIER F., LIEBERMAN G., Investigación de Operaciones, Séptima edición,
McGraw-Hill Interamericana, 2002
24. Informe de Colocaciones por Actividad Económica, SBIF, febrero 2005.
25. Informe de Estabilidad Financiera, Banco Central, primer semestre 2006
26. Informe Tasas Principales Productos de Consumo, SBIF, 2005.
27. Informe Mutuos Hipotecarios Endosables, SBIF, 2005.
28. Introduction to Data Mining and Knowledge Discovery, Two Cross Corporation,
1998.
29. Jumpstart Clementine Training Brochure, Data Mining Jumpstart, Data Mining
Projects Clementine, SPSS, 2004.
30. KOTLER, Philip, Dirección de Marketing, Décima Edición, Capítulo 9: Identificación
de Segmentos de Mercado y Selección de Mercados Meta, Pearson Educación, 2001.
31. KRAFT, Holger, KROISANDT, Gerald, MÜLLER, Marlene, Redesigning Ratings:
Assessing the Discriminatory Power of Credit Scores under Censoring, Fraunhofer
Institut für Techno und Wirtschaftsmathematik (ITWM), June, 2004.
32. LAMBIN, Jean-Jacques, Marketing Estratégico, Capítulo 6: El Análisis de las
Necesidades a través de la Segmentación, McGraw-Hill Interamericana, 1996.
33. PÉREZ, Cesar, Técnicas Estadísticas con SPSS, Prentice Hall, 2001.
34. REICHHELD, Frederick, El Efecto de la Lealtad del Cliente, Capítulo 2: Economía
de la Lealtad del Cliente, Editorial Norma, 1996.
35. REICCHELD, SASSER, Zero Defections Come to Quality, HBR, 1990.
213
36. REVISTA INFORMACIÓN FINANCIERA, SBIF, julio 1999, julio 2000, julio 2001,
julio 2002, julio 2003, julio 2004, julio 2005.
37. RUSSELL, Stewart, NORVIG, Peter, Artificial Intelligence, a Modern Approach,
Second Edition, Prentice Hall, 2003.
38. RUST, Roland, ZEITHAML, Valerie, LEMON, Katherine, Driving Customer Equity :
How Customer Lifetime Value is Reshaping Corporate Strategy, The Free Press, June
2000.
39. SHANNON, C.E., WEAVER, W., The Mathematical Theory of Communication,
University of Illinois Press, 1949
40. TENENHAUS, Michele, Méthodes Statistiques en Gestion, Editorial Dunod,
France, 1996.
41. WILSON, L., Canadian Bank Mines for Gold, Computerworld, 1997.
214
ANEXOS
Anexo A Colocaciones totales de los Bancos del sistema financiero chileno,
Julio del 2005106
Colocaciones totales
(en miles de millones Valores en %
de pesos)
Bancos 2004 2005 Participación Crecimiento
Banco de Chile 6.350 7.275 17,7 14,6
Grandes
106
Fuente: volúmenes de Julio de los años 2004 y 2005 de la revista Información Financiera de la SBIF
Anexo B Comparación entre Bancos de la razón de eficiencia (gastos de
apoyo operacional / resultado operacional bruto), periodo 2000-2005107
Valores en %
Jul-00
Jul-01
Jul-02
Jul-03
Jul-04
Jul-05
Bancos
Bco. de Chile 52,1 49,3 56,6 51,6 44,5 48,2
Grandes
107
Fuente: volúmenes de Julio de los años 2000 al 2005 de la revista Información Financiera de la SBIF
Anexo C Evolución del margen de intereses del sistema financiero, periodo
2000-2005108
Jul-00
Jul-01
Jul-02
Jul-03
Jul-04
Jul-05
Margen de intereses 833 1.037 1.064 940 1.118 1.091
millones de pesos
Cifras en miles de
Resultado operacional
1.031 1.280 1.302 1.338 1.426 1.479
bruto
Resultado operacional
128 373 327 397 455 502
neto
Margen de intereses /
80,8 81,1 81,7 70,2 78,4 73,8
Valores en %
108
Fuente: volúmenes de Julio de los años 2000 al 2005 de la revista Información Financiera de la SBIF
109
Grandes Medianos Pequeños
BCI
BICE
Anexo D
BBVA
Citibank
Corpbanca
Scotiabank
BankBoston
Banco de Chile
Banco Security
B. del Desarrollo
Banco Santander
Banco del Estado
Sistema financiero
Jul-00 3.309 3.113 3.270 2.239 1.099 1.381 722 664 1.011 382 967 1.003 26.320
Jul-01 3.644 3.420 3.664 2.545 1.315 1.705 784 786 1.094 481 1.016 1.015 29.489
Colocaciones
(en miles de Jul-02 5.776 3.541 3.875 3.072 1.538 1.907 785 776 1.051 654 1.138 1.123 31.068
millones de Jul-03 5.980 7.722 4.258 3.508 1.940 2.277 819 932 988 745 1.182 1.259 32.801
pesos)
Jul-04 6.350 8.568 4.704 4.099 2.241 2.736 954 1.017 800 796 1.142 1.324 36.016
Jul-05 7.275 9.467 5.390 4.938 2.724 3.171 1.048 1.307 848 967 1.188 1.582 41.126
Jul-00 3,1 3,2 3,4 3,2 4,1 2,8 2,2 1,7 5,4 3,7 2,7 2,1 3,2
Margen de Jul-01 3,2 4,1 3,2 3,3 4,1 3,1 2,6 2,0 6,4 6,4 2,4 2,6 3,5
intereses / Jul-02 3,3 4,0 3,6 2,8 3,3 3,3 2,3 2,4 5,6 3,8 2,1 2,5 3,4
Colocaciones
(valores Jul-03 2,7 3,0 2,6 2,8 2,8 2,2 1,9 2,1 5,1 2,9 1,8 2,4 2,9
en %) Jul-04 3,0 3,2 2,9 2,6 2,8 2,2 2,0 2,0 8,0 4,0 2,1 2,6 3,1
Fuente: volúmenes de Julio de los años 2000 al 2005 de la revista Información Financiera de la SBIF
Jul-05 2,6 3,0 2,5 2,3 2,2 1,7 1,8 1,9 6,1 3,2 2,0 2,4 2,7
Comparación entre Bancos de la razón de margen de intereses
Anexo E Comparación de la razón utilidad del ejercicio sobre capital y
reservas de los distintos Bancos, periodo 2000-2005110
Valores en %
Jul-00
Jul-01
Jul-02
Jul-03
Jul-04
Jul-05
Bancos
Banco de Chile 27,8 28,6 10,5 24,2 32,0 35,2
Grandes
110
Fuente: volúmenes de Julio de los años 2000 al 2005 de la revista Información Financiera de la SBIF
Anexo F Comparación del crecimiento anual de las colocaciones de los
Bancos, periodo 2000-2005111
Valores en %
Jul-00
Jul-01
Jul-02
Jul-03
Jul-04
Jul-05
Bancos
Bco. de Chile 9,9 10,1 58,5 3,5 6,2 14,6
Grandes
111
Fuente: volúmenes de Julio de los años 1999 al 2005 de la revista Información Financiera de la SBIF
Anexo G Evolución de las colocaciones totales del sistema financiero
desglosadas por tipo, periodo 2000-2004112
Nov-00
Nov-01
Nov-02
Nov-03
Nov-04
Créditos de consumo (a) 2.617 2.705 3.193 3.499 5.198
millones de pesos
Cifras en miles de
112
Fuente: volumen de Febrero del 2005 de la revista Información Financiera de la SBIF
Anexo H Tasas de créditos de consumo, hipotecarios y comerciales, periodo
2002-2005113
crédito
Líneas de
crédito
Tarjetas de
hata 200 UF
consumo
Créditos de
(*)
comerciales
Créditos
Mutuos hipotecarios
años
1a8
Mutuos
años
8 a 12
Mutuos
años
12 a 20
Mutuos
20 años
más de
Mutuos
Jul-02 27,0 34,1 26,9 16,7 6,5 7,4 7,0 6,7
Ago-02 26,2 33,4 26,0 15,6 6,5 7,0 6,9 6,8
Sep-02 26,0 33,4 25,0 14,9 6,3 6,9 6,9 6,8
Oct-02 26,0 33,0 25,1 16,0 6,0 7,0 7,0 7,0
Nov-02 26,3 32,8 25,6 15,3 6,2 6,9 7,0 7,4
Dic-02 27,0 32,8 23,7 14,2 6,2 6,8 7,0 6,8
Ene-03 26,8 33,9 25,6 17,2 6,2 6,8 7,0 7,0
Feb-03 26,8 33,4 25,6 17,1 6,1 6,6 6,8 7,0
Mar-03 25,3 33,2 23,2 13,0 5,9 6,6 6,7 7,2
Abr-03 25,4 32,3 24,2 14,2 5,7 6,5 6,8 7,1
May-03 25,9 31,6 23,8 13,5 5,7 6,7 6,8 7,0
Jun-03 26,2 30,9 24,0 14,3 5,7 6,2 6,7 7,0
Jul-03 28,7 31,9 23,1 13,8 6,1 6,3 6,7 7,1
Ago-03 28,0 32,6 22,4 13,6 5,7 5,9 6,6 7,2
Sep-03 28,0 33,0 21,7 13,2 5,4 6,0 6,7 7,1
Oct-03 27,9 33,0 21,5 13,3 5,6 6,0 6,5 6,8
Nov-03 27,9 33,0 22,3 13,6 5,5 5,6 6,3 6,4
Dic-03 28,6 33,3 21,9 12,7 7,0 5,2 6,4 6,5
Ene-04 26,2 33,6 22,9 14,0 5,4 5,6 6,1 6,5
Feb-04 27,7 33,6 23,5 12,0 5,2 5,4 5,4 6,3
Mar-04 27,6 34,0 20,8 11,0 5,1 5,4 5,5 6,3
Abr-04 28,1 33,9 21,3 11,4 4,9 5,3 5,9 6,2
May-04 28,3 33,4 22,2 11,6 4,2 5,0 5,5 6,1
Jun-04 28,3 33,3 22,3 12,0 4,0 4,5 4,9 5,4
Jul-04 28,7 33,3 21,3 11,9 4,1 4,5 4,6 5,2
Ago-04 28,7 33,5 21,1 11,5 4,3 4,5 4,7 5,0
Sep-04 28,4 33,6 20,0 11,3 4,1 4,6 4,7 4,6
Oct-04 28,2 33,9 20,3 11,6 4,1 4,8 4,9 5,1
Nov-04 28,6 33,5 21,2 12,1 4,4 4,5 4,9 4,9
Dic-04 28,5 31,8 21,0 12,1 4,2 4,5 4,9 4,9
Ene-05 29,3 32,5 20,5 13,0 4,6 4,8 5,1 4,7
Feb-05 30,2 32,4 21,8 13,3 4,4 5,1 5,2 5,3
Mar-05 30,2 32,9 21,1 12,4 4,5 4,8 5,2 5,3
Abr-05 31,1 33,6 21,7 13,1 4,3 4,9 5,2 5,1
May-05 31,7 34,2 22,2 13,9 4,4 4,7 5,4 6,0
Jun-05 31,9 35,0 22,3 14,0 4,6 5,0 5,4 5,3
Jul-05 31,8 35,2 21,9 14,0 4,4 4,8 5,3 5,2
Ago-05 31,7 35,5 21,8 13,9 4,0 4,7 5,3 5,0
(*) Tasas de los créditos de consumo entre 2000 y 5000 UF
113
Fuente: volúmenes del 2005 del Informe de las Tasas de los Principales Productos de Consumo de la
SBIF y del Informe de Mutuos Hipotecarios Endosables de la SBIF
Anexo I Composición del margen operacional bruto de los distintos Bancos,
Julio 2005114
7,7
15,0
3,1
1,5
9,3
5,1
5,7
12,3
4,7
4,8
6,1
-4,9
7,7
Otros ingresos operacionales /
Resultado operacional bruto
Valores en %
21,4
17,6
19,6
20,8
21,0
17,6
12,4
15,9
22,6
20,7
18,5
12,5
16,7
Comisiones netas /
Resultado operacional bruto
73,5
68,1
76,7
74,5
77,7
78,3
73,2
73,8
64,0
79,7
81,1
75,9
88,2
Margen de intereses /
Resultado operacional bruto
257
201
156
1.479
366
24
32
52
85
75
64
32
35
Resultado operacional bruto
26
49
227
15
41
2
6
6
26
12
1
-3
Total otros ingresos oper.
(a) + (b) + (c ) + (d) + (e) + (f)
13
25
7
114
21
1
3
3
13
6
2
-2
0
Otros ingresos (f)
Cifras en miles de millones de pesos
-3
-4
-2
-32
-4
-1
-1
-1
-2
-4
-3
-1
-1
Corrección
monetaria neta (e)
-5
2
2
-23
-13
0
0
0
-2
0
-1
0
-1
Otros ingresos
de operación netos (d)
20
13
7
89
22
0
1
3
12
1
1
Recuperación de
colocaciones castigadas (c)
-5
2
-1
16
4
0
1
1
3
1
Diferencias de cambio -3
netas (b)
6
12
1
12
2
2
0
63
0
2
1
1
Diferencias de precio
netas (a)
55
39
32
64
4
4
11
274
18
10
6
7
Comisiones netas
189
137
116
280
60
54
18
25
1.091
52
31
24
38
Margen de intereses
B. del Desarrollo
Sistema financiero
Bco. Security
Bco. de Chile
BankBoston
Bco. Estado
Scotiabank
Corpbanca
Santander
Citibank
BBVA
BICE
Bancos
BCI
114
Fuente: volumen de Julio del 2005 de la revista Información Financiera de la SBIF
Anexo J Porcentaje de los distintos tipos de créditos sobre el total de
colocaciones de cada Banco, Febrero 2005115
Cifras en miles de
Valores en %
millones de pesos
la vivienda (b)
Créditos hipotecarios para
Total (c)
Créditos de consumo
la vivienda
Créditos hipotecarios para
Colocaciones de empresas
Total
Bancos
Banco de Chile 1.422 749 4.051 6.222 22,9 12,0 65,1 100
Grandes
Banco Santander 1.134 1.848 5.059 8.042 14,1 23,0 62,9 100
Banco del Estado 541 2.202 2.236 4.978 10,9 44,2 44,9 100
BCI 380 741 3.017 4.139 12,6 17,2 70,2 100
Medianos
115
Fuente: volumen de febrero del 2005 del Informe de Colocaciones por Actividad Económica de la
SBIF, y volumen del 2005 del Informe de Mutuos Hipotecarios Endosables de la SBIF