Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Conclusión .......................................................................................... 12
Hemos visto cómo es necesario tener una planificación alineada con la estrategia corporativa,
cómo es importantísimo obtener los apoyos y los recursos y que nada se lleva a cabo si no se
le percibe un beneficio.
Recientemente, Gartner señaló un estudio que pretendía demostrar que “entre el 70% y el
80% de los proyectos de datos fallan.” Esta proporción es increíblemente alta si le damos
crédito y puede llegar a desmotivar. El 70% al 80% es una proporción inusualmente alta de
proyectos que no cumplen con sus objetivos. Especialmente, si se toma en cuenta que
business intelligence, es una disciplina bien establecida en las grandes organizaciones.
Además, gran parte de los requerimientos actua les de datos son reportes de consultas pre
establecidos que se aplican en ciertas épocas del año.
Considerando que, desde hace 20 años business intelligence es una estrategia cuya primera
misión es hacer informes, ¿qué puede ser tan formidable para no logr ar llegar a sus metas en
un 70-80% de las veces?
También según Gartner, el fracaso no viene motivado únicamente por una causa sino por
varias. Hagamos un repaso de los riesgos que ver dónde se esconden las trampas.
Salvo que se haya hecho una previsión excepcionalmente escrupulosa de los requerimientos
técnicos, económicos y humanos, lo más probable es que surjan problemas durante el proceso
de ejecución. Esto puede implicar ciertos retrasos o incluso un a umento de los costes respecto
al presupuesto originalmente estimado.
En el momento en que esos problemas afloren, aquellos miembros del equipo ejecutivo que
no estén de acuerdo con el proyecto, aprovecharán la ocasión para criticarlo y sabotear
cualquier intento de superar las dificultades.
Solución
Los retrasos e incremento de costes durante la ejecución de un proyecto de datos no sólo son
consecuencia de una estimación incorrecta de los requerimientos.
A menudo, las necesidades y prioridades del cliente interno cambian durante el proceso. Esto
puede deberse a múltiples motivos:
Si no se tiene en cuenta esta realidad cambiante, es muy probable que se generen retrasos o
no se pueda llegar a completar el proyecto, debido a un estancamiento en la toma de
decisiones. Los resultados de cualquier iniciativa de datos son un objetivo en movimiento y
no pueden ser tratados como un proyecto de IT . La dirección, los consumidores de
información y los especialistas en BI deben asumir que, una vez dado el paso, la alineación
del consumo de información con la estrategia corporativa es un trabajo constante que
requiere de una inversión constante.
Solución
En primer lugar, es imprescindible que los responsables de los departamentos, así como los
usuarios finales de la tecnología implementada conozcan el potencial de la misma y puedan
solicitar las prestaciones adecuadas.
No obstante, ni siquiera la más cl ara de las explicaciones técnicas puede evitar un cambio de
parecer durante el proceso de implantación. Es por ello que también deben utilizarse
metodologías de desarrollo ágil, las cuales garanticen la realización de las diversas fases del
proyecto, impidiendo la interrupción en momento críticos.
A menudo se tiene la errónea creencia de que las herramientas de Business intelligence son
capaces de recibir y asimilar cualquier tipo de datos provenientes de los sistemas de IT, y
transformarlos directamente en informes y conclusiones útiles. Desgraciadamente, el proceso
no es tan sencillo.
De acuerdo con Forrester, el 64% de los tomadores de decisiones de las empresas tienen
dificultades para extraer conclusiones de sus cuadros de mando.
Solución
La realidad se caracteriza por una multiplicidad de fuentes y formatos distintos, los cuales
requieren de un previo formateo y almacenamiento o, más concretamente, un proceso de
extracción, transformación y carga, denominado ETL.
Sin embargo, uno de los grandes desafíos a la hora de implantar una solución de Business
intelligence es, precisamente, lograr que los usuarios de la misma la utilicen.
Las cifras publicadas por BI Scorecard indican que la adopción de este tipo de tecnologías por
parte de los empleados se mantiene en torno al 22%. En aquellos casos en los que se han
adoptado soluciones móviles, el nivel de adopción alcanza el 42%.
Solución
Sin embargo, son frecuentes los casos en los que la toma de decisiones por parte de las
organizaciones se ve ralentizada debido a impedimentos técnicos, ya sea por imposiciones
desde el departamento de IT o por las propias limitaciones de la herramienta escogida.
Solución
Es necesario que cada organización cuente con un interlocutor capaz de comunicar de forma
práctica y coherente al departamento de IT con el resto de departamentos. En determinadas
organizaciones se implementa un equipo transversal (BICC 1) que contiene personal de todas
las áreas y facilita la comunicación entre IT y negocio. Ya hemos visto el rol de estos equipos
la semana pasada, en el capítulo “El cambiante rol de un departamento de BI”.
Solución
Los líderes de las iniciativas de BI deben buscar apoyos entre personas que crean en la
transparencia y en resultados basados en hechos y, sobre todo, tener la capacidad de influir
con su visión en el transcurso del proyecto hasta llegar a cambiar la cultura.
Las herramientas de BI aún no son – por lo menos no del todo – una commodity, por lo que
los propios fabricantes aún no ofrecen una solución adecuada para todos los tipos de
necesidad, sino que se centran en un aspecto concreto del análisis y apuestan por hacerlo
mejor que la competencia. Esto hace que una organización, de momento, siempre tenga que
estar atenta a los cambios en el mercado y en la oferta, de manera que se pueda garantizar
que la información es conveniente explotada por su personal.
Solución
La dirección decide con frecuencia optar por un aparente ahorro de costes externalizando los
esfuerzos que no se consideran estratégicos de las iniciativas de business Intelligence. El
centrar la ejecución de estas iniciativas teniendo demasiado en cuenta sólo los costes, resulta
inevitablemente en sistemas inflexibles y pobremente diseñados. Y, adicionalmente, supone
una pérdida de conocimiento de alto valor cuando la colaboración con el externo finaliza.
Solución
La externalización sólo debe ser llevada a cabo en trabajos que no sean pertenecientes al
negocio de la compañía. La dirección debe ver la información como parte del negocio, puesto
que, en ella se basan las decisiones que afectan al mismo. Perder el control – y parte de la
dirección – de la ejecución de estas iniciativas deriva en resultados no deseados.
Solución
A menudo, para eliminar la disparidad de cifras obtenidas cuando se realiza la misma pregunta
a diferentes áreas, se opta por una definición que puede no estar consensuada con todas las
áreas. Aún siendo la cifra “oficial”, puede no resultar de utilizar para gestionar alguna de las
áreas, con lo que continuarán utilizando “su versión” de la realidad desechando l a oficial.
Solución
Hacer participantes a todas las áreas en la definición de las cifras oficiales y poner a
disposición de todas, “los complementos” que les permitan tomar las decisiones adecuadas
para gestionar con garantías.
Tal como hemos visto en capítulos anteriores, una planificación alineada con la estrategia
corporativa es necesaria para que todas las áreas sepan qué se está haciendo, dónde
tienen/pueden participar y los beneficios que obtendrán de cada iniciativa. La ausencia se
esta estrategia pone las iniciativas de BI en modo “reactivo”, convirtiendo a los equipos de
analistas en cuellos de botella permanentemente carentes de recursos. Adicionalmente, y
cuando se trata de obtener la participación de un área de negocio, no tienen tiempo para
dedicar puesto que “no lo tenían previsto” o “sus prioridades son diferentes”, con lo que la
tan necesaria colaboración transversal se ve comprometida.
Solución
Machine learning debe ser empleado para incidir y mejorar puntos dolorosos en la
organización. Una vez que el primer caso ha sido resuelto con éxito, más ideas empezarán a
Vuelve a surgir aquí la calidad de la información. En este caso, la compañía, que es consciente
de los problemas analíticos que pueden surgir si la base de datos no está perfecta, comienza
a trabajar en la reparación, compilación, integración y estructuración automatizada de la
información. Comienzan a acometerse acciones para solucionar el problema de los géneros
en la base de datos, el problema de las direcciones postales, o lo que se detecte. Estas
acciones no suelen estar contempladas dentro del proyecto d e machine learning y provocan
retrasos en el mismo.
No se quiere decir que la calidad de los datos en los orígenes deba ser obviada porque el data
scientist puede corregirla. Lo que se trata de transmitir es que el data scientist puede
seleccionar exactamente el conjunto de datos que necesita para modelar u n aspecto del
negocio y aplicar las correcciones adecuadas, lo que difiere de atacar la calidad del sistema
de información al completo.
En el otro extremo están las organizaciones que asumen que la calidad de sus bases de datos
es perfecta. Las bases de datos perfectas son tan comunes como los unicornios, es decir, no
existen. Y perder de vista este aspecto puede producir que se infraestime el esfuerzo
necesario de auditoría, limpieza y corrección necesario consiguiendo resultados cuya calidad
sólo es acorde a los datos utilizados.
Otras veces, la compañía asume que la principal capacitación que se necesita es la adquisición
de una herramienta sofistica y popular (¿será popular p or algo, no?) obviando que la
capacitación debe estar en las personas y que, estas pueden producir los mismos resultados
con dicha herramienta u otras. Esto provoca que o bien las iniciativas sean demasiado
costosas en relación al beneficio, con lo que se descartan, o bien las iniciativas nunca son
puestas en marcha porque se carece del personal adecuado que sepa manejar la herramienta.
Las cifras tienen una característica que es al mismo tiempo su ventaja y su desventaja y es
que son frías. No tienen emociones, no hacen distinciones. Al carecer del factor humano,
Un modelo hecho con machine learning sólo es el comienzo de la iniciativa. Los resul tados
ofrecidos por el modelo deben ser automatizados, actualizados, integrados dentro de los
sistemas de información actuales de la compañía, y los usuarios formados en su uso. Estas
tareas suelen ser más laboriosas que la elaboración del propio modelo, c on lo que no es raro
que sean las que consumen más de la mitad del tiempo y del presupuesto.
De manera frecuente, estas cuestiones surgen cuando la iniciativa está lanzada o incluso
comenzada, teniendo que replanificar los tiempos de puesta en marcha, prov ocando
aparentes retrasos. O incluso, al volver a replanificar y “represupuestar” toda la iniciativa
para tener en cuenta estos aspectos y revisar los nuevos tiempos y costes, la iniciativa es
cancelada.
Pongamos un caso: un conocido laboratorio farmacéutico lanzó hace varios años una iniciativa
de data mining para optimizar la visita médica. Con ella, trataba de ahorrarle a la red visitas
infructuosas a los médicos porque o bien el volumen de prescripción no iba a ser suficiente
para amortizar la visita y los incentivos o bien las probabilidades de que el facultativo
cambiara de marca prescrita eran muy bajas. Esperaban obtener una mejora en el rendimiento
de la inversión comercial de aproximadamente un 10%. Desarrollaron un sistema de
calificación en 5 tramos basado en más de 50 variables diferentes, muchas de las cuales
habían sido aportadas por la propia red de visitadores. Se hizo todo correctamente, se puso
un objetivo claro, se calculó un beneficio esperado, se asignaron recursos bien
dimensionados, se planificó de manera realista y se desplegó sin incidencias.
Pero cuando los visitadores recibieron los nuevos listados de facultativos con la nueva
calificación, sólo sabían quién era “bueno” y quién “malo” pero no “por qué” y, por tanto,
tampoco qué argumentario utilizar con el facultativo. Adicionalmente, la red tampoco
entendió que dicha categorización no era infalible y que podía suceder que un médico
calificado como “bueno” realmente podía no aceptar prescribir o al contrario. Cuando
identificaron que la categorización no era falible perdieron la confianza en la misma y esto,
unido a la dificultad para usarla hizo que dejaran de tener en consideración la ayuda que el
sistema recién desplegado les prestaba.
Otro ejemplo:
El director general de la empresa lleva semanas muy preocupado por las bajas de clientes que
está experimentando la compañía. Los analistas de datos le han dado varios insights
describiendo posibles causas y perfiles, pero no le sirve de nada saber quiénes era los que se
dieron de baja, porque ya se dieron de baja y no hay nada que hacer con ellos.
Lo que este director quiere es anticipar la decisión de baja del cliente para poder actuar antes
de que se produzca la misma. Contrata una empresa colaboradora q ue desarrolla un modelo
Llegamos a este punto, el director se enfrenta a una difícil decisión: no sabe el mensaje que
tiene que poner en campañas preventivas a los clientes propensos y tampoco sabe qué
ocasiona la decisión de baja por lo que no sabe qué debe mejorar para evitarlo. Lo que sí sabe
es quién se va a dar de baja.
Este punto, es donde muchas iniciativas de datos “mueren” ante s de llegar a operativizarse.
La caja negra alrededor de lo que el algoritmo hace y por qué lo hace, impide la actuación
correctora o potenciadora. No se sabe el por qué, sólo el qué.
Supongamos que el director decide seguir adelante con la iniciativa y po ner la probabilidad
obtenida en el CRM para que el call center tenga presente quién tiene riesgo de darse de baja
y puedan actuar en consecuencia.
Bien, por lo que parece, precisión y transparencia están reñidos. Efectivamente, así es.
Precisión significa complejidad y complejid ad significa capacitación para entender. Por tanto,
transparencia significa sencillez. Y sencillez significa poca precisión.
Es obvio que si la iniciativa de datos muere en algún punto intermedio antes de llegar a
operativizarse habrá supuesto un coste para la compañía sin retorno ninguno. Visto así, ¿qué
es preferible? ¿comenzar con algo operativizable y medianamente preciso? ¿o hacer un
esfuerzo extra para que la caja negra sea explicable?
Esta pregunta no tiene más que una respuesta subjetiva, basada en la experiencia de esta
humilde servidora. Mi recomendación es orientarnos por el segundo punto: hacer algo preciso
y, por otro lado, hacer algo interpretable. Esta opción, en ocasiones, supone “trabajar dos
veces”, una para producir reglas que puedan utilizarse para controlar la acción de la compañía
y otra para producir un resultado que permita activar las alertas que lanzan dichas acciones.
• Si los resultados y la eficacia son tibios, se pone en cuestión el retorno de la inver sión.
• Si los resultados son buenos, la compañía se convierte en “ believer”.
• Los resultados son fáciles de operativizar.
• La adoptación es sencilla y poco problemática.
• Se han obtenido reglas e insights que la compañía puede aprovechar para otras
iniciativas.
El principio KISS 4 es muy adecuado cuando de iniciativas de datos se trata. Cuanto más simple,
más interpretable pero menos valioso y, al contrario. C onseguir encontrar el equilibrio puede
suponer la diferencia entre el éxito o el fracaso de la iniciativa en sentidos de conseguir
llevarla a término.
Conclusión
No todas las trampas están aquí enumeradas pero sí las más frecuentes, recopiladas desde
alguna bibliografía, la experiencia ajena y la experiencia propia de muchos años.
El uso de la información tiene una última trampa que hace que las iniciativas de datos sean
radicalmente diferentes de cualquier otro proyecto y es que nunca se sabe qué se va a obtener
hasta que se obtiene. Esta es su razón de ser y al mismo tiempo su principal riesgo.
4 El principio KISS (del inglés, Keep It Simple, Stupid!) es un acrónimo usado como principio de diseño.
El principio KISS establece que la mayoría de sistemas funcionan mejor si se mantienen simples que si se hacen
complejos; por ello, la simplicidad debe ser mantenida como un objetivo clave del diseño, y cualquier
complejidad innecesaria debe ser evitada.