Está en la página 1de 73

CAPÍTULO

CUATRO

COMPETIR EN ANALÍTICA CON


PROCESOS INTERNOS
APLICACIONES FINANCIERAS, M&A,
OPERACIONES, I+D Y RECURSOS HUMANOS

Los análisis se pueden aplicar a muchos procesos comerciales para obtener


una ventaja competitiva. Hemos dividido el mundo del soporte analítico para
procesos de negocio en dos categorías: interno y externo.Capítulo 5 abordará
las aplicaciones externas (procesos impulsados por el cliente y el proveedor) y
este se centrará en las aplicaciones internas (consultefigura 4-1). No siempre
es una distinción perfectamente clara; en este capítulo, por ejemplo, las
aplicaciones internas a veces involucran datos y entidades externas, aunque no
se traten principalmente de oferta y demanda, clientes o cadenas de
suministro. Pero el enfoque aquí está en funciones internas tales como
administración general, finanzas y contabilidad, operaciones, investigación y
desarrollo y administración de recursos humanos. Estas son, de hecho, las
primeras aplicaciones de "apoyo a la toma de decisiones". La intención
original era que estos datos y estos sistemas se usaran para administrar el
negocio internamente. Solo más recientemente se han aplicado al trabajo con
clientes y proveedores, ya que las empresas han acumulado mejores datos
sobre el mundo exterior con el que interactúan.

FIGURA 4-1
Dominios de aplicación para análisis
El desafío, entonces, no es simplemente identificar aplicaciones internas
de análisis empresarial, sino encontrar algunas que sean claramente
estratégicas e impliquen una ventaja competitiva. Cualquier empresa, por
ejemplo, puede tener un cuadro de mando financiero u operativo, pero
¿cómo contribuye a una capacidad estratégica distintiva? Es más probable
que las aplicaciones relacionadas con el cliente sean estratégicas casi por
definición; las aplicaciones internas tienen que trabajar en ello para tener
un impacto estratégico. Deben conducir a mejoras medibles en el
desempeño financiero u operativo. En el cuadro "Técnicas analíticas
típicas para procesos internos", enumeramos algunos enfoques comunes.

TÉCNICAS ANALÍTICAS TÍPICAS


PARA PROCESOS INTERNOS
Costeo basado en actividades (ABC).El primer paso en la
gestión basada en actividades es asignar costos con precisión a
aspectos del negocio como clientes, procesos o canales de
distribución; los modelos que incorporan actividades,
materiales, recursos y componentes de oferta de productos
permiten la optimización basada en el costo y la predicción de
las necesidades de capacidad.
Inferencia bayesiana(por ejemplo, para predecir los
ingresos). Una estimación numérica del grado de creencia en
una hipótesis antes y después de que se haya observado la
evidencia.
optimización combinatoria(por ejemplo, para optimizar una
cartera de productos). La asignación eficiente de recursos
limitados para producir la mejor solución a objetivos
particulares cuando los valores de algunas o todas las variables
(por ejemplo, un número determinado de personas) deben ser
números enteros (porque las personas no se pueden dividir en
fracciones) y hay muchas combinaciones posibles. También
llamada programación entera.
Análisis de restricciones(por ejemplo, para la configuración del
producto). El uso de uno o más algoritmos de satisfacción de
restricciones para especificar el conjunto de soluciones factibles.
Las restricciones se programan en reglas o procedimientos que
producen soluciones a problemas particulares de configuración
y diseño utilizando uno o más algoritmos de satisfacción de
restricciones.
Diseño experimental(por ejemplo, para el análisis de sitios
web). En el tipo de experimento más simple, los participantes
se asignan aleatoriamente a dos grupos que son equivalentes
entre sí. Un grupo (el grupo del programa o de tratamiento)
recibe el programa y el otro grupo (el grupo de comparación o
de control) no. Si el programa genera diferencias
estadísticamente significativas en la variable de resultado, se
supone que tiene el efecto hipotético.
Análisis de valor futuro.La descomposición de la
capitalización de mercado en valor actual (extrapolación
de rendimientos monetarios existentes) y valor futuro, o
expectativas de crecimiento futuro.
Algoritmos genéticos(p. ej., para descifrar/descifrar códigos o
ingeniería/diseño de productos). Una clase de modelos de
optimización estocástica y técnicas de búsqueda heurística que
utilizan principios que se encuentran en la evolución y la selección
natural. Particularmente útil cuando existe una gran cantidad de
variables y restricciones complejas. Los ejemplos externos
incluyen: programación de comunicaciones satelitales, carga
óptima de contenedores de carga y optimización de rutas de
entrega.
simulación del Monte Carlo(por ejemplo, para la valoración de
proyectos de I+D). Una técnica computarizada utilizada para
evaluar la probabilidad de ciertos
resultados o riesgos modelando matemáticamente un
evento hipotético en múltiples ensayos y comparando el
resultado con distribuciones de probabilidad predefinidas.
Análisis de regresión multiple(por ejemplo, para determinar
cómo los factores no financieros afectan el desempeño
financiero). Técnica estadística mediante la cual se determina la
influencia de un conjunto de variables independientes sobre una
sola variable dependiente.
Análisis de redes neuronales(por ejemplo, para predecir el
mantenimiento necesario de la fábrica). Sistemas modelados sobre
la estructura y operación del cerebro, en los cuales el estado del
sistema es modificado por entrenamiento hasta que pueda
discriminar entre las clases de entradas; utilizado en grandes bases
de datos. Por lo general, una red neuronal se "entrena"
inicialmente o se alimenta con grandes cantidades de datos y
reglas sobre las relaciones de datos; por ejemplo, "Un abuelo es
mayor que el padre de una persona".
Simulación(por ejemplo, en investigación farmacéutica “in
silico”). Manipulación de parámetros usando matemáticas y/o
bases de reglas para modelar cómo diferentes valores
generarían un resultado. El resultado simulado se puede utilizar
para obtener una salida óptima o para predecir un determinado
comportamiento. Los investigadores farmacéuticos podrían
usar la biosimulación para estudiar cómo las células u otras
entidades vivas reaccionan a las intervenciones químicas o de
otro tipo.
Analisis textual(por ejemplo, para evaluar el rendimiento del
centro de llamadas o extraer datos de Twitter para conocer la
opinión del cliente). Análisis de la frecuencia, relaciones
semánticas e importancia relativa de términos, frases y
documentos particulares en texto en línea.
Análisis de rendimiento(por ejemplo, en la fabricación de
semiconductores). Emplear estadísticas básicas (media,
mediana, desviación estándar, etc.) para comprender el volumen
y la calidad del rendimiento, y para comparar un lote de
artículos con otro, a menudo mostrado visualmente.

Análisis financiero
A pesar de ser un campo cuantitativo por naturaleza, las finanzas han
seguido a otras funciones como marketing, cadena de suministro,
operaciones e incluso recursos humanos en el empleo de análisis
avanzados para tomar decisiones clave. Por lo general, se considera que los
directores financieros (CFO, por sus siglas en inglés) son la "gente de los
números" en sus organizaciones. A menudo son defensores articulados del
uso de análisis predictivo y prescriptivo para la toma de decisiones, pero
generalmente cuando se trata de algún otro departamento.
Los grupos financieros, naturalmente, han utilizado durante mucho tiempo
informes, tableros y cuadros de mando, y consultas en línea en el curso de su
trabajo. El problema es que estas aplicaciones de análisis descriptivo no le
dicen nada al usuario sobre los patrones subyacentes en los números y solo
describen el pasado. Los profesionales de finanzas pueden experimentar con
un modelo de regresión ocasional en Excel, pero es bastante raro que la
función de finanzas convierta el análisis avanzado en una capacidad central, al
mismo nivel que los informes externos o el proceso de cierre.
Seguimos siendo optimistas de que esta situación está empezando a
cambiar. A medida que los CFO se sientan más cómodos con el uso de
modelos analíticos en el resto del negocio, esperamos que se implementen
más aplicaciones analíticas innovadoras en finanzas. En Intel, por ejemplo,
un pequeño número de profesionales financieros comenzó a abogar por un
mayor uso de análisis hace tres años. Le presentaron al equipo senior de
finanzas la idea de desarrollar una competencia generalizada en análisis
avanzado y la reacción fue positiva. Una de las primeras iniciativas fue
comparar las capacidades de análisis financiero de Intel con las de las
empresas líderes en el área, e Intel descubrió que algunas empresas en
línea o centradas en la tecnología en Silicon Valley (muchas de las cuales
tienen fuertes orientaciones analíticas en general) tenían capacidades más
avanzadas que tenido. Intel inició varias iniciativas específicas en el área
de pronósticos, incluidos pronósticos estadísticos de ingresos y niveles de
inventario, y predicción de deterioros en las inversiones de Intel Capital.
La función de finanzas de Intel también se ha embarcado en un amplio
esfuerzo para educar a los profesionales y gerentes de finanzas sobre
temas de análisis avanzado y también está planificando programas de
certificación para ellos.
Dada la cantidad de datos disponibles para las funciones de finanzas y el
nivel de conocimiento que se puede lograr, parece inevitable que el uso de
análisis avanzados por parte de las finanzas sea más frecuente. En las
siguientes páginas, ofrecemos algunos ejemplos de aplicaciones financieras
analíticas, ya que, por supuesto, tienen el vínculo más directo con el
desempeño financiero. Hay varios
categorías de aplicaciones de análisis financiero, incluidos los informes
externos, la gestión del rendimiento empresarial (informes de gestión y
cuadros de mando), la gestión de costes y la gestión de riesgos.

Reporte Externo a Organismos Reguladores y Accionistas


La presentación de informes externos no conduce a una ventaja competitiva
en condiciones de “negocios como siempre”. Normalmente, no es una
ventaja informar con mayor rapidez y precisión más allá de cierto nivel.
Cisco Systems, por ejemplo, ha promocionado a lo largo de los años su
capacidad para cerrar los libros de manera instantánea y reportar sus
resultados casi inmediatamente al final de un período financiero. Pero a
menudo nos preguntábamos por qué la empresa se molestaba; la SEC no
exige cierres instantáneos y no está claro qué más podría hacer una
empresa con los resultados financieros destinados al consumo externo. Pero
es una historia diferente con la información utilizada por los gerentes para
tomar mejores decisiones estratégicas, de inversión y operativas.
Los informes y cuadros de mando, tanto financieros como operativos,
son algunas de las aplicaciones más comunes de inteligencia empresarial y
apoyo a la toma de decisiones. Obviamente, son importantes para
administrar cualquier negocio, y son cada vez más importantes (con el
advenimiento de la legislación Sarbanes-Oxley, por ejemplo) para
mantener a los altos ejecutivos fuera de la cárcel. Si bien las organizaciones
no compiten sobre la base de sus informes y cuadros de mando, contar con
sistemas para monitorear el progreso con respecto a las métricas operativas
clave y monitorear el progreso con respecto al plan es fundamental para la
ejecución de la estrategia.
Los nuevos requisitos de datos reglamentarios pueden convertirse en una
oportunidad para crear una rica fuente de datos para mejorar el rendimiento.
Por ejemplo, las compañías farmacéuticas interactúan habitualmente con
profesionales de la salud tanto como clientes como consultores, investigadores
y oradores de marketing. Debido al potencial de un conflicto de intereses, más
de cuarenta países han promulgado regulaciones "antisoborno" que exigen
transparencia en estas relaciones. Como resultado, las empresas deben agregar
todos los datos de gastos de los médicos en una sola ubicación para que se
puedan informar adecuadamente a la jurisdicción correcta. Según Everest
Group, “La industria ve la mayor supervisión regulatoria como una carga. Sin
embargo, los requisitos reglamentarios están sentando las bases para los
requisitos de datos que se pueden utilizar para impulsar el análisis de las
ciencias biológicas y farmacéuticas.
1
aprovechando esta oportunidad”. El fabricante de dispositivos médicos
Zimmer Biomet, por ejemplo, utiliza los paneles analíticos y de datos de
MediSpend para monitorear el cumplimiento de las leyes de cumplimiento
global. Pero también aprovecha los datos para crear nuevos modelos
comerciales que impulsan el desarrollo de dispositivos y medicamentos.
Como argumentamos enCapítulo 1, las actividades de presentación de
informes normalmente no han hecho un uso extensivo de los análisis,
pero hay excepciones. Uno es la predicción del rendimiento futuro.
Las empresas públicas tienen que hacer predicciones periódicas del
rendimiento futuro para inversores y analistas. Las consecuencias de las
malas predicciones pueden ser dramáticas; los inversores pueden castigar
severamente a las empresas que no “cumplen con sus números”. La
mayoría de las empresas realizan extrapolaciones directas de los resultados
de períodos anteriores a períodos posteriores. Sin embargo, en ciertas
industrias con un alto grado de cambio e incertidumbre, las extrapolaciones
pueden ser problemáticas y generar predicciones deficientes.
La industria de la tecnología de la información es una de esas industrias
inciertas. Los productos y los deseos de los clientes cambian rápidamente y
se producen volúmenes de ventas desproporcionados al final de los períodos
de informe. Hewlett-Packard descubrió que era muy difícil hacer
predicciones precisas de los ingresos en un entorno así, y en un trimestre de
2001 tuvo un ingreso "casi desastroso".
2
error de pronóstico de crecimiento del 12 por ciento. Los ejecutivos de
Hewlett-Packard decidieron poner a algunos de sus investigadores
cuantitativos en HP Labs en el problema de crear pronósticos de ingresos
más precisos.
Los investigadores utilizaron un enfoque de inferencia bayesiano (consulte
la definición en el recuadro anterior en este capítulo) para predecir los
ingresos mensuales y trimestrales a partir de los datos hasta el momento en el
período. Después de varios ajustes, el algoritmo arrojó predicciones de
ingresos significativamente mejores que el enfoque más sencillo utilizado
anteriormente. Hewlett-Packard incorporó el nuevo algoritmo en su tablero
de informes de desempeño, y el (entonces) CFO de la compañía, Bob
Wayman, señaló: “Es tranquilizador tener un algoritmo de proyección sólido.
Es más nítido y limpio, tiene rigor y metodología a diferencia de la mía.
3
algoritmo."
Una mejor predicción del rendimiento futuro desde un punto de vista
operativo también permite a las empresas actuar antes. Usando datos
operativos “casi en tiempo real”, los gerentes pueden identificar
rápidamente las tendencias emergentes, hacer predicciones y tomar medidas
inmediatas. Por ejemplo, durante la última recesión,
Los ejecutivos de Dell utilizaron modelos predictivos para reconocer
meses antes que sus competidores cuán profundamente se iban a debilitar
las ventas. Tomaron medidas preventivas sobre los precios y los
productos, lo que resultó en un mejor (o al menos, menos terrible)
desempeño financiero durante la recesión. Más importante aún, cuando
terminó la recesión, pudieron ajustarse nuevamente para aumentar su
participación de mercado.

Cuadros de mando y gestión del rendimiento empresarial


Otra excepción a las aplicaciones de informes financieros que involucran
análisis es cuando las empresas intentan explicar el desempeño financiero a
partir de factores no financieros. Una iniciativa exitosa de gestión del
desempeño empresarial requiere que las empresas no solo predigan el
desempeño con precisión, sino también que se enfrenten a algunas
preguntas más amplias: ¿Qué actividades tienen el mayor impacto en el
desempeño comercial? ¿Cómo sabemos si estamos ejecutando en contra de
nuestra estrategia? Una organización necesita una visión cuantificable de
los factores operativos que contribuyen a los resultados comerciales y una
forma de medir el progreso con respecto a ellos.
Durante la última década más o menos, el mayor avance en los informes de
gestión ha sido el cambio de TI que entrega informes estructurados o cuadros
de mando bastante estáticos a brindar a los gerentes un acceso sin precedentes
a los datos empresariales. Los trabajadores y gerentes de la información
pueden acceder y explorar información financiera y operativa de toda la
organización utilizando aplicaciones de inteligencia comercial que incorporan
alertas, paneles de administración, filtros dinámicos y herramientas de
visualización de datos. Como las herramientas analíticas incorporan
tecnologías de inteligencia artificial como la generación de lenguaje natural,
también pueden ayudar a los gerentes a comprender e interpretar los datos. Por
ejemplo, Credit Suisse integró Quill (una plataforma avanzada de generación
de lenguaje natural de Narrative Science) en HOLT, su plataforma de análisis
de datos de inversión. Credit Suisse analiza datos de propiedad y de mercado
para producir informes de investigación de inversiones que evalúan las
expectativas, el potencial y el riesgo de la empresa para ayudar a los analistas,
banqueros e inversores a tomar decisiones de inversión a largo plazo. Credit
Suisse ha logrado una cobertura total de analistas en las cinco mil empresas
perfiladas dentro de su plataforma, aumentando la cantidad de empresas que
analiza Credit Suisse en más del 300 por ciento. Dado que los analistas de
inversiones ya no necesitan redactar informes resumidos por sí mismos,
aumentando el número de empresas que analiza Credit Suisse en más de un
300 por ciento. Dado que los analistas de inversiones ya no necesitan redactar
informes resumidos por sí mismos, aumentando el número de empresas que
analiza Credit Suisse en más de un 300 por ciento. Dado que los analistas de
inversiones ya no necesitan redactar informes resumidos por sí mismos,
pueden concentrarse más en sus clientes y en realizar análisis más
sofisticados.
Estos sistemas de gestión del desempeño informan no solo sobre el
desempeño financiero, sino también sobre dominios no financieros como
las relaciones con los clientes, el aprendizaje y la innovación de los
empleados y las operaciones. Estos han sido un gran paso adelante en la
comprensión del rendimiento. Pero demasiados adoptantes de cuadros de
mando integral todavía no están muy equilibrados y se centran
principalmente en la información financiera. Es genial agregar métricas no
financieras a un cuadro de mando, pero si a los inversionistas y
reguladores realmente no les importan, es natural enfatizar los números
financieros.
Otro problema con la mayoría de los tableros es que incluso cuando las
empresas incluyen medidas tanto financieras como no financieras, no las
relacionan entre sí. Los profesores de administración David Larcker y
Chris Ittner estudiaron
4
varias empresas que habían adoptado cuadros de mando integrales.
Ninguna de las empresas que examinaron tenía modelos causales que
relacionaran el desempeño no financiero con el financiero.
Los recursos no financieros o intangibles (como el capital de
conocimientos humanos, la marca y la capacidad de I+D) están adquiriendo
una importancia cada vez mayor tanto para la empresa
5
rendimiento empresarial y percepciones externas del valor de la empresa.
Incluso los estudios más favorables solo muestran un poder explicativo de
aproximadamente el 50 por ciento del efecto de las medidas financieras como
las ganancias por acción, la utilidad neta, la utilidad económica o el
rendimiento del capital invertido en el mercado de una empresa.
6
valor. En algunas industrias, EPS representa menos del 5 por ciento del
valor. Creemos que un equipo directivo que gestiona todas sus fuentes de
valor, tangibles e intangibles, actuales y futuras, tiene una ventaja
significativa sobre aquellos que no lo hacen.
Algunas empresas están trabajando para desarrollar una comprensión
holística de los impulsores de valor tanto financieros como no financieros.
Algunas empresas en la frontera son
7
tratando de administrar su valor actual y futuro para los accionistas. Estas
organizaciones están explorando cómo infundir sus cuadros de mando con
datos de analistas de Wall Street y análisis de valor futuro para obtener una
mejor comprensión de las implicaciones de las decisiones sobre el valor de
los accionistas. Las empresas que desarrollen tal capacidad podrían estar
bien encaminadas hacia una ventaja competitiva.
Es más probable que los informes y los cuadros de mando conduzcan a
una ventaja competitiva cuando el entorno empresarial está cambiando
drásticamente. En esas circunstancias, es particularmente importante
monitorear nuevas formas de desempeño. Deben desarrollarse nuevas
medidas, deben crearse nuevos modelos de desempeño y deben surgir
nuevos comportamientos de gestión. La velocidad y la eficacia de la
transformación organizacional en tales períodos ciertamente pueden ser o
conducir a una ventaja competitiva. Por ejemplo, una compañía de seguros
de propiedad y accidentes con la que trabajamos necesitaba transformarse.
Tuvo un desempeño financiero pobre, con pérdidas en los últimos cuatro
años de más de mil millones de dólares. Pagó $1.40 en reclamos y gastos
por cada dólar de prima que recibió. La compañía había monitoreado sus
resultados financieros,
Como parte de una importante transformación corporativa, la empresa se
centró en tres procesos clave: relaciones con los productores (agente),
suscripción rentable y ejecución de siniestros. Además de rediseñar esos
procesos, la empresa creó nuevas medidas de ellos y las recopiló en un
cuadro de mando integral. El cuadro de mando sirvió como un medio para
comunicar rápidamente el rendimiento y los cambios en los procesos, y el
éxito de la iniciativa de cambio en general, al equipo de gestión. El cuadro
de mando evaluó la capacidad de la empresa para cumplir objetivos tales
como:
Seleccionar nuevos mercados rentables para ingresar
Atraer y seleccionar a los clientes adecuados
Conducción de precios de acuerdo con el riesgo
Reducir la gravedad de los siniestros

Se cambiaron los sistemas de recompensas para empleados y gerentes en


todos los niveles de la empresa para vincularlos al desempeño de estos
objetivos. Algunos análisis automatizados se integraron en los sistemas de
suscripción para acelerar el proceso y mejorar la calidad de las decisiones
de fijación de precios.
La compañía usó estos cambios de proceso y enfoques de informes para
cambiar radicalmente. Comenzó a obtener cantidades sustanciales de
ganancias y finalmente fue adquirida por otra compañía de seguros por $
3.5 mil millones, quizás por encima del valor cero de unos años antes.
Manejo de costos
Aunque algunos podrían cuestionar si la gestión de costos puede conducir a
una ventaja competitiva, todavía hay algunos ejemplos de organizaciones que
han hecho del análisis y la gestión de costos efectivos una capacidad
estratégica.
En el cuidado de la salud (al menos en los Estados Unidos), pocos
hospitales conocen los costos de tratar a los pacientes y, por lo tanto, rara
vez pueden controlarlos. Una excepción es University of Utah Healthcare,
que incluye cuatro centros médicos académicos y una variedad de clínicas
y centros en el área de Salt Lake City. UUHC se embarcó en un esfuerzo de
varios años para medir con precisión sus costos. El proyecto, denominado
Resultados impulsados por el valor (VDO), utilizó un enfoque de costeo
basado en actividades. VDO integra por completo todos los datos
disponibles sobre el encuentro con un paciente para proporcionar una
visión completa e integral de la atención de los pacientes. UUHC comenzó
desarrollando datos precisos de contabilidad de costos utilizando los costos
reales de adquisición de cada artículo utilizado en cada encuentro con el
paciente. Luego se emplearon métodos integrales de utilización para
asignar todos los costos a cada encuentro con el paciente.
Entonces, el hospital pudo aplicar métodos estadísticos para responder
preguntas obvias, pero antes imposibles de responder, como: ¿Cuál es el
costo de la mala calidad? ¿Dónde hay una variación significativa en el
costo o la calidad entre los médicos? ¿Dónde está la atención al paciente
sobreutilizando laboratorios o imágenes donde no hay calidad o valor
adicional como resultado?
UUHC también involucró a sus médicos en el desarrollo y uso de las
herramientas de análisis y datos de VDO. Desarrollaron herramientas de
análisis descriptivo de autoservicio con orientación médica, incluida la
retroalimentación continua para garantizar que lo que se estaba
desarrollando satisficiera sus necesidades y respondiera sus preguntas. Los
resultados son impresionantes: mientras que los costos en otros centros
médicos académicos en el área han aumentado un promedio anual de 2,9
durante los últimos años, los UUHC han disminuido un 0,5 por ciento
anual.
Los costos de energía son otro recurso costoso para muchas
organizaciones. El campus corporativo de quinientas hectáreas de Microsoft
en Redmond, Washington, contiene 14,9 millones de pies cuadrados de
espacio para oficinas y laboratorios. Buscando ahorrar energía y reducir los
costos de servicios públicos y mantenimiento, la empresa consideró
invirtiendo más de $ 60 millones para actualizar sus redes incompatibles de
equipos y más de treinta mil sensores. Darrell Smith, director de Instalaciones
y Energía, quería evitar un proyecto de construcción y reemplazo disruptivo y
costoso. Además, el equipo de Microsoft estaba preocupado por el
desplazamiento de empleados y la consiguiente pérdida de productividad.
Entonces, en lugar de eso, Smith y su equipo desarrollaron una “manta
analítica” para conectar y entretejer los diversos sistemas utilizados para
administrar los edificios del campus. La capa analítica permitió al equipo unir
datos de miles de sensores en los edificios, así como en equipos como HVAC,
ventiladores y sistemas de iluminación. Pronto acumularon miles de millones
de puntos de datos cada semana. Microsoft describe los beneficios de esta
manera:
Esos datos le han brindado al equipo conocimientos profundos, han
permitido mejores diagnósticos y han permitido una toma de decisiones
mucho más inteligente. Una ejecución de prueba del programa en 13
edificios de Microsoft ha proporcionado resultados sorprendentes:
Microsoft no solo ha ahorrado energía y millones en costos de
mantenimiento y servicios públicos, sino que ahora la empresa está muy
consciente de la forma en que funcionan sus edificios. . . . No es poca
cosa, ya sea que un amortiguador esté atascado en el Edificio 75 o una
válvula tenga una fuga en Studio H, que los ingenieros ahora pueden
detectar (y, a menudo, solucionar con unos pocos clics) incluso los
problemas más pequeños desde su tablero de alta tecnología en sus
escritorios. . . en lugar de tener que subirse a un camión para ir
8
encontrar y solucionar el problema en persona.
Por ejemplo, en un garaje, los ventiladores de escape habían estado
funcionando continuamente durante un año (lo que resultó en $66,000 de
energía desperdiciada). Momentos después de conectarse, la solución de
edificios inteligentes detectó el error y se corrigió el problema. El software
también informó a los ingenieros sobre un problema de presurización en un
sistema de agua fría en otro edificio. Le tomó menos de cinco minutos
solucionar el problema, lo que ahorró alrededor de $12,000 cada año.
El sistema también prioriza los problemas a solucionar. Los algoritmos
pueden equilibrar el costo de una solución en términos de dinero y energía
desperdiciados con otros factores, como el impacto que tendrá la solución
del problema en los empleados que trabajan en ese edificio. Por lo tanto, un
problema de menor costo en un laboratorio de investigación con
operaciones críticas puede tener mayor prioridad que una solución de
mayor costo que afecta directamente a unos pocos. Según Smith, casi la
mitad de los problemas que identifica el sistema se pueden corregir en
menos de un minuto.
Los ingenieros aprecian poder dedicar su tiempo a anticipar y prevenir
problemas y resolver problemas en lugar de recopilar datos y reaccionar
ante emergencias. “Solía pasar el 70 por ciento de mi tiempo reuniendo y
compilando datos y solo alrededor del 30 por ciento de mi tiempo haciendo
ingeniería”, señala el ingeniero de instalaciones Jonathan Grove. “Nuestro
trabajo de edificios inteligentes me proporciona datos en formatos
fácilmente consumibles, por lo que ahora paso el 95 por ciento de mi
tiempo haciendo ingeniería, lo cual es genial”.
Microsoft pronostica ahorros de energía de 6 a 10 por ciento por año. Y
a medida que cada nuevo algoritmo se pone en línea, la empresa
encuentra nuevas oportunidades para ahorrar energía. Por ejemplo, un
“nuevo algoritmo para detectar cuando el aire en un edificio determinado
se está sobreenfriando”, puede ahorrar quince minutos de aire
acondicionado por cada instancia detectada. El equipo parece estar seguro
de que se vislumbran ahorros aún mayores en energía y costos.

Gestión de riesgos
Identificar y minimizar el riesgo es una prioridad para toda organización.
Los administradores de riesgos han estado utilizando datos y herramientas
analíticas para hacer su trabajo durante muchos años. Los avances técnicos
recientes y los nuevos tipos de datos están revitalizando el uso de análisis
predictivos para mitigar el riesgo. Si bien los riesgos específicos varían
según la organización, dos de las áreas más activas han sido la detección de
fraude y la ciberseguridad.
Un desafío cada vez mayor para las empresas de servicios financieros es
proteger a sus clientes y a sí mismos contra reclamaciones o compras
fraudulentas. La Coalición Contra el Fraude de Seguros estima
conservadoramente que el fraude cuesta
9
aseguradoras $ 80 mil millones al año. Las empresas confían cada vez más
en sofisticados algoritmos de detección de fraudes para reconocer compras
fraudulentas con tarjetas de crédito en tiempo real. Las compañías de
tarjetas de crédito como Visa y American Express han estado utilizando
métodos analíticos avanzados durante años para identificar tarjetas de
crédito robadas y compras fraudulentas en tiempo real. Al combinar la
información de punto de venta, autorización y geolocalización con el
comportamiento de compra anterior, estas empresas están mejorando en la
identificación de comportamientos sospechosos y en alertar a los titulares
de tarjetas sobre posibles problemas.
Las aseguradoras también están contraatacando, utilizando análisis
predictivos para identificar dónde deben centrar su atención. Según Bill
Dibble, vicepresidente senior de operaciones de reclamos, Infinity
Property & Casualty:
Nos dimos cuenta de que las reclamaciones de seguros de automóviles se
podían calificar de la misma manera que las solicitudes de crédito al
consumidor, y que la tecnología podía mejorar significativamente ese
proceso al hacer inferencias específicas sobre el comportamiento. . .
Desarrollamos un proceso para asignar diferentes "puntuaciones" en las
probabilidades de fraude cuando los reclamantes informan por primera vez
un accidente. Mediante el uso de un motor de reglas que califica
automáticamente las reclamaciones en función de su probabilidad de
fraude, podríamos enviar las reclamaciones sospechosas a los
investigadores en uno o dos días para un análisis más profundo. Como
resultado del uso de esta tecnología, no solo hemos reducido el tiempo que
se tarda en identificar posibles reclamaciones fraudulentas en 24 horas,
sino que solía tardar entre 30 y
60 días, y hemos tenido más éxito en la detección de reclamos de
10
fraude”.
En otro ejemplo, Infinity analizó los informes de sus ajustadores antiguos
para desarrollar un nuevo algoritmo que resultó en $12 millones en
11
recuperación de subrogación.
Históricamente, los grupos de TI han sido mejores en la creación de
modelos predictivos para otras partes del negocio, pero han sido más lentos en
adoptar el análisis para administrar su propia función. Eso está cambiando a
medida que los desafíos de ciberseguridad proliferan y se vuelven más
desalentadores. La cantidad de amenazas para las grandes organizaciones está
creciendo rápidamente, al igual que la cantidad de piratas informáticos que las
crean y la cantidad de sistemas en riesgo de ataques cibernéticos. Las
violaciones de datos están aumentando, según un informe, en un 85 por ciento
al año, y en 2016, la mitad de
12
mil millones de registros personales fueron robados o perdidos.
Y con la proliferación de dispositivos conectados, no hay duda de que el
desafío de proteger los datos de una organización solo puede crecer. Los
procesos de ciberseguridad dentro de las empresas suelen ser reactivos a los
ataques y las infracciones; la investigación y las acciones se toman solo
después (a veces mucho después) de que ha ocurrido un problema. La
tecnología más utilizada para hacer frente a los ataques cibernéticos emplea
"firmas de amenazas" basadas en patrones de ataques anteriores. Por supuesto,
estos enfoques son de poco valor para prevenir nuevos tipos de ataques. Los
métodos analíticos predictivos desarrollados originalmente para detectar y
prevenir el fraude con tarjetas de crédito, una forma de detección de
anomalías, ahora se están implementando.
13
aplicado a comportamientos en ataques de ciberseguridad. Algunas
tecnologías cognitivas, incluido el aprendizaje profundo, también pueden
identificar anomalías en los patrones de transacción. Estos enfoques pueden
identificar anomalías emergentes mucho más rápido que el uso de firmas de
amenazas, y pueden identificar amenazas mucho antes y evitar ataques
importantes y pérdidas de datos antes de que ocurran. Dada la sensibilidad de
problemas de ciberseguridad, los humanos seguirán siendo necesarios para
confirmar e investigar las amenazas, particularmente cuando son internas.
Pero la cantidad de trabajo de investigación se puede reducir sustancialmente
a través del análisis. Hoy en día, las organizaciones de los sectores público y
privado utilizan análisis y, en menor grado, tecnologías cognitivas y
automatización para mejorar sus programas de ciberseguridad. No está claro
cuándo estarán completamente maduras estas capacidades técnicas, pero no
debería haber dudas sobre su necesidad y
14
la probabilidad de su adopción final.

Análisis de fusiones y adquisiciones


Históricamente, las fusiones y adquisiciones (M&A) no han sido el foco de
mucha actividad analítica, quizás con la excepción de los análisis
detallados de flujo de caja. Por lo general, se presta poca atención a los
análisis operativos que involucran la eficiencia de la cadena de suministro,
las reacciones previstas de los clientes y los impactos en los costos dentro
de la organización combinada. Esta puede ser una razón por la cual una alta
proporción (estimaciones tan altas como el 70 y el 80 por ciento) de los
acuerdos de fusiones y adquisiciones no tienen mucho éxito en términos de
producir valor económico.
No hemos encontrado ninguna empresa que realmente se diferencie por la
calidad de sus análisis de fusiones y adquisiciones. Pero eso podría estar
empezando a cambiar. Una encuesta de Deloitte de 2015 de quinientos
ejecutivos corporativos encontró que el 68 por ciento estaba usando análisis
de datos para fusiones y adquisiciones (aunque solo el 40 por ciento lo vio
como una capacidad central para fusiones y adquisiciones), y más del 80 por
ciento vio que el análisis de datos se estaba volviendo
15
cada vez más importante en el futuro de las fusiones y adquisiciones.
Los usos más comunes fueron para comprender a los clientes, los
mercados, la fuerza laboral y la compensación. Pero algunas
organizaciones más avanzadas estaban utilizando análisis predictivos para
identificar y realizar sinergias potenciales.
Ciertamente, algunos acuerdos de fusiones y adquisiciones deben realizarse
tan rápido que sería difícil o imposible realizar análisis exhaustivos. Cuando a
Bank of America se le dio la oportunidad de adquirir Fleet Bank, por ejemplo,
tuvo alrededor de cuarenta y ocho horas para tomar una decisión. Pero para la
mayoría de las transacciones, hay mucho tiempo para realizar análisis. En
Procter & Gamble, por ejemplo, se consideró la adquisición de Gillette
durante más de un año antes de que se anunciara el acuerdo. El análisis de
P&G identificó ahorros significativos (en su cadena de suministro, a través de
reducciones de personal y ganancias potenciales de las sinergias de los
clientes), que
se utilizaron para determinar cuánto ofreció P&G por Gillette en el trato.
De manera similar, CEMEX, la compañía cementera global, utiliza análisis
para cuantificar los beneficios esperados de una mayor participación de
mercado y una mayor rentabilidad al hacer cumplir sus procesos y sistemas
en el objetivo de adquisición.
Una empresa que intenta inyectar más rigor analítico en su actividad de
integración de fusiones y adquisiciones es IBM. IBM ha estado en una ola de
adquisiciones últimamente, y para mejorar las probabilidades de lograr sus
objetivos, ha desarrollado un algoritmo de aprendizaje automático llamado
M&A Pro. El sistema produce visualizaciones que cuantifican los riesgos de
integración clave, ofrece asesoramiento cualitativo y crea un panel financiero
que compara el rendimiento de acuerdos anteriores con su plan comercial
inicial. Paul Price, director de integración de fusiones y adquisiciones de IBM,
dice: “No todos son expertos en procesos de fusiones y adquisiciones. Pero lo
que hemos hecho es crear un idioma común, un esperanto, para la ejecución
de acuerdos en toda la organización. .
. Nuestro negocio ahora está mucho más basado en la realidad
dieciséis
económica y operativa”.

Analítica operativa
Un dominio analítico que ha existido durante mucho tiempo en las empresas
son las operaciones, especialmente la fabricación, la calidad, la seguridad y
la logística. Este fue el hogar original, por ejemplo, de la Gestión de calidad
total y Six Sigma, que, cuando se realizan con seriedad, implican un análisis
estadístico detallado de las variaciones del proceso, las tasas de defectos y las
fuentes de los problemas. Los análisis de fabricación y calidad han tenido un
impacto enorme en las industrias manufactureras globales, pero hasta hace
poco su impacto ha sido menos revolucionario para las industrias de
servicios y las funciones no manufactureras dentro de las empresas
manufactureras. Para muchas organizaciones, todavía parece difícil reunir los
niveles necesarios de disciplina y rigor para aplicar el control de calidad
estadístico o incluso una fuerte orientación a procesos fuera de la
fabricación. Esto significa, por supuesto,

Fabricación
Los verdaderos competidores analíticos en la fabricación, entonces, son
aquellos que van más allá de la mera fabricación. Hay algunos buenos
ejemplos de este enfoque. Uno es en un pequeño fabricante de acero en los
Estados Unidos e ilustra que la competencia analítica se aplica tanto a las
empresas más pequeñas como a la fabricación de bienes básicos. Rocky
Mountain Steel Mills, una división de fabricación de rieles, varillas y barras
de acero de Oregon Steel, enfrentó una decisión crítica sobre la capacidad
de fabricación a principios de 2005. Había cerrado su planta de tubos sin
costura en 2003 debido a las presiones de los precios, pero la Los
principales clientes de los tubos sin costura eran los perforadores de
petróleo, y en 2005 los precios del petróleo habían subido lo suficiente
como para que Rob Simon, vicepresidente y gerente general de la empresa,
considerara reabrir la fábrica de tubos. Sin embargo,
Simon decidió adoptar un enfoque más analítico y Rocky Mountain instaló
una herramienta de software analítico llamada Profit InSight. Empezó a
trabajar con análisis mensuales para determinar si se debía reabrir la planta.
Los clientes potenciales y otros gerentes pensaron que los altos precios de
la tubería claramente justificaban el desembolso de capital que sería
necesario para reabrir, pero los análisis de Simon sugirieron que el aumento
de los ingresos por la tubería se vería compensado por una menor
producción de alambrón y barra, y no sería rentable. Solo cuando los
precios de las tuberías continuaron aumentando a lo largo de 2005, Simon
decidió reabrir la planta en diciembre de ese año. Incluso cuando comenzó
la producción, sus modelos sugerían esperar a tomar pedidos porque se
preveía que los precios subirían. De hecho, en enero de 2006 habían
aumentado un 20 por ciento con respecto al trimestre anterior.
Rocky Mountain estima que, además de los precios más altos que recibió,
evitó una pérdida de $34 millones que habría enfrentado debido a las
limitaciones de producción si hubiera reabierto la planta a principios de 2005.
El éxito con la nueva planta de tubos también fue un factor clave en una
importante aumento en el precio de las acciones de Oregon Steel.
Profit InSight ahora se usa como una herramienta de planificación
estratégica semanal, y Rocky Mountain Steel Mills ha abandonado por
completo su enfoque anterior de planificación y pronóstico de ventas
"retórico" por los nuevos métodos analíticos. Son considerablemente
superiores, pero Simon aún tenía que exigir que todos escucharan lo que
muestran los análisis y dejaran de dudar usando los viejos enfoques.
Los ingenieros involucrados en el diseño de productos han estado
utilizando el diseño asistido por computadora (CAD) durante décadas. Pero
los avances recientes que utilizan el modelado paramétrico permiten
diseños más flexibles y personalizados individualmente que también
reducen el tiempo de fabricación. Firewire Surfboards, un fabricante de
tablas de surf premium de alto rendimiento, quería dar a los clientes más
libertad para personalizar su tabla sin sacrificar el rendimiento de la tabla ni
abrumar sus procesos de diseño y fabricación. Las tablas Firewire se
construyen mediante métodos patentados y una combinación de materiales
de alta tecnología que otros fabricantes comerciales de tablas de surf no
ofrecían anteriormente. Pero el CEO de Firewire, Mark Price, sabía que
esto no era suficiente para ser líder del mercado. Los surfistas
incondicionales quieren tablas personalizadas, hechas específicamente para
ellos que se adapten a su estilo personal y a las condiciones locales de las
olas. Pero la complejidad del proceso de producción de Firewire hizo que la
personalización a través de su sistema de diseño asistido por computadora
requiriera mucho trabajo. Firewire trabajó con ShapeLogic y el software
CAD 3D NX de Siemens para desarrollar modelos paramétricos avanzados
de su stock y agregó reglas específicas que controlan cómo los cambios del
cliente afectan las curvas de la placa para garantizar el máximo
rendimiento.
Los clientes en línea comienzan seleccionando uno de los modelos
estándar de Firewire Surfboards y luego modifican el diseño para que se
ajuste a sus necesidades. Una vez que el cliente solicita una placa
personalizada, se envía un modelo sólido preciso directamente a la fábrica de
Firewire, donde se utiliza para hacer funcionar las máquinas que fabrican la
placa. El modelo permite mecanizar rápidamente tableros personalizados
hasta aproximadamente el 97 por ciento de su forma neta, lo que minimiza
los procesos de acabado necesarios.
17
tiempo de fabricación y costos. A medida que las soluciones CAD más
potentes y sofisticadas (aunque fáciles de usar) se vuelvan más accesibles,
esperamos que la personalización de bicicletas, equipos deportivos,
automóviles e incluso dispositivos médicos por parte del cliente se
convierta en algo común.
Para las empresas basadas en Internet, las operaciones significan
producir el servicio básico por el cual los clientes visitan un sitio web. Las
empresas en línea exitosas usan análisis para probar prácticamente todos
los aspectos de sus sitios antes de implementarlos ampliamente. Por
ejemplo, debido a que la razón principal por la que los clientes visitan
Google es para usar sus capacidades de búsqueda, la empresa tiene un
programa muy amplio de pruebas y análisis con respecto a su motor de
búsqueda. Google emplea una amplia gama de análisis y datos operativos y
de clientes para mejorar los atributos de búsqueda, incluida la relevancia, la
puntualidad y el usuario.
experiencia. La empresa desarrolló muchas de sus propias medidas
patentadas de relevancia de búsqueda. La mayoría de las métricas se
recopilan de forma automatizada, como el porcentaje de resultados
extranjeros, la profundidad de los usuarios en la lista de elementos
recuperados, el porcentaje de usuarios que visitan cada página del resultado
de búsqueda y las medidas de latencia de búsqueda o oportunidad. Pero
Google también recopila juicios humanos sobre el proceso de búsqueda e
incluso observa a los usuarios individuales (en la sede de Google y en los
hogares de los usuarios) mientras utilizan el sitio para consultas
individuales y sesiones completas. Una técnica empleada es el seguimiento
ocular, a partir del cual se crean "mapas de calor" que muestran qué áreas
de una página reciben más atención.
Google está fuertemente comprometido con la experimentación antes de
realizar cualquier cambio en su sitio de búsqueda. Como dijo Bill Brougher
de Google:
Los experimentos son un requisito para lanzar una nueva función. Es
una herramienta muy poderosa para nosotros. Hemos estado
experimentando durante años y hemos acumulado mucho conocimiento
institucional sobre lo que funciona. Antes de que se envíe cualquier
característica nueva, debe pasar por un embudo que involucra varias
pruebas. Por ejemplo, cualquier cambio en nuestros algoritmos de
búsqueda debe probarse con nuestra calidad de búsqueda de nivel base
para asegurarse de que el cambio sea una mejora sustancial sobre la
base. Un pequeño bache en la calidad no lo es
18
lo suficientemente importante como para adoptar.
Los métodos de Google para las operaciones analíticas son tan
rigurosos como los de cualquier empresa, y la naturaleza del negocio
pone a disposición una gran cantidad de datos para el análisis.
Otro aspecto clave del análisis de fabricación es garantizar que se
fabriquen los productos correctos. Nos referiremos a él como el problema de
configuración: asegurarse de que los productos ofrecidos al mercado sean los
que el mercado quiere. El problema de configuración, como los descritos
anteriormente en Rocky Mountain Steel y Firewire Surfboards, es
multifuncional; tiene lugar en la intersección de las ventas y la fabricación, y
por lo general también involucra la cadena de suministro, los procesos
financieros e incluso los de recursos humanos de la empresa. Competir sobre
la base de la configuración es, por definición, una actividad de toda la
empresa. La configuración es altamente analítica. Implica el modelado
predictivo de lo que los clientes quieren comprar, así como complejos
análisis (generalmente basado en reglas) de qué componentes van
con qué otros componentes en qué productos terminados.
¿Qué empresas compiten en base a la configuración? Algunas empresas
de alta tecnología, como Dell, son conocidas por sus productos
configurables. Las empresas de telecomunicaciones inalámbricas pueden
tener muchos planes de servicio diferentes; algunos han desarrollado
aplicaciones analíticas automatizadas para encontrar la mejor para cada
cliente. También adaptan sus servicios a cada cuenta corporativa. Las
empresas de automóviles necesitan competir en configuración, aunque los
fabricantes estadounidenses y europeos tradicionalmente lo han hecho mal.
Dado que se considera que fabricar un automóvil desde cero según las
especificaciones del cliente lleva demasiado tiempo (al menos fuera de
Japón, donde se hace comúnmente), las empresas automotrices tienen que
pronosticar los tipos de vehículos y las opciones que los clientes querrán,
fabricarlos y enviarlos. ellos a los distribuidores. Con demasiada
frecuencia, las combinaciones de modelos y paquetes de opciones no han
sido lo que los clientes quieren, por lo que los automóviles deben tener
descuentos sustanciales para venderlos durante las promociones o al final
del año del modelo. El desajuste entre los deseos del consumidor y el
producto disponible ha sido uno de los mayores problemas que enfrentan
Ford y General Motors.
Ambas compañías están tratando de hacer algo con respecto a la
configuración, pero Ford es probablemente la más agresiva de las dos. La
compañía ha cambiado su enfoque de producir todo lo que la fábrica pueda
producir y preocuparse más tarde por venderlo, a tratar de igualar la oferta
y la demanda. Como parte de esta iniciativa, Ford está utilizando software
de configuración para mantener reglas sobre opciones y componentes, lo
que reducirá la cantidad de errores de producción y hará coincidir más los
pedidos de los concesionarios con los programas de producción. El Sistema
de Gestión de Inventario Inteligente (SIMS) de Ford optimiza el inventario
de casi tres mil concesionarios Ford y Lincoln en América del Norte. SIMS
utiliza análisis avanzados para producir recomendaciones de pedidos de
vehículos específicos de los concesionarios para garantizar que los
concesionarios tengan el número y la combinación correctos de inventario
para adaptarse a las preferencias y la demanda de los clientes.
19
decisiones de pedidos de inventario inteligentes y rentables. Ford
aún no ha dominado por completo el arte de competir en
configuración, pero claramente está avanzando en esa dirección.

Calidad
Los análisis también se pueden aplicar para evaluar la calidad de
fabricación. Honda, por ejemplo, es conocida desde hace mucho tiempo por
la calidad de sus automóviles y otros productos. La compañía ciertamente
tiene personas analíticas en su departamento de calidad de fabricación. Sin
embargo, va mucho más allá de esa función al identificar posibles
problemas de calidad. Honda instituyó un programa analítico de "alerta
temprana" para identificar posibles problemas importantes de calidad a
partir de los registros de servicio de garantía. Estos registros son enviados a
Honda por los concesionarios e incluyen tanto problemas de calidad
categorizados como texto libre. Otro texto proviene de transcripciones de
llamadas de mecánicos a expertos en varios dominios en la sede y de
llamadas de clientes a centros de llamadas. La principal preocupación de
Honda era que cualquier problema grave identificado por los distribuidores
o clientes se notara en la sede central y se abordara rápidamente. Entonces,
los analistas de Honda establecieron un sistema para extraer los datos
textuales provenientes de estas diferentes fuentes. Las palabras que
aparecían por primera vez (particularmente aquellas que sugerían
problemas importantes, como un incendio) y las palabras que aparecían más
de lo previsto se marcaron para que los analistas humanos las examinaran.
Honda no entrará en detalles sobre ningún problema específico que haya
sido cortado de raíz, pero dice que el programa ha tenido mucho éxito.
Toshiba Semiconductor Company es otra empresa que ha hecho un
amplio uso de la analítica, en particular, la representación visual del
análisis estadístico, en la calidad de la fabricación. Las aplicaciones
iniciales se centraron en el análisis avanzado para el desarrollo de nuevos
productos y tecnologías, pero se expandieron rápidamente a otras áreas
como ventas, marketing, desarrollo, producción y control de calidad. Los
ejecutivos de la unidad de negocios de semiconductores son firmes
defensores de la analítica y han guiado a la empresa por este concepto
durante más de quince años. El enfoque general de Toshiba se enmarca en
una iniciativa más amplia denominada Política y actividad de innovación
en la gestión.
El enfoque de análisis visual fue utilizado por primera vez por ingenieros
en varias plantas de fabricación de semiconductores (fabs) para el análisis de
rendimiento, un problema clave en la industria. Según Shigeru Komatsu,
director de conocimientos de la empresa (es raro que la analítica se aborde en
ese rol, pero están en Toshiba Semiconductor), “Hemos trabajado en la
estandarización de los indicadores de rendimiento, hemos creado bases de
datos compartidas, hemos hecho esfuerzos para compartir casos de análisis y
resultados, y hemos implementado software analítico como Minitab y
[TIBCO] Spotfire DecisionSite para aumentar nuestra
20
eficiencia en el análisis.” Toshiba Semiconductor continúa invirtiendo en
análisis de rendimiento, más recientemente mediante la incorporación de
inteligencia artificial en modelos analíticos utilizados para determinar la causa
raíz de los defectos y aumentar aún más
21
calidad de la producción.
La seguridad
La seguridad no fue la primera área en aplicar datos y análisis, pero hoy en
día está creciendo rápidamente. Resulta que ciertos tipos de accidentes son,
al menos hasta cierto punto, predecibles. Son una función de las personas,
el equipo y los entornos de la empresa involucrados. Si tiene datos sobre
incidentes de seguridad pasados y los atributos asociados con ellos, no es
una gran exageración predecir cuándo sucederán en el futuro e intervenir
para tratar de prevenirlos.
El análisis de seguridad es una de las especialidades de la firma de
consultoría de análisis boutique First Analytics, que Tom ayudó a fundar en
2009. Un gerente de un gran ferrocarril leyó el artículo original "Competir
en análisis" y se puso en contacto con el director ejecutivo de First
Analytics, Mike Thompson, en 2010. Comenzaron a discutir cómo la
empresa podría mejorar su seguridad mediante el análisis.
El gerente del ferrocarril explicó que la seguridad era una prioridad
principal para la empresa y que había mejorado considerablemente en este
frente, pero cada vez era más difícil seguir mejorando. Dijo que la
compañía ya había usado algunos datos para identificar posibles riesgos,
pero que había mucho más que podría explorarse.
El ferrocarril y First Analytics comenzaron con un proyecto de prueba de
concepto para tomar los datos existentes sobre los operadores de trenes de
la empresa y calificar la probabilidad de que estuvieran en riesgo. Los datos
disponibles incluían ubicación, puesto de trabajo, condiciones climáticas,
horario de trabajo, ausentismo, puntajes en pruebas de reglas y ejercicios de
capacitación, violaciones de reglas anteriores y más. Los datos finalmente
provinieron de una veintena de bases de datos diferentes en toda la
empresa. El ferrocarril había utilizado anteriormente un sistema de
puntuación de riesgo basado en una lógica razonable, pero el nuevo basado
en análisis lo mejoró drásticamente.
Dado que la prueba de concepto había funcionado bien, el ferrocarril
trabajó con First Analytics para expandir el análisis a otras áreas de
seguridad; por ejemplo, se creó un análisis para identificar y priorizar los
pasos a nivel de ferrocarril de mayor riesgo. Los análisis de seguridad del
personal se extendieron más allá de aquellos que operan los trenes al personal
que mantiene las decenas de miles de
millas de pista. El resultado general de estos esfuerzos fue una mejora
espectacular en la seguridad. El vicepresidente de seguridad de la
compañía discutió recientemente las mejoras con los clientes:
Grandes datos. Estamos en esto a lo grande. Creemos que está
impulsando estos últimos dieciocho meses [de resultados de seguridad].
Hay dos mil quinientos gerentes operativos. . . no hay forma de que
podamos mirar, pasar tiempo con, enseñar a todos los empleados, todo
el tiempo, todos los días. Se trata de centrar la atención de la gerencia
en aquellos que exhiben más riesgo. Estamos en nuestra cuarta iteración
de este modelo; constantemente lo estamos afinando. . . Si tuviera que
echar un vistazo a nuestros gráficos de control, ha sido una buena
tendencia a la baja durante una década. Desde que activamos mucho de
esto, ha sido una función de paso: un estándar completo
22
desviación de nuestra tasa de ejecución normal.
Algunas empresas de otras industrias del transporte han adoptado enfoques
similares para el análisis de seguridad. Esto se ve facilitado por la creciente
facilidad de capturar datos de conducción. Schneider National, Inc., por
ejemplo, una gran empresa de camiones, captura los comportamientos de los
conductores, como la velocidad, la aceleración y la desaceleración, y los
tiempos de conducción. Un algoritmo de seguridad predictivo alerta a los
supervisores de que los conductores corren el riesgo de sufrir accidentes
incluso antes de que hayan tenido uno.
Otras industrias que han adoptado enfoques agresivos para el análisis
de seguridad incluyen la minería, la energía y la fabricación. A medida
que los sensores se vuelvan más omnipresentes, es probable que veamos
que muchas más empresas e industrias adopten estos enfoques.

Logística
Cuando invierte en análisis operativo al nivel de cientos de millones de
dólares, y lo que es más importante, entrega valor en múltiplos de esa
suma, es seguro asumir que está compitiendo en análisis. UPS tiene una
larga historia de medición y mejora a través de la ingeniería industrial.
Hoy, UPS captura información sobre los 18,3 millones de paquetes y
documentos, en promedio, que entrega diariamente, y recibe 69,4 millones
de solicitudes de seguimiento al día. La empresa tiene un compromiso
profundo y de larga data con el uso de análisis para la toma de decisiones.
Jack Levis, director sénior de gestión de procesos de la empresa, que
también dirige los grupos de investigación de operaciones y análisis
avanzado, dirige
el proyecto ORION. ORION, un acrónimo que significa On-Road Integrated
Optimization and Navigation, puede ser el análisis comercial más grande
23
proyecto jamás emprendido. ORION es un modelo logístico de análisis
prescriptivo para los cincuenta y cinco mil conductores de UPS en los
Estados Unidos (las implementaciones internacionales llegarán pronto).
Antes de que los conductores inicien sus rutas, ORION analiza los
paquetes que se entregarán ese día y determina una ruta óptima para los
“vagones de paquetes”. Las computadoras de mano les dicen a los
conductores a dónde ir a continuación.
UPS es una gran empresa y los beneficios de ORION son proporcionales
grande. A Jack Levis le gusta decir: "Los grandes ahorros provienen de la
atención a los detalles".
Acortar la ruta de cada conductor en una milla diaria se traduce en $50
millones
al resultado final de UPS anualmente. Cada minuto ahorrado por conductor
diariamente es
por valor de 14,6 millones de dólares, y al evitar un minuto de tiempo de
inactividad al día se ahorra
$515,000. Como resultado, lo que parecen pequeñas mejoras incrementales
pueden
producir grandes ahorros. Por ejemplo, ahorros en productividad del
conductor y combustible
economía mediante la conducción de rutas más eficientes suman alrededor
de $ 400 millones por
año. Al reducir las rutas solo una fracción de milla aquí y allá, UPS está
impulsando
100 millones de millas menos, con una reducción resultante en las emisiones
de carbono de
100.000 toneladas métricas al año. No ves esos niveles de beneficio de un
proyecto de análisis muy a menudo, y estos han sido confirmados a través de
un intensivo
medición e informado a los analistas de Wall Street.
ORION requirió un compromiso sostenido durante más de una década por
parte de la gerencia de UPS. El sistema tomó más de una década desde su
inicio hasta su implementación completa, y más de $250 millones de
inversión. Entonces, la compañía claramente se metió de lleno en este
proyecto. ¿Qué tomó tanto tiempo? En primer lugar, el gran volumen de datos
y la complejidad de las matemáticas necesarias para optimizar las rutas son
realmente asombrosos. Considere que para un solo conductor que realiza 120
entregas, el número de rutas potenciales es 120 factorial, que es una suma
mayor que la
24
edad de la tierra—en segundos. Ahora imagine calcular la ruta óptima
para cada conductor, todos los días.
El algoritmo de optimización en sí fue difícil de desarrollar, pero ese
aspecto del trabajo palideció en comparación con los otros desafíos. UPS
tuvo que desarrollar sus propios mapas para garantizar que los conductores
fueran dirigidos al lugar correcto en todo momento y al lugar correcto para
dejar o recoger el paquete. Ningún mapa disponible comercialmente podría
hacer eso para los 250 millones de ubicaciones diferentes a las que UPS
realiza entregas. A continuación, se instalaron sensores telemáticos en
más de cuarenta y seis mil camiones de la empresa, que rastrean métricas
que incluyen velocidad, dirección, frenado y rendimiento del tren motriz.
Pero fueron los desafíos de la gestión del cambio los más complejos de
abordar. Imagínese comunicar e inculcar una nueva forma de realizar una
tarea diaria fundamental a cincuenta y cinco mil trabajadores sindicalizados
calificados. UPS dedicó seis días de capacitación y apoyo a cada conductor.
La mayoría de los conductores querían saber cómo funcionaba el sistema
antes de renunciar a sus tradicionales rutas, por lo que se dedicó un esfuerzo
considerable a convertir el algoritmo de la “caja negra” en una “caja de
cristal”. A su favor, la mayoría de los conductores estaban entusiasmados con
el nuevo enfoque una vez que lo habían experimentado.
Los beneficios de ORION hasta la fecha son solo el comienzo para UPS.
Está, por supuesto, el despliegue global de estas herramientas. Y para
mantener un nivel de simplicidad para los conductores, ORION solo
optimiza las rutas al comienzo de la jornada laboral. Los programas más
sofisticados en el futuro se volverán a optimizar durante el día, teniendo en
cuenta factores como los patrones de tráfico y el clima. UPS planea
continuar ampliando las capacidades de ORION. Levis explica que las
mejoras futuras también tomarán otras decisiones para mejorar el servicio
al cliente sin sacrificar la eficiencia. “Si un cliente llama con una solicitud
mientras los conductores están en la carretera, ORION observará a todos
los conductores y determinará la mejor opción. ORION luego lo pondrá en
su computadora portátil y ajustará su ruta en consecuencia”.
No hay muchas empresas que hayan apostado por la analítica hasta este
punto. Pero con la iniciativa ORION, UPS realmente se ha transformado
de una empresa de camiones que utiliza tecnología a una "empresa de
tecnología con camiones".
La gestión de la logística de una cadena de suministro global es otra área
fértil para invertir en análisis. La División de Red de Suministro Global
(GSND) de Caterpillar es responsable de supervisar una red de suministro
interdependiente con más de once mil proveedores y 150 instalaciones. Pero
durante treinta años, el desempeño de los proveedores de Caterpillar parecía
estancado, sin mejoras sostenibles. El personal de GSND se vio
obstaculizado por procesos manuales obsoletos, falta de disponibilidad de
datos y complejidad de la red. Los usuarios se acostumbraron a tomar
decisiones sobre suposiciones y datos incompletos. "Nosotros
estaban tratando de administrar una red de suministro en la oscuridad en
25
hojas de cálculo”.
Para solucionar este problema, en 2012 Caterpillar comenzó a desarrollar el
Assurance of Supply Center (ASC). El ASC es una plataforma de análisis y
visualización de datos que captura y transforma los datos de la red de
suministro de docenas de sistemas en un conjunto de poderosas herramientas
comerciales que se utilizan para impulsar tanto las decisiones diarias como las
decisiones estratégicas de diseño de redes. Tres años después, la
transformación ha sido notable. El CEO Doug Oberhelman dijo a los
accionistas: “[ASC] simplifica la red de suministro, una red que involucra a
miles de proveedores que envían más de un millón de piezas y componentes
cada año. Ahora Caterpillar puede ver los pedidos desde la producción hasta
26
entrega—por instalación, unidad de negocio y costo”.
Al utilizar dispositivos móviles, los usuarios pueden ver datos sobre
inventario, transporte, proveedores, rendimiento, huella de red, defectos y
tarifas. Se produce un envío cada noventa segundos, lo que produce
millones de nuevos puntos de datos todos los días que se analizan y
visualizan para respaldar las decisiones de más de 10 000 usuarios. El
sistema incorpora una biblioteca de más de 100 millones de puntos de datos
que alimentan 45 000 modelos predictivos y prescriptivos, incluidos datos
sobre 640 000 números de pieza de más de 7000 proveedores, que se
envían a 127 instalaciones en todo el mundo. Todos estos datos les
permiten responder preguntas importantes como:
¿Dónde está mi inventario?
¿Estamos preparados para un repunte?
¿Por qué el proveedor X tiene un desempeño deficiente?
¿Cuál es el impacto en la red de un gran desastre natural?
Teniendo en cuenta la demanda, el consumo y el rendimiento
proyectados, ¿cuál debería ser nuestro inventario de piezas para
todos los números de pieza el próximo año?
¿Cómo podría cambiar mi red para hacerla más rentable y
rentable?
Caterpillar comparte sus datos y conocimientos con los proveedores y
trabaja con ellos para mejorar su rendimiento. En tan solo tres años, los
resultados han sido impresionantes: en 2012, el 67 % de los programas se
enviaron a tiempo; ahora es el 93 por ciento. Los defectos de calidad se han
reducido en un 50 por ciento. La organización ahora tiene la capacidad de
mantener la red en movimiento incluso cuando ocurre un desastre. Los
usuarios pueden resolver problemas de rendimiento de la red en
minutos en lugar de meses. Y ASC se ha convertido en una fuente
continua de ventaja competitiva para Caterpillar a medida que
continúa introduciendo soluciones analíticas más innovadoras en su
negocio.

Análisis de investigación y desarrollo


La investigación y el desarrollo (I+D) ha sido quizás la función más
analítica dentro de las empresas. Fue el bastión principal del método
científico dentro de las empresas, con pruebas de hipótesis, grupos de
control y análisis estadístico.
Por supuesto, parte de este trabajo altamente analítico continúa dentro de
las funciones de I+D, aunque gran parte de la investigación básica en I+D
ha sido suplantada por la investigación aplicada (que aún puede utilizar
métodos analíticos) y la creación de extensiones de productos existentes. En
varias industrias, la investigación se ha vuelto de naturaleza más
matemática y estadística, ya que los métodos computacionales reemplazan
o aumentan los enfoques experimentales tradicionales. Por ejemplo, los
automóviles conectados del fabricante de automóviles Tesla comparten un
flujo constante de información con la empresa, que utiliza para identificar
problemas y crear soluciones de software que luego se descargan
automáticamente.
Describiremos el entorno analítico para I+D en una industria que está
cambiando drásticamente con respecto a la analítica. En la industria
farmacéutica, la analítica, en particular el análisis de datos de ensayos
clínicos para ver si los medicamentos tienen un efecto beneficioso, siempre
ha sido importante. En los últimos años, sin embargo, ha habido un
marcado crecimiento en la biología de sistemas, en la que las empresas
intentan integrar datos genómicos, proteómicos, metabólicos y clínicos de
una variedad de fuentes, crear modelos e identificar patrones en estos datos,
correlacionarlos a los resultados clínicos y, finalmente, generar
conocimiento sobre las enfermedades y sus respuestas a los medicamentos.
Este es un desafío considerable, sin embargo, y las empresas apenas están
comenzando a abordarlo. Entrevistamos a tres empresas farmacéuticas: una
gran empresa "farmacéutica" grande y dos más pequeñas, empresas
orientadas a la investigación, y encontró que todas ellas tienen esfuerzos en
marcha en este sentido, pero están muy lejos de lograr la meta. Sin
embargo, este campo está cambiando rápidamente y varias empresas ahora
están intentando utilizar la inteligencia artificial, específicamente Watson
de IBM, para ayudar a desarrollar nuevos compuestos de fármacos.
La analítica también se está utilizando de manera efectiva para abordar los
desafíos actuales en I+D, y esta es una forma en la que compite Vertex
Pharmaceuticals, Inc. Vertex, una empresa global de biotecnología con sede
en Boston, Massachusetts, ha adoptado un enfoque especialmente analítico
para la I+D, y sus resultados están empezando a dar frutos. El cofundador y
director general jubilado de Vertex, Joshua Boger, cree firmemente en el
poder de la analítica para aumentar la productividad del desarrollo de
fármacos. Ya en 1988 (cuando dejó Merck & Co. para fundar Vertex)
argumentó que “lo que se necesita en este negocio es más información que la
27
otro tipo. No más inteligencia. No más intuición. Sólo más información.
Vertex ha emprendido una variedad de iniciativas analíticas en
investigación, desarrollo y marketing. En investigación, Vertex se ha
centrado en análisis que intentan maximizar la probabilidad de éxito de un
compuesto. Esto incluye el desarrollo de varias series de patentes
principales por proyecto y garantizar que los compuestos tengan atributos
favorables similares a los de las drogas. El enfoque de Vertex para el
diseño de fármacos se conoce como racional o estructural. Este enfoque
busca "diseñar" propiedades similares a las de las drogas desde el
comienzo de un proyecto de desarrollo de drogas y le permite a Vertex
determinar tan pronto como sea posible si un compuesto tendrá atributos
similares a las drogas.
La mayor parte de los esfuerzos de Vertex en el uso de análisis han pasado
a la etapa de desarrollo de I+D, donde sus análisis indican que se han
producido la mayoría de los aumentos de costos en la industria. Un costo
particularmente alto es el diseño de ensayos clínicos. Un diseño deficiente de
los ensayos clínicos conduce a resultados de ensayos ambiguos o ensayos
clínicos demasiado extensos. Esto provoca retrasos sustanciales y eleva los
costos. Vertex ha abordado este desafío mediante el desarrollo de nuevas
herramientas de simulación de ensayos. Estas herramientas permiten a Vertex
diseñar ensayos clínicos más informativos y efectivos en mucho menos
tiempo. Vertex ahora puede realizar simulaciones de prueba cientos de veces
más rápido que antes. Con estas simulaciones, Vertex también puede reducir
el riesgo de ensayos fallidos o ambiguos causados por un diseño de ensayo
defectuoso.
La operación de ensayos clínicos también representa uno de los aumentos
de costos más altos en la industria farmacéutica. La operación de ensayos
clínicos, al igual que el diseño de ensayos, tiene lugar dentro de la etapa de
desarrollo de I+D. Las actividades operativas que no están automatizadas
generan costos significativos. Usos del vértice
análisis para automatizar y mejorar las operaciones de ensayos clínicos; los
ejemplos incluyen herramientas para acumulaciones de pacientes y captura
electrónica de datos (EDC).
Ya sea en I+D o en cualquier otro lugar, la empresa comienza con la
métrica adecuada para el fenómeno que necesita optimizar. Los analistas
determinan cómo obtener los datos apropiados y qué análisis realizar. Con
estos hallazgos, Vertex se compara constantemente con los competidores y
con los puntos de referencia de las mejores prácticas para la industria
farmacéutica. “Competimos en análisis y cultura”, dice Steve Schmidt,
exdirector de información de Vertex. “Alentamos la búsqueda intrépida de
innovaciones, pero medimos sin piedad el efecto que estas innovaciones
tienen en nuestro negocio principal. Siempre estamos buscando nuevas
métricas analíticas significativas, pero nuestra estrategia, nuestros valores y
fortalezas corporativos centrales, y nuestra comprensión del valor impulsan
nuestra búsqueda.
28
propuesta para nuestro negocio”. Vertex es un gran ejemplo de la
aplicación de análisis a la investigación y desarrollo de productos y,
como resultado, la compañía tiene una impresionante variedad de
nuevos medicamentos en todas las etapas de desarrollo.
La industria farmacéutica también está buscando enfoques analíticos que ni
siquiera involucran al laboratorio. La llamada investigación in silico utiliza
modelos computacionales de pacientes y medicamentos para simular
experimentos de manera más rápida y económica de lo que podrían realizarse
en un laboratorio. Una empresa de biología de sistemas, Entelos, Inc., ha
producido plataformas de programas informáticos para simular enfermedades
y tratamientos en las áreas de enfermedades cardiovasculares, diabetes,
inflamaciones y asma, entre otras. Entelos se asocia con compañías
farmacéuticas y otras organizaciones de investigación para identificar y
probar nuevos compuestos. El objetivo es utilizar simulaciones
computacionales para reducir los costos muy altos, los tiempos de ciclo
prolongados y las altas tasas de fallas de la investigación de laboratorio
convencional en la industria farmacéutica. Una colaboración sobre un
medicamento para la diabetes entre Entelos y Johnson &
29
pacientes necesarios en un ensayo clínico de fase inicial.
Por supuesto, la I+D actual implica no solo la innovación de productos,
sino también la innovación en otros dominios: procesos y operaciones;
modelos de negocio; innovaciones de clientes tales como marketing, ventas y
servicio; y nuevos enfoques de gestión. En un sentido muy importante, la idea
detrás de este libro es que cada área en la que una organización hace negocios
puede ser una en la que se lleve a cabo la I+D. EnCapítulo 3, notamos cómo
Capital One identifica nuevas ofertas a través de su enfoque de investigación
de mercado de prueba y aprendizaje. en internet-
empresas orientadas como Amazon, Facebook y Google, cada cambio en
una página web se trata como un pequeño proyecto de I+D. ¿Cuál es el
caso de referencia para medidas como las visitas a la página, el tiempo
que se pasa en el sitio y los clics?
¿Cómo funciona el cambio a pequeña escala? ¿Cómo funciona cuando
se escala de manera más amplia? Este enfoque de prueba y aprendizaje
para la I+D operativa es tan importante como la I+D de productos.
La I+D operativa del modelo de negocio tampoco tiene que involucrar a
Internet. En el cuidado de la salud, por ejemplo, a pesar de la naturaleza
aparentemente científica de la medicina, varios estudios sugieren que solo
entre un cuarto y un tercio de las decisiones médicas se basan en la ciencia.
Una creciente industria de proveedores de atención médica, compañías de
seguros y proveedores de servicios analíticos y de datos de terceros están
trabajando para hacer que la atención médica sea más eficiente y efectiva a
través de análisis. Uno de los adoptadores más agresivos de este enfoque es
Intermountain Healthcare, una asociación de veintidós hospitales con sede
en Utah. Brent James, un médico con una maestría en estadística, comenzó
a proponer pequeños "proyectos científicos" para ver qué intervenciones
clínicas conducían a los mejores resultados en Intermountain. Estos
proyectos finalmente se convirtieron en un amplio conjunto de diez
programas clínicos basados en la investigación y la evidencia. Cada
programa clínico está respaldado por sistemas de información que
incorporan protocolos de atención recomendados y realizan un seguimiento
de los costos de los pacientes. Intermountain se ha convertido en un
modelo para la provisión efectiva de atención médica a un costo razonable
y ha capacitado a muchos otros médicos y administradores en todo el
mundo.
Un aspecto clave de la atención médica analítica es la salud de la
población, o el análisis de los resultados de salud para grupos de personas. Un
enfoque cada vez más común para la salud de la población, por ejemplo, es
tratar de predecir la probabilidad de que los miembros de un plan de salud
desarrollen un mayor riesgo de enfermedades más graves con el tiempo.
Healthways es una empresa que trabaja con las aseguradoras para hacer tales
predicciones e identificar formas de mejorar los resultados de salud y, por lo
tanto, reducir el costo probable para la aseguradora. Healthways utiliza datos
demográficos, reclamaciones, recetas y procedimientos de laboratorio de los
miembros para predecir (usando tecnología de redes neuronales de
inteligencia artificial) cuáles estarán en mayor riesgo de mayores gastos
médicos totales en el futuro durante el próximo año.
la gravedad de la enfermedad, mejorar los resultados y reducir el costo
para el plan de salud. Este enfoque de la gestión de riesgos también
puede reducir la
costos de mantenimiento de la salud y reducir el riesgo de recurrencia de la
30
enfermedad. El gigante de seguros de salud United Healthcare va un
paso más allá al determinar no solo si un paciente está en riesgo de contraer
una enfermedad en particular, sino también al usar análisis para determinar
la probabilidad de que un paciente adopte y siga las intervenciones de
manejo de enfermedades.

Análisis de recursos humanos


La aplicación analítica interna final que discutiremos en este capítulo es en
recursos humanos. Alguna vez un área rezagada para el análisis, las
empresas de vanguardia ahora están adoptando métodos sofisticados para
analizar los datos de los empleados a fin de obtener el máximo valor de su
gente. Google, eBay, Walmart y otros están utilizando análisis predictivos
para aumentar la productividad, compensar e incentivar a sus empleados
adecuadamente, ayudar a los empleados a tener éxito en sus trabajos y
reducir la retención.
Al igual que con otras partes de las organizaciones, las herramientas para
emplear análisis en recursos humanos están cada vez más disponibles. La
mayoría de las grandes organizaciones ahora cuentan con sistemas de
información de recursos humanos (HRIS), que registran las transacciones
básicas de recursos humanos, como la fecha de contratación, la
compensación, las promociones y las calificaciones de desempeño.
Algunos van mucho más allá de ese nivel y registran niveles de habilidad
en una variedad de aptitudes y programas de aprendizaje realizados para
mejorar esas habilidades. Las empresas tienen cada vez más la capacidad
de relacionar sus inversiones en capital humano con sus rendimientos del
capital financiero. Si tienen el deseo, sin embargo, es otra cuestión. Las
personas pueden ser “nuestro activo más importante” e incluso nuestro
activo más caro, pero rara vez son nuestro activo más medido. Muchas
empresas pueden estar comenzando a emplear análisis de recursos
humanos, pero apenas compiten con ellos.
La excepción más conspicua, por supuesto, es en los deportes
profesionales. Los equipos de béisbol, fútbol americano, baloncesto y fútbol
(al menos fuera de los Estados Unidos) pagan altos salarios a sus jugadores
y tienen poco más que esos jugadores para ayudarlos a competir. Muchos
equipos exitosos están adoptando enfoques innovadores para la medición de
las habilidades de los jugadores y la selección de jugadores para los equipos.
Ya hemos hablado sobre el enfoque analítico para la evaluación de
jugadores en el béisbol que fue bien descrito en el libro de Michael Lewis.
bola de dinero. En el fútbol americano profesional, el equipo que más
ejemplifica los recursos humanos analíticos son los New England Patriots,
campeones del Super Bowl de 2017 y ganadores de cinco Super Bowls en los
últimos quince años.
Los Patriots adoptan un enfoque de recursos humanos decididamente
diferente al de otros equipos de la Liga Nacional de Fútbol Americano (NFL).
No utilizan los mismos servicios de exploración que emplean otros equipos.
Evalúan a los jugadores universitarios en las escuelas más pequeñas y
oscuras. Evalúan posibles selecciones de draft sobre la base de criterios que
otros equipos no usan: inteligencia, por ejemplo, y un bajo nivel de egoísmo.
Como dice el entrenador en jefe Bill Belichick: “Cuando traes a un jugador a
un equipo, traes todo lo que viene con él. Aportas su actitud, su velocidad,
fuerza, dureza mental, rapidez. Nuestra evaluación es exhaustiva. Scott Pioli
[entonces vicepresidente de personal de jugadores] y el departamento de
exploración hacen un gran trabajo al obtener muchos detalles al analizar la
historia de un jugador, su estructura mental y física, así como su actitud y
carácter.
31
valor para el equipo”. Belichick a menudo se refiere a los atributos no
físicos de los jugadores como "intangibles", y se siente perfectamente
cómodo discutiéndolos con jugadores y representantes de los medios.
Cualquiera que haya presenciado la victoria en tiempo extra sin precedentes
de los Patriots en el Super Bowl de 2017 probablemente sepa que un
intangible en particular, la fortaleza mental, fue un elemento clave en su
victoria. Los Patriots miden y desarrollan activamente este rasgo en sus
jugadores con la ayuda de pruebas de inteligencia emocional y de
comportamiento usando el Perfil Atlético de Troutwine (TAP). Belichick
dice: “He estado familiarizado con [el TAP] durante más de 15 años. . . Te lo
digo por experiencia esto da
32
tu gran conocimiento de los jugadores, de ti mismo y de tu programa”.
Los Patriots administran los datos de jugadores potenciales en un
sistema de soporte de decisiones de draft, que se actualiza diariamente con
nuevos informes de exploradores. Los verificadores cruzados en las
oficinas del equipo verifican la clasificación de los exploradores
comparando las calificaciones de los exploradores de la Costa Oeste con
calificaciones similares de la Costa Este (es decir, ¿el receptor UCLA de
6'7" se compara con el receptor Georgia Tech de 6'7"?). No se pasa por
alto ningún detalle que pueda proporcionar una ventaja.
Con el éxito de la analítica en otros dominios, los líderes empresariales
tienen grandes expectativas (pero hasta ahora en su mayoría insatisfechas)
sobre cómo la analítica también debería revolucionar los recursos
humanos. Muchos departamentos de recursos humanos han dado pequeños
pasos para ponerse al día con sus pares en otras partes de la organización.
Las empresas están midiendo de manera más consistente los procesos
globales de recursos humanos y poniendo el
información en los sistemas. Existen diversos enfoques para los recursos
humanos cuantitativos, incluidas las evaluaciones de 360 grados, las
clasificaciones forzadas, las predicciones sobre el desgaste, etc. Ninguno de
estos se acerca a la "ciencia de cohetes", pero connotan un enfoque mucho
más disciplinado y metódico. En American Express, por ejemplo, que tiene
empleados en ochenta y tres países, un ejecutivo de recursos humanos en
Asia comentó: “Todo lo que tocamos tiene una métrica adjunta. Hagamos lo
que hagamos, utilizamos procesos, mediciones y bases de datos coherentes a
nivel mundial. Hacemos las cosas de manera metódica, pensada,
33
manera consistente, y tenemos plataformas consistentes”.
Otras empresas están dando pasos más modestos para gestionar su
talento. Una empresa manufacturera que entrevistamos, por ejemplo, ha
desarrollado un "índice de gestión del talento" a partir de cuatro medidas
patentadas, y utiliza el índice para evaluar cómo cada unidad organizativa
gestiona sus inversiones en capital humano. Goldman Sachs, que, al igual
que los equipos deportivos profesionales, paga muy bien a sus empleados,
está comenzando a aplicar enfoques analíticos a su fuerza laboral. GE,
Accenture, Capital One y Procter & Gamble buscan habilidades de
razonamiento cuantitativo en los posibles reclutas. Caesars, otro
competidor analítico en general, también utiliza ampliamente el análisis de
recursos humanos en el proceso de contratación.
Las empresas digitales están adoptando más técnicas analíticas para
retener a su fuerza de trabajo altamente calificada y móvil. En 2014, cuando
eBay se preparaba para escindir PayPal, los gerentes estaban preocupados
por el efecto en su fuerza laboral. La gerencia le pidió a Katie Meger,
gerente sénior de análisis de talento en eBay (y doctora en psicología) que
ayudara a identificar a los empleados en riesgo y que los ayudara a
determinar las mejores formas de prevenir el desgaste no deseado. Como
informó el Wall Street Journal, Meger desarrolló un modelo predictivo
mediante el análisis de supervivencia, una técnica estadística para predecir
la muerte:
En ese momento, mientras eBay se preparaba para lanzar PayPal, los
gerentes presionaron para obtener más dinero para evitar que los buenos
empleados se fueran, recordó. Pero la compensación no estaba entre las
cinco variables principales que indicaban que alguien estaba en riesgo de
renunciar, mostró el modelo. También reveló que el desgaste era
contagioso, especialmente en equipos pequeños, dijo. eBay promulgó un
remedio: si un empleado renunciaba, el software de recursos humanos
automáticamente enviaba un correo electrónico a su ex gerente explicando
el factor de contagio y
ofreciendo sugerencias para permanecer cerca de los empleados
34
restantes.
Otro factor que impulsa el cambio a la analítica de recursos humanos es
el aumento del rigor en los procesos de contratación y dotación de
personal. Las empresas ven cada vez más estos procesos como actividades
que se pueden medir y mejorar; las personas casi se están convirtiendo en
un recurso más de la cadena de suministro. Esto es particularmente
notable en las relaciones con las empresas de personal externo. Apex
Systems, una división de On Assignment, es una importante empresa de
personal de TI. Ha observado un movimiento a largo plazo entre sus
clientes hacia un mayor uso de procesos y métricas más rigurosos, y está
tratando de adelantarse a la tendencia mediante la adopción de medidas
más analíticas y enfoques de gestión en su propio negocio. Apex analiza
una variedad de métricas de personal, que incluyen:
Tiempo para responder con un primer, segundo y tercer candidato
calificado
¿Cuántos candidatos ve un cliente?
Frecuencias de errores de nómina o defectos de facturas de clientes
Velocidad de resolución de problemas del cliente
Niveles generales de satisfacción del cliente

Los clientes de Apex utilizan cada vez más los análisis para realizar un
seguimiento de la eficiencia y la eficacia de los procesos de dotación de
personal, por lo que la empresa necesita establecer y comprender sus propios
análisis para adelantarse a la demanda.
Tres empresas que rivalizan con los New England Patriots como
potencias analíticas para la gestión del talento son Google, Capital One y
Walmart. La cultura y las prácticas altamente analíticas de Google son
evidentes en su función de recursos humanos. El grupo de operaciones de
personas de Google opera de manera muy diferente al típico departamento
de recursos humanos. Su lema es: “Todas las decisiones de las personas
deben basarse en datos y análisis”. Para lograr su objetivo, Google creó
una función de análisis de personas con su propio director y personal de
más de sesenta investigadores, analistas y consultores que estudian las
decisiones y problemas relacionados con los empleados.
Al nombrar a Laszlo Bock, exvicepresidente de operaciones de personas
de Google, el profesional de recursos humanos de la década en 2016, ERE
Recruiting señala que Bock ve los datos como una forma de buscar la
verdad y los conocimientos únicos. A diferencia de la típica organización
de RR.
significativamente más allá de las métricas y el alcance habituales de
recursos humanos, utilizando análisis predictivos para encontrar formas de
mejorar su desempeño gerencial, reclutamiento, retención, bienestar y salud
de los empleados. Los investigadores de Operaciones de personas de Google
incluso encontraron formas para que los empleados comieran mejor y
consumieran menos calorías. Los datos y experimentos sobre la mejora de la
salud de los empleados llevaron a la
compañía cambiando a platos más pequeños en sus instalaciones para
35
comer.
El Laboratorio de Personas e Innovación (PiLab) es el grupo de I+D dentro
de Operaciones de Personas que lleva a cabo investigaciones enfocadas en
nombre de los clientes internos. A medida que Google analiza diferentes
problemas de recursos humanos, a menudo se ha movido en nuevas
direcciones como resultado. El PiLab ha determinado qué antecedentes y
capacidades se asocian con un alto rendimiento y qué factores es probable que
conduzcan a la deserción, como que un empleado se sienta infrautilizado en la
empresa. Ha fijado el número ideal de entrevistas de reclutamiento en cuatro,
por debajo del promedio anterior de diez. Uno de esos proyectos fue el
Proyecto Oxígeno de Google, llamado así porque la buena gestión mantiene
viva a la empresa. El objetivo de este proyecto fue determinar los atributos de
los gerentes exitosos. El equipo de PiLab analizó encuestas anuales de
empleados, puntajes de gestión del desempeño, y otros datos para dividir a los
directivos en cuatro grupos según su calidad. Luego entrevistó a los gerentes
con los puntajes más altos y más bajos (las entrevistas fueron doble ciego: ni
el entrevistador ni los gerentes sabían en qué categoría estaban los gerentes)
para determinar sus prácticas gerenciales. El equipo de análisis de recursos
humanos de Google finalmente identificó ocho comportamientos que
caracterizan a los buenos gerentes y cinco comportamientos que todo gerente
debe evitar. Un año después de que el equipo compartiera sus hallazgos,
Google midió una mejora significativa en el 75 por ciento de los gerentes de
bajo rendimiento. El equipo de análisis de recursos humanos de Google
finalmente identificó ocho comportamientos que caracterizan a los buenos
gerentes y cinco comportamientos que todo gerente debe evitar. Un año
después de que el equipo compartiera sus hallazgos, Google midió una mejora
significativa en el 75 por ciento de los gerentes de bajo rendimiento. El equipo
de análisis de recursos humanos de Google finalmente identificó ocho
comportamientos que caracterizan a los buenos gerentes y cinco
comportamientos que todo gerente debe evitar. Un año después de que el
equipo compartiera sus hallazgos, Google midió una mejora significativa en el
75 por ciento de los gerentes de bajo rendimiento.
Los modelos de valor de talento de Google abordan preguntas como "¿Por
qué los empleados eligen quedarse en nuestra empresa?" para calcular lo que
más valoran los empleados, luego aplicar esos conocimientos para aumentar
las tasas de retención, diseñar incentivos de rendimiento personalizados,
decidir si igualar la oferta de trabajo de un competidor o determinar cuándo
ascender a alguien. Google también utiliza los datos de rendimiento de los
empleados para determinar las formas más adecuadas de ayudar a los
empleados de alto y bajo rendimiento a tener más éxito. Bock nos dijo: “No
utilizamos los datos de desempeño para mirar los promedios, sino para
monitorear a los que tienen el desempeño más alto y más bajo en la curva de
distribución. Tratamos de ayudar activamente al 5 por ciento más bajo de los
artistas. Sabemos que hemos contratado a personas talentosas y realmente
queremos que tengan éxito”. De la empresa
La hipótesis era que muchas de estas personas podrían estar fuera de lugar o
mal administradas, y un análisis detallado apoyó esa idea. Comprender las
necesidades y los valores de las personas permite que el equipo de
operaciones de personas aborde con éxito una serie de situaciones difíciles. El
equipo tiene los datos para probarlo. Bock señaló: “No es el almuerzo
proporcionado por la empresa lo que mantiene a la gente aquí. Los Googlers
nos dicen que hay tres razones por las que se quedan: la misión, la calidad de
las personas y la oportunidad de desarrollar el conjunto de habilidades de un
mejor líder o
36
empresario. Y todos nuestros análisis se basan en estas razones”.
Capital One utiliza ampliamente la analítica en el proceso de
contratación, lo que requiere que los empleados potenciales de todos los
niveles realicen una variedad de pruebas que miden sus habilidades
analíticas. La empresa utiliza entrevistas de casos matemáticos, una
variedad de pruebas de comportamiento y actitud, y múltiples rondas de
entrevistas para asegurarse de que obtiene a las personas que quiere. El
proceso se aplica a todos los niveles, incluso a los vicepresidentes senior
que encabezan las funciones comerciales. Por ejemplo:
Cuando Dennis Liberson voló a Washington para entrevistarse para el
puesto más alto de recursos humanos en Capital One Financial Corp., le
dijeron que sus entrevistas con los 16 altos ejecutivos tendrían que
esperar. Primero, lo llevaron a una habitación de hotel para tomar un
examen de álgebra y escribir un plan de negocios. Liberson, quien
bromea casi siete años después diciendo que podría haber sido “el único
tipo de recursos humanos que pudo aprobar su examen de matemáticas”,
obtuvo el puesto y ahora es uno de los vicepresidentes ejecutivos de la
compañía. él también consiguió
37
una muestra temprana de la obsesión de Capital One con las pruebas.
Liberson ya no es el jefe de recursos humanos, pero se mantiene el
enfoque en las pruebas. A un candidato para un puesto gerencial en
Capital One, por ejemplo, todavía se le pide que revise un conjunto de
estados financieros y gráficos para una editorial y luego responda
preguntas como estas:
¿Cuál fue la relación entre los ingresos por ventas y los costos de
distribución de los libros de ciencia en 2016? (Redondear al
número entero más cercano):
R. 27 a 1
B 53 a 1
C. 39 a 1
D4a1
E. No puedo decir

Sin algunas habilidades cuantitativas, incluso el ejecutivo más senior


no necesita postularse.
Walmart emplea a mucha gente: más de 2,2 millones de asociados en todo
el mundo. Saba Beyene encabeza el equipo global People Analytics de
Walmart de setenta analistas dedicados. Obtener información sobre las
implicaciones comerciales de la rotación de personal era una gran prioridad
para el grupo: “Al igual que todas las organizaciones minoristas, Walmart
tiene un gran problema de rotación. Estábamos tratando de entender qué
podíamos hacer para que la organización entendiera que esto es grande.
Estaban pensando que si alguien se muda, podré contratar a alguien a un costo
menor. Lo que no entendieron es el costo de contratación, el costo de
incorporación, el costo de capacitación. Pudimos cuantificar todo eso y dejar
en claro que cuando pierdes a un asociado dentro de los 90 días o menos, no
recuperan su dinero.
38
de contratar a ese asociado”.
A la luz de estos hallazgos, no sorprende que Walmart analice más de
cerca la compensación para las nuevas contrataciones. La empresa está
invirtiendo miles de millones para mejorar sus procesos de capacitación,
aumentar los salarios iniciales y dar aumentos a los asociados que llevan
6 meses en la empresa.
Sin embargo, en general, aparte de estas pocas empresas y equipos
deportivos profesionales, pocas organizaciones compiten realmente en análisis
de recursos humanos. Tal vez este énfasis llegue con el tiempo, pero lo que
más parece faltar es el deseo de la gerencia de competir en recursos humanos
en primer lugar. Tal vez a medida que los costos de personal continúen
aumentando y constituyan porcentajes más altos de los costos totales de las
organizaciones, y a medida que los ejecutivos se den cuenta de que su gente
es verdaderamente su recurso más crítico, los análisis se impondrán y
proliferarán en RRHH.

Este capítulo ha considerado una amplia variedad de aplicaciones internas de


análisis. En cada caso, nuestro objetivo era ilustrar no solo que los análisis
son posibles en una función particular, sino que pueden ser la base para un
enfoque diferente de la competencia y la estrategia. Esperamos que estos
ejemplos impulsen a los altos ejecutivos a pensar en sus propias estrategias y
en cómo realizan sus actividades internas.Capítulo 5, que aborda el uso de
el análisis en las relaciones externas (por ejemplo, cliente y proveedor)
ofrece aún más posibilidades para la competencia.

También podría gustarte