Está en la página 1de 42

Cuadrante mágico para plataformas de ciencia de datos y aprendizaje automático

Publicado el 11 de febrero de 2020 - ID G00 385005 - 84 min de lectura

Los científicos expertos en datos y otros profesionales que trabajan en roles de ciencia de datos
requieren capacidades para obtener datos, construir modelos y poner en práctica conocimientos de
aprendizaje automático. El crecimiento significativo de los proveedores, el desarrollo de productos
y una miríada de visiones competitivas reflejan un mercado saludable que está madurando
rápidamente.

Definición / descripción del mercado

Este Cuadrante Mágico evalúa a los proveedores de plataformas de ciencia de datos y aprendizaje
automático (DSML). Gartner define una plataforma DSML como un producto central y una cartera
de soporte de productos, componentes, bibliotecas y marcos integrados coherentemente (incluidos
los de propiedad, socios y código abierto). Sus principales usuarios son profesionales de la ciencia
de datos. Estos incluyen científicos expertos en datos, científicos de datos ciudadanos, ingenieros
de datos e ingenieros / especialistas en aprendizaje automático (ML).
La integración coherente significa que el producto central y la cartera de soporte brindan un
"aspecto y una sensación" consistentes y crean una experiencia de usuario en la que todos los
componentes son razonablemente interoperables en apoyo de una canalización analítica.
La plataforma DSML ofrece una combinación de funcionalidades básicas y avanzadas esenciales
para construir soluciones DSML (principalmente modelos predictivos y prescriptivos). La plataforma
también admite la incorporación de estas soluciones en los procesos comerciales, la infraestructura,
los productos y las aplicaciones que los rodean. Admite científicos de datos con diversas habilidades
en múltiples tareas a través de la tubería de datos y análisis, incluidas todas las áreas siguientes:

Ingestión de datos

Preparación de datos

Exploración de datos.

Ingeniería de características

Creación y entrenamiento de modelos.

Prueba de modelo

Despliegue

Supervisión

Mantenimiento

Colaboración
No todas las organizaciones crean sus modelos DSML desde cero o completamente por su
cuenta. Algunos necesitan ayuda para comenzar o ampliar sus iniciativas DSML. Aunque este
Cuadrante Mágico evalúa la disponibilidad de algunos contenidos preempaquetados, como plantillas
y muestras, no evalúa los proveedores de servicios que pueden ayudar a impulsar o extender
proyectos DSML en toda la organización. Este Cuadrante Mágico tampoco evalúa a proveedores
especializados de soluciones específicas de la industria, el dominio o la función.
Los lectores de este Cuadrante Mágico deben entender lo siguiente:

Este mercado presenta una amplia gama de proveedores: Gartner invitó a una amplia gama de
proveedores de plataformas DSML a participar en el proceso de evaluación para su posible inclusión en
este Cuadrante Mágico. Los usuarios de estas plataformas tienen diferentes requisitos y preferencias
para las interfaces de usuario (UI) y las herramientas (consulte “Cómo elegir la plataforma correcta de
ciencia de datos y aprendizaje automático”) Los científicos expertos en datos prefieren codificar
modelos de ciencia de datos (generalmente en Python o R) y, a menudo, crean y ejecutan modelos de
datos en portátiles. Otros usuarios se sienten más cómodos construyendo modelos utilizando una
interfaz de usuario de arrastrar y soltar para crear tuberías visuales. Muchos miembros de comunidades
emergentes de ciencia de datos ciudadanos favorecen un enfoque mucho más aumentado (a menudo
llamado AutoML). Utiliza técnicas de inteligencia artificial / aprendizaje automático para guiar y acelerar
a los profesionales a través del proceso de construcción de modelos y operacionalización (ver "El
aprendizaje automático aumentado es democratizar la ciencia de datos" ). Algunos científicos expertos
en datos prefieren un enfoque aumentado, que les permite navegar por el proceso de construcción de
modelos y operacionalización de manera más eficiente y productiva.

Las plataformas dirigidas principalmente a desarrolladores de aplicaciones y analistas de negocios están


explícitamente excluidas: la ciencia de datos y los espacios de análisis tradicionales han estado
colisionando en múltiples puntos clave durante varios años. Además, muchos desarrolladores se están
educando sobre el aprendizaje automático y lo están incorporando a sus aplicaciones y software. Las
líneas entre roles y kits de herramientas continúan siendo borrosas. Sin embargo, sigue habiendo una
clara distinción entre los espacios de mercado en función de los tipos de usuarios previstos. Para
conocer las plataformas y servicios diseñados para estos grupos, consulte "Cuadrante mágico para
servicios de desarrollo de AI en la nube" (de próxima publicación) y "Cuadrante mágico para
plataformas de inteligencia de negocios de análisis y BI".

Un líder puede no ser la mejor opción: hay una amplia gama de productos DSML disponibles, todos los
cuales ofrecen una amplia y profunda capacidad y enfoques variados para desarrollar, operacionalizar
y administrar modelos. Por lo tanto, es importante evaluar sus necesidades específicas al evaluar a los
proveedores. Un proveedor en el cuadrante de Líderes, por ejemplo, podría no ser la mejor opción para
usted. Igualmente, un nicho de jugador podría ser la elección perfecta. Para obtener una revisión
exhaustiva de las capacidades funcionales de cada plataforma, consulte el
(próximamente) "Capacidades críticas para las plataformas de ciencia de datos y aprendizaje
automático". Tenga en cuenta que este Cuadrante Mágico incluye solo una pequeña selección de los
innumerables proveedores que ofrecen varias soluciones DSML.

Solo se incluyen proveedores con productos con licencia comercial: Las plataformas de código abierto
puro están excluidas de este Cuadrante Mágico. Solo se incluyen plataformas de código abierto con
licencia comercial. Sin embargo, reconocemos la tendencia bien establecida de las plataformas
comerciales que aprovechan componentes y bibliotecas de código abierto. Los proveedores toman
diferentes enfoques para incluir y apoyar el código abierto. Las soluciones de código abierto
representan una oportunidad para que los usuarios y proveedores comiencen con DSML con poca
inversión inicial (ver Nota 1). La innovación es acelerada dentro de la comunidad de código abierto y
el éxito de las nuevas tecnologías es altamente democrático. Además, muchos usuarios de plataformas
DSML ya son competentes o pueden aprender y aplicar fácilmente tecnologías de código abierto. Las
tecnologías de código abierto también se han vuelto omnipresentes en los planes de estudio
universitarios de ciencia de datos. Aprovechar el código abierto a través de la integración colaborativa
u orquestada con ofertas comerciales también reduce la necesidad de que los proveedores vuelvan a
crear capacidades específicas. Los proveedores pueden incorporar los mejores elementos de un
panorama de algoritmos y técnicas que cambia rápidamente, dejando más recursos para enfocarse en
otras áreas de diferenciación para sus plataformas. Sin embargo, la facilidad de uso y coherencia de
una plataforma puede verse afectada si su proveedor no tiene en cuenta las necesidades de todos los
tipos de usuarios.

Las plataformas deben soportar no solo la construcción de modelos sino también la operacionalización
del modelo: el beneficio completo, incluido el valor comercial, de DSML no se logrará a menos que los
modelos sean ambos:

Integrado en procesos de negocio y entornos de decisión.

Mantenido, monitoreado y administrado a lo largo del tiempo

Ha habido numerosos avances recientes en tecnología, procesos y desarrollo de talento. Sin embargo,
un porcentaje alarmante de modelos desarrollados con la intención de una implementación completa
nunca se ponen en funcionamiento. Hay muchas razones para esto, pero una crucial es la falta de
herramientas para habilitar y facilitar la operacionalización. La operacionalización (a menudo
denominada MLOps) se extiende a la revisión y el ajuste continuos de los modelos para garantizar su
relevancia a lo largo del tiempo a medida que el negocio y sus objetivos cambian. MLOps también
incluye funcionalidades clave como detección de deriva, catálogos, gobernanza, explicabilidad y análisis
de impacto empresarial.

La IA está sobrevalorada e ineludible: todos los DSML pueden clasificarse como inteligencia artificial
(IA), pero no todos los conceptos de AI deberían llamarse DSML. Aún así, las plataformas DSML no
pueden evitar verse arrastradas por el bombo sostenido en torno a la IA. Es poco probable que se
acuerde la semántica y no vale la pena luchar por ella. La exageración de la inteligencia artificial sin
duda aporta una valiosa atención y entusiasmo al espacio de la ciencia de datos. Pero sin educación,
disciplina y expectativas razonables, ese bombo puede hacer mucho más daño que bien. Los
proveedores en este Cuadrante Mágico han hecho un buen trabajo al aceptar la exageración mientras
se comunican y entregan claramente el valor y diferencian sus plataformas de otras soluciones de
inteligencia artificial.
La diversidad de las plataformas DSML refleja en gran medida la amplia gama de personas que las
utilizan. Por lo tanto, este Cuadrante Mágico está dirigido a una variedad de audiencias:

Científicos expertos en datos: Estas son las personas altamente solicitadas que poseen las habilidades
y el conocimiento para comprender y participar en todas las etapas del ciclo de vida de la ciencia de
datos. La mayoría de los científicos expertos en datos dedican la mayor parte de su tiempo y energía
a la creación de modelos, con roles de apoyo como ingenieros de datos e ingenieros de ML que se
encargan de la canalización de datos y las responsabilidades de MLOps. Los expertos titulares pueden
pasar a roles de administrador de ciencia de datos, utilizando plataformas para ganar visibilidad en la
cartera completa de proyectos de un equipo y facilitando la colaboración y la entrega oportuna de
valor. Algunos científicos expertos en datos trabajan principalmente de forma independiente en
soluciones "puntuales" y rara vez colaboran mucho con otros científicos o departamentos de datos
dentro de su organización.

Científicos de datos ciudadanos: Cada vez más, los científicos de datos ciudadanos están construyendo
modelos DSML. Estas son personas que necesitan acceso a las capacidades de DSML, pero que no
tienen las habilidades avanzadas de científicos expertos en datos. Los científicos de datos ciudadanos
pueden provenir de roles como analista de negocios, analista de línea de negocio (LOB), ingeniero de
datos y desarrollador de aplicaciones. Deben comprender la naturaleza del mercado DSML y cómo
difiere de, pero complementa, el mercado de análisis e inteligencia de negocios (BI) (ver "Cuadrante
mágico para plataformas de análisis e inteligencia de negocios" ). Los científicos de datos ciudadanos
no reemplazan a los científicos de datos expertos, sino que trabajan en colaboración con ellos.

Roles de soporte: Estos incluyen ingenieros de datos, desarrolladores, ingenieros de ML y otros roles. Si
bien no es responsable de la construcción, capacitación y prueba del modelo, el elenco de apoyo en los
equipos de ciencia de datos es vital para escalar las operaciones y garantizar la calidad de los datos y
la precisión constante del modelo.

Equipos de ciencia de datos de línea de negocio (LOB): por lo general, estos son patrocinados por su
ejecutivo de LOB y se encargan de abordar iniciativas dirigidas por LOB en áreas como marketing,
ventas, finanzas e I + D. Estos equipos se centran en las prioridades propias y de su departamento. Los
niveles de colaboración con otros equipos de ciencia de datos de LOB varían. Los equipos de ciencia de
datos de LOB pueden incluir científicos de datos expertos y ciudadanos. Los roles de soporte pueden
residir en el LOB o asignarse desde TI u otras áreas.

Equipos de ciencia de datos corporativos: estos tienen un patrocinio ejecutivo fuerte y amplio, y pueden
adoptar una perspectiva interfuncional desde una posición de visibilidad en toda la empresa. Además
del soporte de construcción de modelos, a menudo se les encarga definir y respaldar un proceso de
extremo a extremo para construir e implementar modelos DSML. A menudo trabajan en asociación con
equipos de ciencia de datos de LOB en organizaciones de varios niveles. Además, podrían proporcionar
asistencia a los equipos de LOB que no tienen sus propios científicos de datos. Los equipos corporativos
de ciencia de datos generalmente incluyen científicos expertos en datos. Los roles de soporte pueden
residir en el equipo corporativo de ciencia de datos o asignarse desde TI u otras áreas.
Cuadrante mágico

Figura 1. Cuadrante mágico para plataformas de ciencia de datos y aprendizaje automático


Fuente: Gartner (febrero de 2020)
Ventajas y precauciones del vendedor

Altair
Altair tiene su sede en Troy, Michigan, EE. UU. En diciembre de 2018, Altair completó su adquisición
de Datawatch, que había adquirido Angoss y sus principales componentes de productos de ciencia
de datos en enero anterior. La cartera de productos Datawatch ahora se conoce como Altair
Knowledge Works y el producto central considerado para esta evaluación del Cuadrante Mágico es
Knowledge Studio. La suite Knowledge Works también incluye Knowledge Studio para Apache
Spark, Knowledge Seeker, Knowledge Hub, Knowledge Manager, Panopticon y Monarch.
La comunidad de usuarios en línea de Knowledge Works brinda a los clientes la capacidad de
colaborar y aprender con otros usuarios finales y profesionales de la ciencia de datos que utilizan
este conjunto de productos. Con este fin, Altair ofrece una serie de días de capacitación para clientes
en varias ciudades.
Más allá del soporte al cliente normal, el soporte in situ y premium está disponible a un precio
negociado. Altair también ofrece una variedad de servicios de consultoría y servicios gestionados
para apoyar la construcción y la implementación de modelos.
Altair ingresa a este Cuadrante Mágico como un jugador de nicho (tanto Datawatch como Angoss
fueron jugadores de nicho en los dos años anteriores). Los puntajes por su integridad de visión y
capacidad de ejecución se ven atenuados por los riesgos e incertidumbres asociados con la segunda
adquisición de la suite de productos en tantos años. Altair puede ser el hogar ideal para las carteras
combinadas en evolución de Datawatch y Angoss, pero un período de transición está en
curso. Knowledge Studio también se ha quedado atrás en varias áreas de alta actividad de
proveedores, incluyendo DSML aumentado, MLOps y casos de uso de vanguardia.
Fortalezas

Facilidad de uso y equilibrio del atractivo codificador y no codificador: la IU altamente calificada de


Knowledge Studio atraerá a profesionales de la ciencia de datos orientados visualmente. Los
codificadores también encontrarán un entorno flexible para explotar lo mejor de Python y R. Este doble
atractivo es necesario en la mayoría de los equipos modernos de ciencia de datos. La interfaz tiene la
oportunidad de ampliar y fortalecer su atractivo al agregar capacidades DSML aumentadas.

Satisfacción del cliente: Altair hereda un fuerte legado de éxito del cliente con Knowledge Works. Los
clientes están contentos en múltiples puntos de contacto con Altair. Esto incluye administración de
cuentas, integración e implementación, y servicio y soporte general.

Potencial en nuevas industrias y desarrollo con otros productos de Altair: Knowledge Works seguirá
siendo conocido por sus puntos fuertes tradicionales (árboles de decisión, casos de uso de servicios
financieros). La integración con los productos de Altair y una estrategia holística abrirá una gama más
amplia de oportunidades. Altair está posicionada para presentar Knowledge Works a nuevos mercados
y canales de ventas.
Precauciones

Segunda adquisición de la cartera de productos en dos años: todas las adquisiciones, sin importar cuán
estratégicas y combinadas, conllevan incertidumbre y riesgo. Al permitir un período de transición, Altair
no puede retrasar las actualizaciones importantes y las entregas de la hoja de ruta que los clientes y
posibles clientes exigen. El desafío que enfrenta Altair es continuar integrando y optimizando la
adquisición de Datawatch mientras posiciona y avanza Knowledge Works en un mercado acelerado y a
menudo brutalmente competitivo.

Lagunas en la visión y la oferta actual: Altair necesita ponerse al día con los líderes de opinión en áreas
clave como DSML aumentado, MLOps e IA explicable. Se necesita un soporte más fuerte para la
contenedorización y Kubernetes. Altair necesitará mejorar en estas áreas para mantener el atractivo de
los expertos y la participación de los científicos de datos ciudadanos.

Adopción más lenta en comparación con la competencia: la adopción en el mercado de los productos
básicos de Knowledge Works ha sido lenta en comparación con las ofertas de la
competencia. Particularmente en los últimos dos años, mientras que Knowledge Works ha cambiado
de manos, varios competidores han sostenido el hipercrecimiento y desarrollado productos líderes en
el mercado.
Alteryx
Alteryx tiene su sede en Irvine, California, EE. UU. Proporciona cuatro productos de software que
comprenden su plataforma DSML: Alteryx Connect, Alteryx Designer, Alteryx Server y Alteryx
Promote. Alteryx Designer es el producto principal.
Alteryx alberga una comunidad Alteryx que proporciona a los clientes, socios y asociados de Alteryx
una plataforma para interactuar entre ellos. Alteryx organiza anualmente conferencias de Alteryx
Inspire en Norteamérica, Europa y Australia. El proveedor proporciona un soporte global multilingüe
para clientes fuera de las oficinas de EE. UU., Reino Unido, Australia y Singapur.
Alteryx ha vuelto a su posición de Líder en 2018, de ser un Retador en 2019, al demostrar una
sólida visión de compañía y producto, especialmente en relación con DSML aumentado y
automatización de procesos. El proveedor continúa superando a casi todos los demás proveedores
en este Cuadrante Mágico desde una perspectiva de crecimiento de ingresos y ha expandido
significativamente su negocio a nivel internacional.
Alteryx ha hecho un progreso significativo en cambiar la percepción de que es únicamente un
proveedor de preparación de datos. Realizó dos adquisiciones estratégicas (ClearStory Data y
Feature Labs) en 2019 para ampliar las capacidades de su plataforma. ClearStory Data proporciona
una solución que permite la automatización del análisis de datos complejos y datos no estructurados
en plataformas de procesamiento de datos a gran escala como Apache Spark. Feature Labs
automatiza la ingeniería de características, la creación de aplicaciones de IA y el proceso de
preparación de datos para ayudar a mejorar la precisión del modelo y la eficiencia general del
proceso. La adquisición de Feature Labs ocurrió después del corte para este informe de investigación
y no se consideró en la calificación.
Fortalezas

Percepción y ejecución del mercado: el enfoque de Alteryx en abordar el proceso analítico de extremo
a extremo lo posiciona claramente como un proveedor con una plataforma integral. El mercado ya no
lo ve simplemente como un proveedor de preparación de datos. La propuesta de valor de Alteryx es
clara y resonante en el mercado, como lo demuestran sus fuertes ingresos y crecimiento de clientes.

Enfoque sin código: el enfoque sin código de Alteryx es atractivo para las organizaciones que desean
usar ML pero necesitan una plataforma fácil de usar creada para analistas de negocios y científicos de
datos ciudadanos. El proveedor proporciona cientos de bloques de construcción de automatización para
que los usuarios creen rápidamente flujos de trabajo de análisis, ciencia de datos y automatización de
procesos. La plataforma puede integrarse directamente con soluciones de automatización de procesos
robóticos (RPA) y aplicaciones empresariales para automatizar la ejecución de tuberías ML y procesos
comerciales.

Una comunidad sólida y en crecimiento: Alteryx ha creado una comunidad de usuarios en línea
comprometida para compartir conocimientos y responder preguntas. Su foro en línea ofrece ejercicios
de desafío para ayudar a los usuarios a mejorar su conocimiento del producto. Además, ofrece tres
conferencias anuales de usuarios (EE. UU., Europa y APAC) que están creciendo rápidamente.
Precauciones

Precios: el alto precio de Alteryx sigue preocupando a algunos clientes que tienen opciones de código
abierto y otras de menor costo en el mercado, y esto puede limitar el uso más amplio en todas las
organizaciones. Algunos clientes informan de la complejidad de las licencias y de que los usuarios
nombrados y el núcleo de la CPU les cobran La falta de descuentos por volumen también limita el uso
más amplio de la plataforma dentro de las organizaciones.

Compatibilidad con Linux: de los cuatro productos Alteryx, solo promover se ejecuta en el sistema
operativo Linux; CentOS es la única distribución compatible. Alteryx Connect and Server solo se ejecuta
en el sistema operativo Microsoft Windows Server. Esto puede ser un problema para las organizaciones
que no admiten Windows Server.

Capacidades de transmisión / Internet de las cosas (IoT): Alteryx tiene capacidades limitadas para
admitir la transmisión / IoT, que es importante para la toma de decisiones en tiempo real. Los ejemplos
de casos de uso incluyen los relacionados con IoT y logística, como la predicción de fallas, la gestión
de activos y la optimización de la cadena de suministro.
Anaconda
Anaconda tiene su sede en Austin, Texas, EE. UU. Ofrece Anaconda Enterprise (este análisis
excluye la versión de Distribución de Anaconda), un entorno de desarrollo de ciencia de datos
basado en el concepto de cuaderno interactivo que apoya a los usuarios en el uso de paquetes de
código abierto basados en Python y R. Anaconda continúa proporcionando un entorno de
distribución débilmente acoplado, que ofrece acceso a una amplia gama de paquetes de código
abierto y bibliotecas de código abierto, principalmente basadas en Python.
La compañía está comprometida con una comunidad muy grande y comprometida de usuarios de
código abierto y empresariales cuyas necesidades son un motor importante de las innovaciones de
Anaconda. AnacondaCON es la conferencia anual del vendedor. La comunidad activa es una fuente
importante de soporte al usuario, aunque los clientes empresariales también pueden confiar en un
servicio de soporte y servicios profesionales.
Anaconda sigue siendo un jugador nicho en el Cuadrante Mágico de este año. Se adapta bien a los
científicos de datos que adoptan Python o R y que están ansiosos por explorar un flujo continuo de
nuevas capacidades de código abierto, a la vez que se benefician de un entorno más estructurado
e integrado que un entorno de notebook puro. Sin embargo, esta flexibilidad tiene el precio de la
falta de automatización y la complejidad de encontrar el camino en un rango de capacidades de
código abierto que cambia con frecuencia.
Recientemente, Anaconda ha mejorado aún más su escalabilidad para atender a un mayor número
de usuarios concurrentes. Un mejor soporte para las implementaciones de unidades de
procesamiento de gráficos y seguridad (GPU) son otras mejoras notables.
Fortalezas

Python y soporte de código abierto: la popularidad de Python entre los científicos de datos le da a
Anaconda una gran visibilidad para los desarrolladores. Anaconda ofrece a sus usuarios acceso
consolidado a Python, R y otras herramientas de código abierto, bibliotecas e innovaciones rápidamente
integradas.

Comunidad activa: Anaconda es el único proveedor de ciencia de datos que no solo respalda sino que
también protege a la comunidad de código abierto de Python. La comunidad fomenta las bibliotecas de
código Python de vanguardia y la integración con otros proyectos de ciencia de datos de código
abierto. Anaconda Cloud proporciona medios de colaboración e intercambio de bibliotecas de códigos
para que los científicos y desarrolladores de datos exploren y aceleren la producción de desarrollo de
modelos.

Desarrollo escalable para bibliotecas de código abierto: la escalabilidad de Anaconda toma varias
formas. Los usuarios pueden escalar cargas de trabajo con GPU y pueden aprovechar Apache Hadoop,
Apache Hadoop YARN o clústeres de Kubernetes, en las instalaciones o en la nube.
Precauciones
Diseñado para expertos: Anaconda se dirige a científicos de datos experimentados que a menudo están
familiarizados con Python, R y portátiles como Jupyter. A pesar de la flexibilidad de estos entornos, no
conducen a discusiones fructíferas con las partes interesadas del negocio, una capacidad que cada vez
es más valorada por las organizaciones que desean mejorar la alineación entre la ciencia empresarial y
de datos.

Deficiencias de código abierto : al igual que muchos promotores de código abierto, Anaconda sufre los
inconvenientes habituales asociados con comunidades de desarrolladores grandes y flexibles:
problemas de compatibilidad entre paquetes y versiones; resultados inciertos de proyectos nuevos, a
veces superpuestos; y, a pesar del progreso continuo en términos de homogeneidad del banco de
trabajo, desafíos con coherencia general, especialmente para usuarios no expertos.

Automatización y operacionalización: el entorno de Anaconda está rezagado en capacidades como


autoML, MLOps y explicabilidad. Los usuarios novatos de Anaconda tendrán dificultades para encontrar
su camino a través de la "jungla" de Python. Los científicos de datos ciudadanos se encontrarán en un
territorio desconocido dentro del entorno de Anaconda.
Databricks
Las oficinas centrales de Databricks se encuentran en San Francisco, California, EE. UU. La
Plataforma de análisis de datos unificada del proveedor abarca la ciencia de datos, ML e ingeniería
de datos, haciendo hincapié en la facilidad de automatización de la infraestructura y la
escalabilidad. Arraigado en Apache Spark, Databricks sigue contribuyendo a la comunidad de código
abierto liderando MLflow, Delta Lake y Koalas. Su plataforma comercial permite a los clientes
mantenerse al día con una variedad de lanzamientos y actualizaciones rápidas de marcos y
bibliotecas de código abierto populares, que Databricks empaqueta y optimiza en ML Runtime.
Databricks ha liderado la comunidad Apache Spark con dos Cumbres Spark + AI en los EE. UU. Y
Europa, y con numerosas reuniones en todo el mundo. La compañía desarrolla constantemente sus
programas de capacitación y certificación. Cuenta con un equipo de soporte global y ofrece varios
niveles de soporte según el tamaño de la implementación y los tiempos de respuesta requeridos.
El año pasado, Databricks demostró una fuerte ejecución del desarrollo de productos, el crecimiento
de los ingresos y la satisfacción del cliente, especialmente en el sector empresarial, así como la
expansión internacional en Europa y Asia / Pacífico. Los clientes de referencia indicaron que un
detalle clave en su selección de la plataforma Databricks fue la hoja de ruta del producto y la visión
de futuro del proveedor. Estos dos factores apuntalan la posición de Databricks como Líder en este
Cuadrante Mágico.
Fortalezas

Fuerte ejecución, expansión y asociaciones: Databricks exhibió una fuerte ejecución y el consiguiente
crecimiento en múltiples industrias y geografías. Su estrategia de ventas verticales funciona bien para
sus clientes. El crecimiento de Databricks también proviene de una estrategia bien ejecutada para
desarrollar un ecosistema de socios de más de 500 empresas en todo el mundo.

Compromiso con el éxito del cliente: Databricks tiene como objetivo entregar rápidamente valor desde
la plataforma con servicios de consultoría, servicios profesionales y educación. Los clientes de
referencia elogiaron especialmente a sus ingenieros de éxito de clientes que trabajan con ellos lado a
lado.
Databricks está ampliando la escalabilidad: la plataforma Databricks permite la escalabilidad de
implementaciones de modelos ML, flujos de trabajo ML basados en notebook, automatización de
trabajos y gestión de infraestructura de datos y tuberías. Los clientes de referencia elogiaron
especialmente su gestión de clúster fácil y escalable.
Precauciones

Gran inclinación hacia la audiencia técnica: los mensajes de Databricks a su audiencia principal son
técnicos. El proveedor se basa en las relaciones con los desarrolladores y la promoción. Una solución
patentada de cuaderno de ciencia de datos, Databricks Notebooks, es el método dominante para que
los científicos de datos desarrollen soluciones en la plataforma. Databricks Unified Data Analytics
Platform tiene una barrera de entrada relativamente baja para los científicos e ingenieros de datos con
antecedentes en codificación. Sin embargo, la adopción es más difícil para los analistas de negocios y
otros científicos de datos ciudadanos emergentes.

No hay ofertas locales disponibles en general: la oferta Databricks generalmente está disponible solo
en nubes públicas seleccionadas. Una plataforma de Databricks local puede adquirirse como una
implementación única del proveedor. Actualmente también está disponible a través de un tercero, el
socio OEM de la compañía, Booz Allen Hamilton, como parte de su oferta de Open Data Platform.

La estrecha asociación con Spark minimiza a Databricks como una plataforma DSML: muchos clientes
eligieron Databricks no porque estaban buscando una plataforma DSML, sino porque estaban
interesados en opciones para ejecutar Apache Spark. Estos clientes tenían Hadoop o un lago de datos
en Amazon Web Services o en Microsoft Azure, y ven a Databricks como una plataforma de
procesamiento de datos, donde ML está en segundo plano. Las empresas que no están interesadas en
Spark a menudo no consideran Databricks como una opción de plataforma DSML.
Dataiku
Dataiku tiene su sede en la ciudad de Nueva York, EE. UU., Y una oficina principal en París,
Francia. El producto principal de Dataiku es Data Science Studio (DSS), que se centra en la
colaboración entre disciplinas y la facilidad de uso.
Dataiku tiene una comunidad de usuarios en línea que se reúne en varias conferencias anuales
tanto en los EE. UU. Como en Europa. Junto con los socios, esta comunidad puede proporcionar y
compartir complementos a través de un mercado para ampliar las ofertas estándar de
Dataiku. Dataiku ha ampliado su ecosistema de alianzas, socios y revendedores para incluir más de
80 organizaciones en todo el mundo. Ofrece soporte de acuerdo con SLA específicos de licencia, así
como servicios profesionales para estrategia, desarrollo, implementación y capacitación.
Dataiku se posiciona como líder este año. Esto se debe principalmente a su facilidad de uso, visión
y capacidad para admitir múltiples tipos de usuarios en colaboración, desde ingenieros de datos y
científicos de datos hasta científicos de datos ciudadanos. En 2019, Dataiku continuó fortaleciendo
sus capacidades en relación con la escalabilidad, la gobernanza de datos y el ML aumentado. Se ha
convertido en una plataforma madura, que admite una variedad de casos de uso. Dataiku podría
mejorar aún más su posición al ampliar sus funcionalidades analíticas avanzadas y en tiempo real
para admitir casos de uso de IoT y automatización de decisiones.
Fortalezas

Colaboración entre roles de ciencia de datos: desde su inicio, el trabajo en equipo ha sido el núcleo de
la plataforma DSS de Dataiku. Todos los roles principales involucrados en el desarrollo de modelos
DSML tienen su lugar en la plataforma. DSS ofrece varios puntos finales de UI, todos apuntando al
mismo núcleo de ejecución, lo que lo convierte en una de las ofertas más coherentes evaluadas en este
Cuadrante Mágico.

Facilidad de uso: las cualidades de Dataiku más destacadas por los clientes son que su plataforma es
relativamente fácil de aprender y proporciona un camino rápido hacia la productividad. Las capacidades
de ML aumentadas y la posibilidad explícita de entregar modelos interpretables o "caja blanca" también
contribuyen a la sensación intuitiva de la plataforma y a la corta curva de aprendizaje. Sin embargo,
los científicos expertos en datos también pueden desarrollar en estilo portátil.

Gobierno de datos: el año pasado, DSS amplió sus capacidades para respaldar el gobierno y el
cumplimiento de GDPR y otras leyes y regulaciones. Esto incluye seudonimización de datos, resaltado
de datos confidenciales para recordar a los usuarios las reglas y procesos de protección de datos y
acceso restringido a proyectos confidenciales y fuentes de datos. El enfoque marco permite la
incorporación de múltiples políticas y regulaciones internas y externas.
Precauciones

Análisis avanzado: Dataiku ha mejorado su soporte para análisis de gráficos y series temporales, pero
no parece priorizar las capacidades de simulación y optimización, que son cada vez más importantes
en el contexto de la automatización de decisiones. Se anuncia el soporte para el procesamiento de
reglas, pero aún no está disponible.

Soluciones preescaneadas: Dataiku no ofrece soluciones horizontales o verticales, para lo cual se basa
en complementos proporcionados por socios u otros terceros. Aunque tiene sentido que el proveedor
quiera centrarse en desarrollar y ofrecer una plataforma genérica para democratizar aún más la ciencia
de datos, Dataiku debe continuar fortaleciendo aún más su ecosistema de socios para enriquecer su
oferta con soluciones para catalizar la adopción de la ciencia de datos.

Streaming y el IoT: el DSS de Dataiku parece ser favorecido por las organizaciones centradas en el
servicio y, en menor medida, las de las industrias intensivas en activos. Esto podría explicarse por el
hecho de que Dataiku no ofrece fuertes capacidades de IoT y funciones analíticas en tiempo real, que
a menudo se asocian con casos de uso centrados en los activos.
DataRobot
DataRobot , con sede en Boston, Massachusetts, EE. UU., Proporciona una plataforma DSML
aumentada, que incorpora la automatización en todo el proceso de análisis de extremo a
extremo. La plataforma permite a los científicos de datos ciudadanos tener acceso productivo y
utilizar técnicas de ciencia de datos y científicos de datos expertos para obtener eficiencia y acceso
a nuevos algoritmos, así como sesgos de prueba.
El plan de éxito de AI ofrecido por DataRobot permite el soporte de preventa y posventa a través
de un equipo de ingenieros de campo, gerentes de éxito de IA, ejecutivos de cuentas y científicos
de datos (CFDS) orientados al cliente. El equipo trabaja con los clientes para identificar y priorizar
proyectos y proporciona orientación, soporte y capacitación para llevar los modelos a producción y
mantenerlos a lo largo del tiempo.
La amplia red de asociaciones e integraciones de DataRobot continúa creciendo, con un nuevo sitio
de comunidad de usuarios lanzado en octubre de 2019 para facilitar las comunicaciones entre los
usuarios y la comunidad de DataRobot (después del corte para su inclusión en la evaluación del
Cuadrante Mágico). El proveedor realiza conferencias anuales de usuarios regionales en ubicaciones
de todo el mundo.
DataRobot ha mantenido su posición como visionario. Adquirió Cursor, una plataforma de
colaboración de datos, en febrero de 2019; ParallelM, una plataforma MLOps en junio de 2019; y
Paxata, un proveedor de preparación de datos, en diciembre de 2019 (después del corte para su
inclusión en la evaluación del Cuadrante Mágico). Junto con la adquisición de Nutonian en 2017
para el modelado de series temporales aumentadas y Nexosis en 2018, DataRobot continúa
desarrollando sus capacidades de extremo a extremo para un conjunto diverso de usuarios.
Fortalezas

La analítica aumentada pensó en liderazgo y atractivo para una amplia combinación de


usuarios: DataRobot lidera la carga de incorporar analítica aumentada dentro de DSML. Continúa
definiendo y demostrando el uso de la analítica aumentada para involucrar a nuevos tipos de usuarios
en colaboración con los roles tradicionales. DataRobot proporciona capacidades beneficiosas para una
amplia variedad de roles, incluidos desarrolladores, científicos de datos, estadísticos y analistas de
negocios.

Aumento de la tracción del mercado: DataRobot mantiene una sólida tracción en el mercado con un
crecimiento significativo en los ingresos, el número de usuarios y el reconocimiento de nombres
globales. Esto es atribuible a una comercialización y ventas efectivas, así como a un excelente soporte
continuo a través de CFDS y asistencia en el producto.

Incorporación y soporte prácticos: El Plan de Éxito de IA y su equipo asociado ayuda a los usuarios a
desarrollar competencia interna en ciencia de datos, reconocer y priorizar proyectos, impulsar iniciativas
y lograr un tiempo rápido para obtener información. DataRobot también agrega rápidamente mejoras
de productos y responde a las solicitudes de los clientes.
Precauciones

Percibido como una herramienta introductoria y elemental para los no expertos: algunos clientes
muestran preocupación por la capacidad de DataRobot para abordar modelos difíciles o
complejos. Algunos han considerado otras plataformas ya que sus necesidades han madurado y crecido
para ser cada vez más en toda la empresa. DataRobot necesita cambiar esta percepción del mercado,
ya que la construcción de modelos aumentados se está convirtiendo rápidamente en un producto básico
tanto en el mercado de DSML como de análisis y BI.

El enfoque del Plan de Éxito AI requiere muchos recursos: aunque el uso de CFDS ha funcionado bien,
será difícil mantener el enfoque si el crecimiento se mantiene en los altos niveles actuales y los clientes
no hacen una transición rápida de la dependencia de los CFDS. DataRobot está ampliando su Plan de
éxito de IA, pero también debe centrarse más en su intención de hacer que los clientes sean
autosuficientes, especialmente dado el enfoque aumentado de la plataforma, fácil de usar.

Problemas de costos: si bien la mayoría de las referencias de clientes indicaron que DataRobot
proporciona una buena relación calidad-precio, la percepción es que el costo sigue siendo alto. Los
costos de licencia han eliminado a DataRobot de la consideración de algunas organizaciones. Los
problemas de costos también han limitado la capacidad de algunos clientes para implementar la
plataforma de manera más amplia.
dominó
Domino tiene su sede en San Francisco, California, EE. UU. Domino es la plataforma industrial, rica
en funciones y agnóstica de herramientas para DSML de extremo a extremo en la nube o en las
instalaciones. Domino puede servir (y ya sirve) como una plataforma DSML central en empresas
con comunidades de ciencia de datos grandes y poco acopladas. Se adapta a herramientas dispares
y proporciona un entorno transparente, escalable y colaborativo.
La conferencia anual dirigida por Domino, Rev, para los líderes y equipos de ciencia de datos duplicó
su asistencia en 2019. La calificación de referencia del cliente del proveedor en cuanto a soporte y
servicio fue una de las más altas de todos los proveedores evaluados. Domino tiene como objetivo
ayudar a los equipos de ciencia de datos a aprovechar al máximo su software y permitir a los clientes
ser autosuficientes en la implementación, monitoreo y uso de la plataforma Domino.
Domino se posiciona como un visionario en este Cuadrante Mágico en gran parte debido al progreso
de su producto y su hoja de ruta, los cuales manifiestan la profunda comprensión del mercado DSML
del proveedor. Domino permite con éxito a las empresas en sus implementaciones de fuerza
industrial. En el futuro, el proveedor necesita continuar su crecimiento y mejorar su
comercialización, visibilidad en el mercado y presencia internacional.
Fortalezas

Centro del ecosistema ML empresarial: la arquitectura abierta de Domino ayuda a consolidar todos los
activos de ciencia de datos y las cargas de trabajo dentro de una sola plataforma. La plataforma
realmente ayuda a los equipos de ciencia de datos a organizar y racionalizar el flujo de trabajo de ML,
desde la gestión del entorno hasta la reproducibilidad y la implementación final, incluida la supervisión
adicional.

Habilitación y colaboración empresarial: los clientes de referencia eligieron Domino para mejorar los
resultados de los procesos empresariales y apoyar la colaboración entre los usuarios empresariales y
los equipos de ciencia de datos. El entorno altamente colaborativo permite intercambios valiosos dentro
de los equipos de ciencia de datos y permite a los gerentes y partes interesadas del negocio seguir los
resultados y el progreso. Las licencias para usuarios comerciales son gratuitas. Domino proporciona un
seguimiento del rendimiento empresarial que muestra la participación en el punto final para las API,
aplicaciones y otros activos publicados.

Gobierno y auditoría: las capacidades de gobierno y auditoría refuerzan Domino como una plataforma
de nivel empresarial. Su nuevo seguimiento de experimentos es completo y especialmente atractivo
para las industrias reguladas. Domino puede orquestar líneas de procesamiento de datos y ML a través
de partes internas y externas a través de un marco gobernado.
Precauciones

Estrategia de asociación: Domino tiene buenas asociaciones con algunos proveedores de nube e
integradores de sistemas. Aún así, una red de socios más grande y más amplia podría entregar su
producto a las empresas que lo necesitan, aumentar la visibilidad del proveedor en el mercado DSML
y ayudar a impulsar su éxito financiero.

Domino está orientado a equipos grandes: la colaboración de Domino, la gestión de experimentos y


otras características empresariales sirven muy bien a los equipos grandes, pero sería excesivo para los
equipos con solo unos pocos científicos de datos. Las empresas con programas de ciencia de datos
menos maduros podrían no beneficiarse inmediatamente de una plataforma orientada a una comunidad
de ciencia de datos, en lugar de científicos de datos individuales.
Precios inflexibles: las negociaciones de precios y contratos de Domino inhiben la aceptación del
producto. El modelo de licencia del proveedor necesita una mayor flexibilidad para adaptarse a diversos
escenarios de implementación y expansión dentro de la empresa. Esto es especialmente importante
para las empresas grandes y distribuidas donde la plataforma Domino es más atractiva.
Google
Google , con sede en Mountain View, California, EE. UU., Ofrece la plataforma Google Cloud AI
como su plataforma DSML principal. La plataforma tiene un conjunto ampliado de productos que
incluye Cloud AutoML, BigQuery ML y TensorFlow.
Google tiene una de las pilas de ML más grandes de la industria. Esto incluye hardware, un marco
de aprendizaje profundo de primer nivel (TensorFlow), potentes API de IA e infraestructura de
ejecución masiva en la nube. Con su compromiso con Kubeflow, se ejecuta cada vez más en un
paradigma de "ejecutar en cualquier lugar".
Sin embargo, la plataforma Google Cloud AI Platform no es actualmente un producto
independiente. Para una línea completa de ML de extremo a extremo, los clientes requieren la
presencia de una variedad de otros productos de Google Cloud (por ejemplo, Cloud Data Fusion,
Data Studio, Datalab, Deep Learning Containers, BigQuery, Anthos) y productos que no son de
Google (por ejemplo, , Kubernetes y Cloud Dataprep por Trifacta).
Google Cloud tiene un fuerte énfasis en apoyar a los desarrolladores, científicos de datos y expertos
en ML, especialmente a la vanguardia. Proporciona muchos tutoriales en video, reuniones y
conferencias de vanguardia (por ejemplo, Google Cloud Next). La colaboración se fomenta aún más
por su comunidad AI Hub y Kaggle, que atiende a 3,5 millones de usuarios. Google Cloud tiene un
amplio conjunto de asociaciones, incluidos cientos de integradores de sistemas, y está ampliando
su conjunto de servicios de ML.
Google se posiciona como un visionario en este cuadrante mágico. Si bien es una excelente opción
para el talento científico de datos de primer nivel, Google Cloud sigue mejorando las capacidades
de los científicos de datos ciudadanos. En el futuro, hacer que la plataforma sea más coherente y
más accesible para los equipos de ciencia de datos menos avanzados debería ser una de las
principales prioridades.
Fortalezas

Énfasis en los problemas de ciencia de datos de vanguardia: para los desarrolladores, Google Cloud AI
Platform ofrece un marco de ejecución masivo, Google Cloud Platform (GCP), y muchas rutas diferentes
para desarrollar modelos ML (Cloud AutoML, TensorFlow, BigQuery ML, Kubeflow, Notebooks y una
variedad de opciones de código abierto). Google tiene una sólida cartera de API de IA (que van desde
procesamiento de texto, audio e imagen hasta video) y numerosos paquetes de primer nivel para el
manejo e integración de datos a gran escala (por ejemplo, BigQuery y Data Fusion).

Innovación: la plataforma AI de Google Cloud ofrece escalabilidad de alta gama y capacidades


integradas de etiquetado de datos. Su AI Hub (todavía en versión beta pública) es una de las
implementaciones más prometedoras de un mercado global de algoritmos que fomenta la colaboración
y las capacidades de reutilización. AI Hub puede servir como repositorio de modelos y almacenamiento
de características y canalizaciones internamente. Google Cloud también ofrece un fuerte soporte para
la transmisión de datos con Cloud Dataproc y Cloud Dataflow.

Escalabilidad: la plataforma AI de Google Cloud ofrece una infraestructura de nube administrada para
escalar automáticamente diferentes configuraciones de hardware, desde medianas hasta
ultragrandes. Incluye hardware y aceleradores en la nube, como el escalado automático del clúster de
Google Kubernetes Engine (GKE) y los pods de la Unidad de procesamiento del tensor en la nube (TPU).
Precauciones

Gran huella y curva de aprendizaje: la creación de una tubería de desarrollo de ML completa con la
plataforma AI de Google Cloud puede ser un desafío, especialmente para los equipos de ciencia de
datos pequeños y medianos que carecen de conocimiento de infraestructura GCP. Pero incluso para los
desarrolladores experimentados de GCP, la cadena de herramientas de la Plataforma AI involucra
múltiples componentes interconectados y tiene una curva de aprendizaje significativa.

Todavía una línea de ML incoherente y falta de soporte de gestión de proyectos: la cadena de


herramientas aún no está adaptada homogéneamente a las necesidades de los proyectos de ciencia de
datos. En cambio, las herramientas de Google Cloud se utilizan para muchos otros fines de la
industria. La reutilización de las tuberías experimentales parciales es difícil. La hoja de ruta de Google
sugiere que estos problemas se abordarán en futuras versiones de AI Hub.

Beta persistente y capacidades locales limitadas: al igual que en la evaluación del año pasado, muchas
de las capacidades más diferenciadas de Google Cloud todavía están en beta pública (por ejemplo, AI
Hub, AI Platform Data Labeling Service, Cloud AutoML Tables). Además, algunos componentes
innovadores como AutoML y todas las API de AI todavía no están disponibles en las instalaciones.
H2O.ai
H2O.ai tiene su sede en Mountain View, California, EE. UU. Ofrece un producto comercial llamado
H2O Driverless AI y soporte para el producto de código abierto H2O-3 (llamado Agua con gas en
una versión que está integrada con Apache Spark). Además, hay un paquete ML de código abierto
acelerado por GPU llamado H2O4GPU. Entre las fortalezas del proveedor están su ML de alto
rendimiento y su visión sobre tendencias importantes como la ciencia de datos aumentada y la
explicabilidad.
H2O.ai proporciona soporte al cliente global, complementado por un canal de holgura de la
comunidad. Para asesoramiento y consultas, H2O.ai proporciona acceso a sus expertos científicos
de datos y a Kaggle Grandmasters como parte de todos los compromisos comerciales. H2O.ai tiene
una amplia gama de socios y ha comenzado a trabajar con algunos de ellos para desarrollar sus
primeras soluciones para áreas comerciales o industrias específicas.
H2O.ai ha mantenido su posición como Visionario del Cuadrante Mágico del año pasado. Su
integridad de visión es la más sólida entre los proveedores evaluados, mientras que su capacidad
de ejecución en términos de visibilidad y presencia en el mercado global probablemente mejore
como resultado de los esfuerzos de expansión en curso en Europa y Asia.
Fortalezas

Aumento (automatización): H2O Driverless AI facilita la adopción de DSML al ofrecer aumento en


múltiples áreas. Proporciona ingeniería de características aumentadas, incluidas las funciones de
procesamiento de lenguaje natural (PNL) para convertir atributos de texto en características. Del mismo
modo, la selección de modelos y el ajuste de hiperparámetros pueden automatizarse. El aumento se
utiliza para reducir la complejidad del análisis de series temporales o para crear visualizaciones de las
estadísticas más relevantes. La IA sin controlador se puede ampliar y personalizar con componentes de
código abierto que están disponibles a través de un catálogo de "recetas".
Explicabilidad: H2O.ai establece un ejemplo al proporcionar una funcionalidad de explicabilidad rica,
utilizando diversas técnicas como K-LIME, LIME-SUP, Shapley, importancia variable, árbol de decisión
sustituto, ICE, parcelas de dependencia parcial, análisis de impacto dispares y "qué pasa si análisis." La
capacidad AutoDoc genera automáticamente un conjunto completo de explicaciones en formato de
documento.

Componentes ML de alto rendimiento: los componentes ML de código abierto de H2O.ai establecen un


estándar para la industria, con muchas otras plataformas que los integran. Tanto las ofertas comerciales
como las de código abierto están disponibles en todas las nubes principales. Los componentes del
proveedor están altamente optimizados y paralelizados para configuraciones de múltiples núcleos y
multinodos de CPU. H2O4GPU ofrece una capa de software para una aceleración de GPU significativa.
Precauciones

Cohesión limitada entre la IA sin conductor de H2O y la plataforma de código abierto: aunque la línea
de productos de código abierto de H2O.ai puede compartir resultados a través de la nueva capacidad
de "receta" con la IA sin conductor de H2O, su separación aún impide la colaboración potencial de
usuarios empresariales con habilidades diferentes. Las ofertas competitivas, con una mayor
participación en el mercado de la ciencia de datos ciudadanos, brindan soluciones más integrales y
colaborativas.

Falta de ciertas capacidades de acceso y preparación de datos: en contraste con sus fuertes
capacidades en ML, H2O.ai tiene margen para mejorar el acceso a los datos y los aspectos de la
preparación de datos. Estos incluyen actualización de datos, linaje de datos, control de acceso, gestión
de metadatos y catálogos de datos, acceso a datos a través de API REST, marca de agua, etiquetado
y anotación.

Otros análisis avanzados: H2O.ai no parece priorizar las técnicas complementarias y alternativas
necesarias para IoT o casos de uso de automatización de decisiones, como procesamiento de flujo,
análisis de gráficos, análisis geoespacial, eventos discretos o simulaciones basadas en agentes, diseño
de experimentos de optimización y decisión administración.
IBM
IBM tiene su sede en Armonk, Nueva York, EE. UU. Su producto principal considerado para este
Cuadrante Mágico es Watson Studio. La cartera de productos de soporte para Watson Studio incluye
Watson Machine Learning, Watson Knowledge Catalog, Watson OpenScale, SPSS (Modeler and
Statistics), IBM Decision Optimization para Watson Studio e IBM Streams.
IBM celebra numerosas conferencias de usuarios grandes, junto con eventos y talleres específicos
de dominio y regionales. También participa en varias comunidades de ML de código abierto,
incluidas TensorFlow, PyTorch, Apache Spark y Kubeflow.
IBM brinda soporte a su base global de clientes utilizando una variedad de canales y modelos. Los
planes de soporte van desde soporte digital gratuito a pedido hasta modelos con personal completo.
IBM es el único Retador en el Cuadrante Mágico de este año. Con Watson Studio y su cartera de
soporte, IBM ha demostrado que puede respaldar el éxito del cliente con el tiempo. El proveedor
demuestra liderazgo de pensamiento en ciencia de datos híbrida y multinube con Cloud Pak for
Data. Mejorar su paquete de productos y el correspondiente enfoque de lanzamiento al mercado
agravará los loables esfuerzos de IBM para modernizar su oferta y mantener el ritmo de una
competencia cada vez más feroz tanto de proveedores grandes como pequeños.
Fortalezas

Ejecución de la estrategia de Watson Studio: Watson Studio está cumpliendo la promesa original
mostrada por el producto en sus primeros días cuando se conoce como Data Science Experience. Las
mejores características de SPSS (p. Ej., Escrutinio y gestión de modelos) se han integrado finamente
en el producto. IBM ha mantenido sólidos fundamentos en torno a la gestión de datos y la arquitectura
de la información y la flexibilidad con la cartera de Watson Studio.

Despliegue de productos y valor comercial: los clientes de referencia informaron una gran satisfacción
con el servicio y soporte de IBM. Watson Studio está bien establecido en casos de uso empresarial que
son visibles y ofrecen valor para las organizaciones. IBM también tomó la decisión de ser uno de los
grandes proveedores de DSML híbridos y multicloud más compatibles. Cloud Pak for Data de IBM en
Red Hat OpenShift está diseñado para administrar la ingeniería de datos y MLOps de manera flexible
en múltiples tipos de implementación y fuentes de datos.

Colaboración y atractivo para múltiples niveles de experiencia: Watson Studio tiene varias
características de colaboración nuevas y modificadas, que incluyen catálogos, galerías de activos, linaje
de activos y gestión de permisos. Watson Studio y su cartera de soporte ofrecen fuertes experiencias
de usuario para diferentes roles analíticos y niveles de experiencia en ciencia de datos.
Precauciones

Paquete y configuración de productos: la cantidad de productos de IBM necesarios para la ciencia de


datos de extremo a extremo está creciendo, y el desarrollo de la cartera recae en múltiples equipos de
productos. Los clientes informan sobre los desafíos para navegar por múltiples productos, mientras que
los intercambios entre productos no son perfectos. Los costos de licencia de estas herramientas
también siguen siendo motivo de preocupación.

Necesidad continua de innovación después de ponerse al día en áreas clave: IBM ha establecido una
cabeza de playa sólida en la ciencia de datos moderna con Watson Studio. Sin embargo, sus mejoras
recientes necesitarán innovación adicional para seguir siendo relevantes. Por ejemplo, dentro de
Watson Studio, AutoAI es un avance significativo en la analítica aumentada, pero gran parte de esta
funcionalidad se convertirá pronto en "apuestas" y otros proveedores están presentando innovaciones.

Restauración de la marca y mantenerse al día con la dura competencia: Watson Studio es indicativo de
la dirección de las plataformas modernas de ciencia de datos, pero Watson aún no es una marca líder
en ML moderno. La renovación de Watson Studio ha llevado tiempo y los competidores de IBM han
estado ocupados. El desafío de IBM es restaurar la fuerza de la marca Watson en los círculos avanzados
de ML y mantener el ritmo de sus competidores tradicionales, grandes proveedores de nube y un grupo
creciente de proveedores más pequeños y ágiles.
KNIME
Con sede en Zúrich, Suiza, KNIME ofrece una plataforma de código abierto llamada KNIME Analytics
Platform. Además, la extensión comercial, KNIME Server, proporciona funciones avanzadas que
incluyen capacidades de colaboración, automatización y operacionalización.
Una comunidad activa de usuarios finales está totalmente integrada con KNIME Hub, que
proporciona un mercado abierto y de búsqueda de planos y mejores prácticas para flujos de trabajo,
nodos, componentes y extensiones de KNIME. KNIME lleva a cabo dos conferencias de usuarios
anualmente, una en Europa y otra en los EE. UU., Así como muchas reuniones y "aprendizajes" en
todo el mundo.
Una gran red de asociación global proporciona asistencia al cliente para KNIME. El soporte también
está disponible a través del foro de la comunidad KNIME (en inglés). Los clientes comerciales de
KNIME Server tienen un contrato de servicio de soporte completo.
KNIME se posiciona como un visionario, saliendo del cuadrante de líderes del año pasado en gran
parte debido a su menor visibilidad y al lento crecimiento de los ingresos en relación con otros
proveedores evaluados. Sin embargo, sigue teniendo un fuerte enfoque en la innovación, un
excelente producto y conexiones profundas dentro de la comunidad de ciencia de datos.
Fortalezas

Código abierto con soporte comercial para capacidades de nivel empresarial: en combinación con el
servidor KNIME comercial, la plataforma de análisis KNIME de código abierto es una solución DSML
robusta, integral y de extremo a extremo. La amplitud de las capacidades proporcionadas se ve
reforzada por las contribuciones de la comunidad de código abierto, y esto se presta para una
ampliación rápida y fácil. El servidor KNIME facilita la orquestación en todo el proceso analítico de
extremo a extremo, incluida una operacionalización simplificada de modelos.

Habilitación y soporte para múltiples niveles de habilidades: las capacidades tradicionales de ciencia de
datos de KNIME continúan extendiéndose no solo con su enfoque abierto, sino también con la capacidad
de crear y compartir, a través del KNIME Hub, componentes reutilizables con múltiples tipos de
usuarios. Las capacidades están disponibles para codificar y aprovechar las API para desarrolladores
centrados en la programación, el desarrollo de modelos de ciencia de datos expertos utilizando un flujo
de trabajo para científicos de datos experimentados y capacidades aumentadas para científicos de
datos ciudadanos.

Visión analítica aumentada madura: la visión de KNIME para la analítica aumentada está bien definida,
brindando flexibilidad entre un enfoque más guiado o automatizado, dependiendo de las necesidades
del usuario. El enfoque continuo en la abstracción de la ciencia de datos, a través de capacidades
aumentadas adicionales y soporte de componentes que se pueden compartir, mejora aún más la visión
aumentada.
Precauciones

Visibilidad moderada y crecimiento relativo lento: KNIME tiene menos visibilidad y crecimiento lento en
el mercado en comparación con otros participantes. Aunque hay miles de usuarios de la versión de
código abierto de KNIME, muchos menos se han actualizado a la plataforma comercial. Como tal,
muchos no pueden aprovechar las capacidades de extremo a extremo proporcionadas por la oferta
completa. Todavía hay una oportunidad significativa en los equipos de ciencia de datos tanto nuevos
como maduros para que KNIME crezca.

Deficiencias en la capacitación: aunque tanto KNIME como el autoaprendizaje y la capacitación en


persona están disponibles, capacitar a los usuarios, especialmente aquellos con menos experiencia en
ciencia de datos, es un desafío. Además, la dificultad en la incorporación y capacitación puede
comprometer la aceptación y el uso de la plataforma en toda la empresa.

Problemas de rendimiento: cuando se trabaja con grandes conjuntos de datos, flujos de trabajo largos
o el uso complejo de múltiples extensiones, que a veces requieren movimientos o conversiones de
datos importantes, el rendimiento puede ser un problema. Aunque el proveedor ha realizado
recientemente algunos esfuerzos para abordar ciertos problemas de rendimiento (como los grandes
datos y los nodos de transmisión), los clientes aún indican el rendimiento como un área de
preocupación.
MathWorks
MathWorks tiene su sede en Natick, Massachusetts, EE. UU. Sus dos productos principales son
MATLAB y Simulink, pero solo MATLAB cumplió con los criterios de inclusión para este Cuadrante
Mágico (Simulink se considera parte de la cartera de soporte).
La compañía se beneficia de una gran comunidad de usuarios, gracias a su longevidad y
reconocimiento entre la comunidad científica y de ingeniería. Los usuarios referenciados elogiaron
el apoyo que reciben de MathWorks y, a menudo, se encuentran autosuficientes cuando se trata de
implementar la tecnología; La participación comunitaria de los usuarios de MathWorks se encuentra
entre las más altas de cualquier proveedor en el Cuadrante Mágico.
MathWorks se posiciona como un líder. Su movimiento desde la posición del año pasado en el
cuadrante Visionarios es un tributo a la adaptabilidad y el compromiso del proveedor con las
tecnologías de vanguardia y la capacidad de ejecución de larga data. A medida que la demanda de
técnicas de ML e IA aumenta dentro de dominios centrados en activos, MathWorks está bien
posicionado para capitalizar esa demanda. Junto con la integración de un número cada vez mayor
de técnicas de ML, MathWorks aborda nuevos problemas comerciales para una comunidad ansiosa
por productizar rápidamente sus esfuerzos de ML.
Fortalezas

Entorno centrado en la producción: alineado con el grupo de industrias a las que sirve, MathWorks
ofrece un entorno cuidadosamente diseñado; desde el preprocesamiento de datos y el desarrollo de
modelos (a través de un entorno totalmente abierto) hasta la producción, incluida la capacidad de
simular el sistema que se implementará, con la posibilidad de generar código automáticamente. El
código puede integrarse en activos inteligentes, periféricos o en cualquier sistema transaccional, local,
en la nube o mediante plataformas híbridas. Desde el inicio, cada modelo en la plataforma de la
compañía está destinado a la producción.

Coherencia e integración de la plataforma: MathWorks ofrece una plataforma totalmente integrada


donde cada nueva técnica (por ejemplo, aprendizaje de refuerzo, aprendizaje de transferencia) se
integra perfectamente en su entorno. A lo largo de los pasos de preparación, desarrollo, simulación,
implementación y producción, MATLAB proporciona una experiencia pulida.

Soluciones preconstruidas: a través de las numerosas implementaciones de sus usuarios para resolver
problemas particulares, MathWorks ha combinado la experiencia y el dominio en aplicaciones llave en
mano como el mantenimiento predictivo.
Precauciones

MLOps: Dada la competencia de MATLAB para que los modelos entren en producción, el siguiente paso
lógico es proporcionar a los usuarios un medio para monitorear, administrar y gobernar esos
modelos. Las capacidades de MLOps también necesitarán manejar modelos altamente
distribuidos. Estas son capacidades que MathWorks necesita mejorar significativamente en su próxima
versión.
Centro de ciencia de datos y colaboración de proyectos: el desarrollo del modelo de portátiles es
imprescindible para la mayoría de los ingenieros y científicos de datos. Sin embargo, si MathWorks
desea ampliar su alcance de usuario y mejorar la colaboración entre expertos en la materia o ingenieros
ciudadanos y los creadores de modelos, tendrá que proporcionar un medio de comunicación más fácil
que los portátiles y proporcionar capacidades de flujo de trabajo analítico (lienzo).

Inteligencia artificial interpretable: a medida que la producción de modelos de ML se extienda entre


sus usuarios, un número creciente de consumidores de modelos (y reguladores) comenzará a presionar
a los constructores de ML para una mejor interpretación de sus modelos. Los sistemas de ingeniería
complejos están particularmente expuestos a esta demanda, y las nuevas implementaciones de
MATLAB que utilizan técnicas de aprendizaje profundo y de refuerzo reforzarán esa necesidad. Esto
requerirá que MathWorks mejore significativamente sus capacidades de interpretación.
Microsoft
Microsoft tiene su sede en Redmond, Washington, EE. UU. Su producto principal considerado para
este Cuadrante Mágico es Azure Machine Learning (Azure ML). La cartera de productos de soporte
para Azure ML incluye Azure Machine Learning Studio, Azure Data Factory, Azure HDInsight, Azure
Databricks, Power BI y otros componentes. Para cargas de trabajo locales, Microsoft ofrece Machine
Learning Server.
Microsoft es un patrocinador de la comunidad global de IA y ha logrado un crecimiento significativo
en sus bootcamps globales. La página de la comunidad de Azure AI ofrece amplios foros y tutoriales
para usuarios de diversos antecedentes y habilidades. Microsoft también tiene asociaciones
continuas con proveedores de hardware y varios elementos de la comunidad OSS. El proveedor
organiza una serie de grandes conferencias de usuarios durante todo el año, incluidas Microsoft
Ignite, Microsoft Inspire y Microsoft Build.
Los socios de co-venta, industria, implementación y consultoría de Microsoft son miles. El soporte
unificado de Microsoft ofrece varias opciones de soporte para Azure ML y su cartera.
Microsoft sigue siendo un visionario después de un año fuerte, con avances en la integridad de la
visión y la capacidad de ejecución. Sin embargo, su capacidad de ejecución está limitada por un
enfoque basado en la nube y problemas de coherencia persistentes. Microsoft es uno de los pocos
proveedores en este Cuadrante Mágico que atiende a todo el espectro del talento de la ciencia de
datos.
Fortalezas

Funcionalidad atractiva y madura para múltiples niveles de habilidades y personas analíticas: Microsoft
está logrando su objetivo de atraer a los usuarios a lo largo de un amplio espectro de sofisticación y
requisitos. Azure ML tiene mucho que ofrecer a los científicos de datos ciudadanos en forma de análisis
de arrastrar y soltar y aumentar, sin perder su identidad como plataforma para expertos. La cartera
más grande ofrece productos y funcionalidades que atraerán a los desarrolladores (la pila más grande
de Azure), ingenieros de datos (Azure Data Factory, Azure Databricks) y analistas (Power BI).

Ritmo de desarrollo: los clientes aprecian la capacidad de Microsoft para actualizar y mejorar el
producto en la nube con una cadencia rápida. Los usuarios se sienten escuchados cuando se lanzan
actualizaciones, y su experiencia es mejor para ello. Los usuarios expertos disfrutan especialmente de
tener siempre nuevas piezas y lo último de la comunidad de código abierto para incorporar en su
trabajo.
Calcule la potencia y el control: las puntuaciones de rendimiento y escalabilidad de Microsoft siguen
estando entre las más altas de todos los proveedores evaluados. Azure ML cuenta con características
destacadas para control de costos y visibilidad. Numerosos clientes usan Azure ML y su cartera de
soporte para administrar operaciones de ciencia de datos ágiles, a gran escala y maduras.
Precauciones

En las instalaciones, híbridos y multicloud no son ciudadanos de primera clase: la gran mayoría de los
clientes de Azure ML se implementan en entornos de nube pura. Muchas capacidades dentro de la
cartera de Azure ML se vuelven más débiles o más complicadas en entornos híbridos, multinube o
locales. Al igual que Google y Amazon Web Services (AWS), el soporte multicloud es limitado.

Coherencia: aunque el ecosistema de Azure ofrece diversas herramientas y enfoques para la ciencia de
datos, muchos usuarios encuentran abrumadora la cantidad de componentes y se sienten frustrados
por la experiencia general. Los equipos de ciencia de datos en entornos híbridos enfrentan problemas
de licencia y costo total de propiedad.

DSML aumentado sólido pero no líder: Microsoft continúa invirtiendo para mantenerse al día con las
capacidades aumentadas de DSML de los proveedores más pequeños y exclusivamente centrados en
la ciencia de datos. Las nuevas características, como el preprocesamiento de datos aumentados y la
ingeniería de características, son pasos en la dirección correcta, pero el DSML aumentado es una de
las áreas de desarrollo que se mueve más rápido en este espacio. La visión a largo plazo de Microsoft
para la analítica aumentada es sólida, pero a corto plazo, otros proveedores centrados principalmente
en esta área están ganando nuevas cuentas.
RapidMiner
RapidMiner tiene su sede en Boston, Massachusetts, EE. UU. RapidMiner Studio es la principal
herramienta de desarrollo de modelos del proveedor y está disponible como una edición gratuita,
así como una edición comercial. RapidMiner Server es una extensión empresarial diseñada para
implementar y mantener modelos y facilitar la colaboración. La cartera de soporte de RapidMiner
también incluye RapidMiner Real-Time Scoring y RapidMiner Radoop. RapidMiner Turbo Prep,
RapidMiner Auto Model y RapidMiner Automated Model Ops son características aumentadas de la
plataforma, mientras que RapidMiner AI Cloud ofrece opciones de implementación basadas en la
nube.
La comunidad de usuarios masivos de RapidMiner está activa y reforzada por los esfuerzos de
habilitación del proveedor, incluidas las certificaciones de habilidades. El proveedor alberga una de
las comunidades de ciencia de datos más grandes y realiza dos conferencias de usuarios anualmente
en los Estados Unidos y Alemania.
RapidMiner ofrece soporte empresarial las 24 horas, los 7 días de la semana para clientes que pagan
con SLA según la gravedad del problema. También ofrece un programa del Centro de Excelencia
que incluye el servicio de guantes blancos.
RapidMiner se posiciona como un visionario, pasando del cuadrante de líderes el año pasado en
gran parte debido a su crecimiento más lento en relación con otros proveedores en este cuadrante
mágico. Mantiene un fuerte enfoque en la innovación y la excelencia de los productos, lo que servirá
al proveedor bien mientras lucha por la participación en el mercado en un espacio concurrido y
competitivo. La nueva declaración de misión de RapidMiner y la nueva estrategia de lanzamiento al
mercado dirigida a clientes empresariales pueden ayudar a acelerar el crecimiento.
Fortalezas
Gestión de ciclo de vida de ciencia de datos aumentada de extremo a extremo: RapidMiner facilita a
los científicos de datos expertos y a los científicos de datos ciudadanos en ciernes administrar su flujo
de ciencia de datos de extremo a extremo, desde el inicio hasta la construcción del modelo y la
producción. El proveedor ofrece específicamente un programa de certificación a través de su Academia
RapidMiner para que los científicos que no poseen datos comprendan el producto, el desarrollo del
modelo y la operacionalización. Turbo Prep, Auto Model y Model Ops forman una visión convincente de
la ciencia de datos aumentados de extremo a extremo.

Flexibilidad, agilidad y escalabilidad moderna: RapidMiner es muy compatible con una amplia gama de
tecnologías (por ejemplo, R, Python, Scala, Java, MATLAB, Octave, HiveQL, Pig, SQL y Groovy). Para
el aprendizaje profundo, Keras, TensorFlow, Eclipse Deeplearning4j y Theano están integrados, y todos
los algoritmos de la biblioteca Weka están disponibles como parte de la plataforma
RapidMiner. RapidMiner también permite la contenedorización con Docker y Kubernetes para ejecutar
y escalar modelos de forma transparente.

Gobierno de modelo: con su nueva solución Model Ops automatizada, RapidMiner permite el
cumplimiento y la auditoría de modelos tanto en las instalaciones como en la nube. Esta gobernanza
cubre no solo el linaje de datos, sino también la capacitación del modelo, el uso del modelo, el reciclaje
del modelo, el control de versiones y el acceso al modelo.
Precauciones

Crecimiento relativo lento y mayor competencia: RapidMiner tiene un crecimiento relativo lento en
comparación con otros proveedores con propuestas de valor comparables, especialmente en los últimos
dos años. Esto es parcialmente el resultado de una estrategia comercial que prioriza la rentabilidad
sobre el crecimiento. Mientras miles de usuarios han descargado RapidMiner, muchos menos se han
actualizado a la plataforma comercial. RapidMiner sigue siendo una marca fundamental en ciencia de
datos, pero necesitará mayores ingresos y participación de mercado para mantener el desarrollo y la
relevancia del producto.

Innovación de ventas: la estrategia de RapidMiner para ventas y expansión es diferente de la mayoría


de los competidores, con ingresos que crecen aproximadamente a la tasa de crecimiento general del
mercado. Su equipo de ventas y el tamaño promedio del negocio son pequeños en comparación con
otros proveedores de tamaño similar. Para crecer más rápido, RapidMiner necesita un nuevo enfoque
para convertir a los muchos jóvenes profesionales de la ciencia de datos que prueban el producto en
clientes empresariales de pago.

Licencias y personalizaciones de servicios: a los clientes potenciales les resulta difícil navegar a través
del modelo de precios de RapidMiner. El costo total de propiedad puede ser difícil de calcular. A los
clientes también les gustaría ver ofertas de servicios más personalizados.
SAS
SAS tiene su sede en Cary, Carolina del Norte, EE. UU. Ofrece una variedad de productos de software
para análisis y ciencia de datos que respaldan estadísticas, ML, análisis de texto, pronósticos, análisis
de series de tiempo, econometría y optimización. SAS Visual Data Mining and Machine Learning
(VDMML) fue el producto central evaluado para este Cuadrante Mágico. Dirigido a analistas de
negocios y científicos de datos ciudadanos / expertos, VDMML incorpora múltiples productos que
incluyen Visual Analytics y Visual Statistics.
SAS proporciona un centro de recursos dedicado para análisis que ofrece una serie de seminarios
web, eventos, hojas informativas, transmisiones web, documentos técnicos y más. El Centro de
recursos de SAS actúa como una biblioteca y una comunidad de soporte para los usuarios que
buscan información sobre características, consejos y trucos y estudios de casos en análisis. SAS
organiza un Foro Global SAS junto con varios eventos de conexión con clientes. Ofrece soporte
técnico estándar 24/7, además de SAS Premium Support y SAS Elite Support.
SAS nuevamente se posiciona como Líder este año. Sus productos DSML tienen un alto grado de
preparación empresarial y entregan constantemente un alto valor comercial a los clientes. Si bien
la adopción por parte del cliente de alternativas de código abierto a la plataforma SAS sigue siendo
una amenaza competitiva, el proveedor conserva una presencia fuerte y adaptativa en el
mercado. La capacidad de ejecución de SAS continúa siendo afectada por los altos costos de la
licencia, lo que hace que los clientes existentes y potenciales exploren otras
opciones. Recientemente lanzó paquetes de productos de ciclo de vida llamados Unified Insights
para reducir la complejidad de las licencias.
Fortalezas

Marca reconocida y confiable: la presencia de mercado y la marca confiable de SAS han ganado mucho
respeto por parte de los clientes. Los clientes eligen SAS por sus capacidades de plataforma de nivel
empresarial y soporte para todo el ciclo de vida de análisis, desde exploración hasta modelado e
implementación.

Modelo de operaciones: SAS ofrece una de las mejores plataformas de gestión y operacionalización de
modelos. Incluye monitoreo de rendimiento para la descomposición del modelo, reentrenamiento
automático de modelos cuando se exceden los umbrales, gobernanza a través de un repositorio de
modelos centralizado con plantillas y control de versiones, y linaje para modelos SAS y de código
abierto.

Facilidad de uso y aumento: la interfaz de arrastrar y soltar de SAS VDMML atrae a los científicos de
datos ciudadanos que desean facilidad de uso, al tiempo que respalda a los científicos de datos
tradicionales que prefieren codificar. El producto proporciona sugerencias automatizadas para la calidad
y preparación de datos, y sugiere visualizaciones basadas en distribución variable y otras medidas.
Precauciones

Precios y ejecución de ventas: los precios de SAS siguen siendo una preocupación para los clientes que
frecuentemente investigan alternativas menos costosas. Las herramientas de código abierto a menudo
se usan junto con los productos SAS como una forma de controlar los costos, especialmente para
nuevos proyectos. SAS ha introducido precios más flexibles, como la explosión y la capacidad ilimitada,
que es más amigable para el cliente.

Coherencia: el complemento completo de productos de SAS sigue siendo complejo y a menudo confuso
para los clientes. Algunos casos de uso requieren licencias de productos adicionales como SAS Model
Manager para la gestión de modelos o SAS / ACCESS para conectarse a diferentes fuentes de datos. SAS
anunció recientemente paquetes de productos de ciclo de vida para ayudar a abordar la complejidad
de las licencias.

Estrategia de marketing: SAS ha avanzado mucho en la modernización de su plataforma principal con


SAS Viya, junto con la oferta de productos más fáciles de aprender / usar como VDMML. Pero para
ganarse a los científicos de datos tradicionales, el proveedor deberá contrarrestar la falta de soporte
percibida para los lenguajes y herramientas de código abierto. SAS también necesita aumentar la
comercialización de SAS Viya como una plataforma probada de nivel empresarial para poner en práctica
y escalar iniciativas de ML.
Software TIBCO
TIBCO Software tiene su sede en Palo Alto, California, EE. UU. En los últimos años, TIBCO ha
construido una plataforma de análisis poderosa y completa (TIBCO Data Science) mediante la
adquisición de informes empresariales y proveedores de plataformas de BI modernas (Jaspersoft y
Spotfire); proveedores de plataformas de análisis descriptivos y predictivos (Insightful, Statistica y
Alpine Data); un proveedor de análisis de transmisión (StreamBase Systems); una capacidad de
gestión de metadatos (Orchestra Networks); y una plataforma de datos en memoria (SnappyData).
La compañía nutre una comunidad de usuarios diversificada que se reúne en varios foros, incluido
TIBCO Exchange, donde los usuarios pueden compartir y reutilizar activos analíticos. TIBCO también
está activo en muchos esfuerzos de código abierto a través de una cantidad significativa de
contribuciones. Los clientes de referencia elogiaron el soporte de TIBCO, tanto para la
implementación como para el soporte continuo.
TIBCO Software es una vez más un Líder en este Cuadrante Mágico, ya que continúa integrando
las funcionalidades de su amplia cartera. TIBCO está simplificando y simplificando TIBCO Data
Science al tiempo que mantiene la plataforma abierta y apoya el rápido panorama de ML. Los
orígenes de TIBCO en el espacio de middleware de integración le dan al vendedor una ventaja con
la ingeniería e implementación de datos e impulsan su éxito en una variedad de casos de uso en
muchas industrias.
Fortalezas

Análisis y transmisión de datos perimetrales : TIBCO continúa destacando en IoT, desde la integración
perimetral utilizando TIBCO Data Science, hasta TIBCO Streaming y el proyecto de código abierto Flogo,
hasta la ejecución de modelos de aprendizaje profundo en el dispositivo. TIBCO sigue siendo uno de
los pocos proveedores de ML que lidera la producción y ejecución de ML en el borde, especialmente
para organizaciones centradas en activos.

Apertura: TIBCO recibió puntajes sólidos por la flexibilidad y apertura de su plataforma. Por ejemplo,
TIBCO Data Science puede integrar modelos desarrollados patentados utilizando una amplia gama de
capacidades de código abierto mientras administra estos modelos dentro de su entorno de flujo de
trabajo.

Plataforma de extremo a extremo: la experiencia de extremo a extremo de TIBCO se basa en dos bases
de las que carecen muchos de sus competidores. Primero, desde la gestión de datos y el proceso de
preparación final del espectro, TIBCO se beneficia de su patrimonio de BI y visualización de Spotfire. En
el otro extremo del espectro, en implementación y producción, TIBCO puede aprovechar su experiencia
de su tecnología de plataforma de integración de aplicaciones (por ejemplo, TIBCO BusinessWorks,
Project Flogo y TIBCO Cloud Mashery).
Precauciones

MLOps: a pesar de su liderazgo en implementación y producción, TIBCO todavía tiene mucho trabajo
por hacer en lo que respecta a la gestión de operacionalización de modelos. A medida que la
diferenciación competitiva y la demanda del mercado se desplazan hacia la capacidad de producir
modelos ML, TIBCO MLOps, actualmente en su versión inicial, tendrá que ponerse al día con la
vanguardia en su próxima encarnación.

IA interpretable: TIBCO necesita continuar invirtiendo en IA interpretable. A medida que los modelos
ML se abren camino en las aplicaciones de producción, los usuarios comerciales y los ingenieros
requieren una mayor transparencia para interpretar las ideas entregadas por las cajas negras. TIBCO
tendrá que enfocar parte de su próximo entorno de desarrollo para mantenerse al día con el mercado
en características explicables de IA.

ML aumentada: TIBCO ha mostrado progreso en su adopción de capacidades de ML aumentadas,


especialmente a través de técnicas de visualización y capacidades de nivel de entrada. Sin embargo, a
medida que el mercado avanza rápidamente en este conjunto de características, el proveedor tendrá
que consolidar su oferta para mantenerse a la par del mercado.
Proveedores agregados y descartados

Revisamos y ajustamos nuestros criterios de inclusión y exclusión para Cuadrantes Mágicos a


medida que cambian los mercados. Como resultado de estos ajustes, la combinación de
proveedores en cualquier Cuadrante Mágico puede cambiar con el tiempo. La aparición de un
proveedor en un Cuadrante Mágico un año y no el siguiente no necesariamente indica que hemos
cambiado nuestra opinión sobre ese proveedor. Puede ser un reflejo de un cambio en el mercado
y, por lo tanto, un cambio en los criterios de evaluación o un cambio de enfoque por parte de ese
proveedor.
Adicional

Altair
Caído

SAP, que lanzó una nueva oferta DSML.

Datawatch (Angoss), que fue adquirido por Altair en diciembre de 2018.


Los criterios de inclusión y exclusión

Hicimos algunos cambios en los criterios de inclusión para esta edición del Cuadrante Mágico. El
proceso de inclusión incluyó requisitos para que los proveedores alcanzaran un umbral de ingresos
e identificaran clientes de referencia. Un proceso de clasificación de pila evaluó qué tan bien los
productos soportan los escenarios de casos de uso típicos para DSML, a saber:

Exploración empresarial: este es el escenario clásico de explorar lo desconocido y formar hipótesis que
requieren amplias capacidades de preparación de datos, exploración y visualización. Este escenario
también podría incluir la incorporación de capacidades aumentadas para guiar la preparación de datos,
el uso de la visualización y el análisis.

Creación de prototipos avanzada: este escenario describe cuándo la ciencia de datos, especialmente
las nuevas técnicas de ML, se utiliza para mejorar significativamente los enfoques analíticos
tradicionales. Los enfoques tradicionales pueden ser el uso del juicio humano, soluciones exactas,
enfoques heurísticos de larga data o enfoques de minería de datos heredados. La creación avanzada
de prototipos utiliza algunos o todos los siguientes:
Muchas más fuentes de datos

Nuevos enfoques analíticos (como redes neuronales profundas, aprendizaje de transferencia y


aprendizaje de refuerzo)

Infraestructura informática a gran escala

Informática especializada y habilidades de aprendizaje automático

Refinamiento de la producción: en este escenario, la organización cuenta con numerosas soluciones de


ciencia de datos implementadas y entregadas en el negocio, pero el enfoque ahora se centra en realizar
mejoras, mejoras y actualizaciones a los modelos existentes. Las actividades y la funcionalidad de
MLOps también se incluyen principalmente en el caso de uso de refinamiento de la producción, en el
que la plataforma admite la activación de la versión, la supervisión, el seguimiento del rendimiento, la
gestión, la reutilización, el mantenimiento y el gobierno de los modelos.

Ciencia de datos aumentada y aprendizaje automático: este caso de uso ha sido renombrado de "ciencia
de datos no tradicional". Este es el escenario en el que ML / AI se usa para automatizar y acelerar
aspectos clave de la ciencia de datos, como la ingeniería de características y la selección de modelos,
así como la operacionalización del modelo, la explicación del modelo, el ajuste y la gestión del
modelo. Esto reduce el requisito de habilidades especializadas para generar, poner en funcionamiento
y administrar un modelo analítico avanzado. Abre la creación de contenido DSML para científicos de
datos ciudadanos y desarrolladores (de aplicaciones). Los científicos de datos altamente calificados
también pueden ser más productivos y tener más tiempo para concentrarse en otras tareas.
Utilizamos las siguientes 15 capacidades críticas para calificar las capacidades de los proveedores
en los cuatro escenarios de casos de uso:

Acceso a datos: ¿Qué tan bien admite el producto el acceso a datos en muchos tipos de datos (como
tablas, imágenes, gráficos, registros, series de tiempo, audio y textos)?

Preparación de datos: ¿El producto tiene una variedad significativa de características de preparación
de datos sin codificación o codificación?

Exploración y visualización de datos: ¿El producto permite una variedad de pasos exploratorios, incluida
la visualización interactiva?

Automatización y aumento: ¿El producto facilita la automatización de la generación de características,


selección de algoritmos, ajuste de hiperparámetros y otras tareas clave de ciencia de datos?

Interfaz de usuario (UI): ¿El producto tiene un "aspecto" coherente y tiene una interfaz intuitiva,
idealmente compatible con un componente de canalización visual o marco de composición visual (VCF)?

Aprendizaje automático (ML): ¿Cuán amplios son los enfoques de ML que son fácilmente accesibles y
enviados (preempaquetados) con el producto, junto con el soporte para enfoques modernos de ML
como técnicas de conjunto (refuerzo, ensacado y bosques aleatorios) y esquemas modernos de
reducción de dimensiones?
Otros análisis avanzados: ¿Cómo se integran otros métodos de los campos de estadística, optimización,
simulación y análisis de texto e imagen en el entorno de desarrollo?

Flexibilidad, extensibilidad y apertura: ¿Cómo se pueden integrar varias bibliotecas de código abierto
en la plataforma? ¿Cómo pueden los usuarios crear sus propias funciones? ¿Cómo funciona la
plataforma con los portátiles?

Rendimiento y escalabilidad: ¿cómo se pueden controlar las implementaciones de escritorio, servidor y


nube? ¿Cómo se utilizan las configuraciones multinúcleo y multinódulo?

Entrega: ¿Qué tan bien admite la plataforma la capacidad de crear API o contenedores (por ejemplo,
código, lenguaje de marcado de modelo predictivo [PMML], aplicaciones empaquetadas) que se pueden
utilizar para una implementación más rápida en varios escenarios comerciales?

Plataforma y gestión de proyectos: ¿Qué capacidades de gestión proporciona la plataforma (como


seguridad, gestión de recursos informáticos, gobernanza, organización de proyectos o experimentos,
linaje de auditoría y reproducibilidad)?

Gestión de modelos: ¿Qué capacidades proporciona la plataforma para monitorear y recalibrar cientos
o miles de modelos? Esto incluye capacidades de prueba de modelos tales como validación cruzada K-
fold, divisiones de prueba de validación de trenes, área bajo la curva (AUC), característica de operación
del receptor (ROC), matrices de pérdida, así como modelos de prueba uno al lado del otro (para
ejemplo, prueba campeón-retador [A / B]).

Soluciones preescaneadas: ¿Ofrece la plataforma soluciones "preescaneadas" (por ejemplo, venta


cruzada, análisis de redes sociales, detección de fraudes, sistemas de recomendación, propensión a
comprar, predicción de fallas y detección de anomalías) que pueden integrarse e importarse a través
de bibliotecas, mercados o galerías?

Colaboración: ¿Cómo pueden los usuarios de diversas habilidades trabajar juntos en los mismos flujos
de trabajo y proyectos? ¿Cómo se pueden archivar, comentar y reutilizar proyectos más adelante?

Coherencia: ¿Cuán intuitiva, consistente y bien integrada es la plataforma para admitir una línea
completa de análisis de datos? La plataforma en sí misma debe proporcionar capacidades de metadatos
e integración para aprovechar las 14 capacidades anteriores y proporcionar una experiencia de extremo
a extremo sin interrupciones, haciendo que los científicos de datos sean más productivos en toda la
línea de análisis de datos. Esta metacapacidad incluye garantizar que los formatos de entrada / salida
de datos estén estandarizados siempre que sea posible, de modo que los componentes tengan un
aspecto similar y consistente, y garantizar una terminología unificada en toda la plataforma.
Los subcriterios alineados con cada capacidad crítica se han revisado y modificado para realinear
las subcapacidades con las capacidades generales apropiadas y para reflejar los nuevos desarrollos
y las subcapacidades clave que diferencian las soluciones.
La ponderación de la experiencia del cliente se ha reducido a medida que la metodología de Gartner
ha reducido el número de referencias de clientes requeridas de los proveedores para encuestas y
entrevistas. El menor peso refleja el tamaño de muestra más pequeño y el grupo reducido de
entrevistados.
Como se mencionó anteriormente, hemos cambiado el nombre del caso de "ciencia de datos no
tradicional" a "ciencia de datos aumentada y aprendizaje automático". Esto es para alinearse con
otras investigaciones de Gartner sobre el tema de la analítica aumentada y para resolver la confusión
sobre el significado de la ciencia de datos no tradicional.
La ponderación para los cuatro casos de uso se mantuvo igual que en el Cuadrante Mágico del año
pasado.
Para calificar para la inclusión en este Cuadrante Mágico, cada proveedor tuvo que pasar los
siguientes criterios de inclusión de evaluación.
Criterio de inclusión n. ° 1: Oferta de plataforma de ciencia de datos y aprendizaje automático

Las plataformas DSML de los vendedores necesitaban:

Ofrecer una combinación de funcionalidad básica y avanzada esencial para construir soluciones DSML
(principalmente modelos predictivos y prescriptivos)

Apoyar la incorporación de estas soluciones en los procesos comerciales, la infraestructura, los


productos y las aplicaciones circundantes.

Apoye a científicos de datos con habilidades diversas en todas las siguientes tareas en la tubería de
datos y análisis:

Ingestión de datos

Preparación de datos

Exploración de datos.

Ingeniería de características

Creación y entrenamiento de modelos.

Prueba de modelo

Despliegue

Supervisión

Mantenimiento

Colaboración
Los proveedores también debían poder proporcionar soporte técnico para su plataforma DSML
directamente y / o a través de socios de soporte comercial.
Criterio de inclusión No. 2: Ingresos y número de clientes que pagan

Se evaluaron tres modelos de licencia comunes, y los ingresos (y / o la adopción del cliente) de
cada uno se combinaron (si corresponde) y se evaluaron según los criterios a continuación para
cada producto principal en consideración:
Modelo de licencia perpetua: Licencia de software, mantenimiento e ingresos de actualización
(excluyendo ingresos de hardware y servicios profesionales) para el año calendario 2018 o el año fiscal.

Modelo de suscripción SaaS: valor del contrato anual (ACV) para el año calendario 2018 o el año fiscal,
excluyendo cualquier servicio profesional incluido en los contratos anuales. Para contratos de varios
años, solo se usó el valor del contrato para los primeros 12 meses para este cálculo.

Adopción del cliente: el número de organizaciones de clientes de pago activo que utilizan la plataforma
DSML del proveedor (excluidas las pruebas).
El producto principal de cada proveedor necesitaba tener:

Al menos $ 75 millones de ingresos por licencia perpetua combinados y ACV en el año calendario 2018
o el año fiscal, o

Al menos $ 10 millones de ingresos por licencia perpetua combinados y ACV en el año calendario 2018
o el año fiscal y al menos el 19% de crecimiento de ingresos combinados en comparación con el
calendario inmediatamente anterior o año fiscal, o

Al menos $ 5 millones de ingresos por licencia perpetua combinados y ACV en el año calendario 2018
o el año fiscal y

Al menos un 38% de crecimiento de ingresos combinados en comparación con el calendario o año fiscal
inmediatamente anterior, o

50 nuevos clientes corporativos obtenidos durante el calendario 2018 o el año fiscal


Solo los proveedores con productos básicos que pasaron este criterio de inclusión fueron
considerados para el tercer criterio de inclusión.
Criterio de inclusión n. ° 3: recuentos de clientes

Los proveedores que cumplieron con los requisitos del criterio de inclusión No. 1 fueron evaluados
luego en base a los clientes de referencia que identificaron. Los proveedores tuvieron que mostrar
una importante tracción entre la industria y la geografía para cada producto central en
consideración. Los recuentos incluyeron solo organizaciones de clientes únicos activos que utilizan
la última versión del producto principal o una versión lanzada en los 12 meses anteriores a agosto
de 2019.
Clientes de referencia de la industria cruzada
Cada proveedor tuvo que identificar organizaciones de clientes únicos activos utilizando cada una
de las plataformas DSML consideradas en producción. Para considerar un producto central, se
requerían 10 organizaciones únicas. Debían tener soluciones de ciencia de datos en producción y
proceder de al menos cuatro de los siguientes segmentos principales de la industria:

Banca y valores

Comunicaciones, medios y servicios.

Educación

Gobierno
Cuidado de la salud

Seguro

Fabricación y recursos naturales.

Al por menor

Transporte

Utilidades

Comercio al por mayor


Conteo de clientes entre regiones
Entre los clientes de referencia para cada proveedor, tenía que haber al menos dos organizaciones
de clientes activas en cada una de las siguientes tres regiones geográficas principales:

Norteamérica

Unión Europea (incluido el Reino Unido) y Suiza

Resto del mundo


Solo los proveedores que pasaron el criterio de inclusión No. 2 avanzaron al criterio de inclusión No.
3.
Criterio de inclusión n. ° 4: Calificación de la capacidad del producto

Los proveedores que superaron con éxito los primeros tres criterios fueron evaluados por analistas
de Gartner que midieron qué tan bien sus productos cumplían con las 15 capacidades críticas.
Debido a que el número de proveedores que pueden incluirse en un Cuadrante Mágico es limitado,
solo los productos de proveedores con los puntajes más altos de capacidad crítica de 16 a 18
continuaron hasta la fase de evaluación detallada.
Si se vinculan los productos de dos o tres proveedores, incluimos cada uno de ellos, lo que eleva el
número máximo de proveedores a 18. Si más de tres tuvieran plataformas vinculadas, hubiéramos
utilizado una métrica que incorpora datos de búsqueda de Internet, búsqueda de Gartner y consulta
de clientes de Gartner. determinar qué productos de los vendedores tuvieron una mayor tracción
del mercado y romper el empate sobre esa base. En ningún caso aparecerían más de 18 vendedores
en el Cuadrante Mágico.
Aproximadamente 70 vendedores fueron considerados para su inclusión. Dieciséis proveedores
fueron seleccionados para su inclusión final.
Criterio de exclusión

Los proveedores cuyas plataformas DSML son comercializadas y utilizadas principalmente por
desarrolladores de aplicaciones o analistas de negocios no cumplen con los criterios de inclusión
para este Cuadrante Mágico.
Menciones honoríficas

La siguiente lista incluye proveedores notables que no cumplieron con los criterios de inclusión o
cuya elegibilidad para la inclusión no pudimos verificar debido a la falta de información:
Amazon Web Services (AWS), que proporciona Amazon SageMaker (dirigido principalmente a
desarrolladores y científicos de datos) y una sólida cartera de productos y componentes de ML (incluido
Amazon SageMaker Studio, un entorno de desarrollo integrado para aprendizaje automático),
anunciado en AWS re: Invent en diciembre de 2019).

Cloudera, que proporciona Cloudera Machine Learning (la próxima generación de Cloudera Data
Science Workbench) para que los equipos de ciencia de datos aceleren, administren y escalen los flujos
de trabajo de ML, y para que la TI empresarial asegure y gobierne los flujos de trabajo de ML.

FICO, que se especializa en la gestión de decisiones y es especialmente adecuado para equipos que
crean y operan modelos de LA para casos de uso de servicios financieros.

Iguazio, cuya plataforma de ciencia de datos permite a las empresas desarrollar, implementar y
administrar aplicaciones de inteligencia artificial a escala y en tiempo real.

Oracle, que proporciona Oracle Machine Learning y un amplio conjunto de productos de datos y análisis
que admiten la preparación de datos, visualización, análisis aumentados, desarrollo e implementación
de modelos y otras etapas del ciclo de vida de la ciencia de datos, con API SQL, R y Python.

SAP, que ha renovado su plataforma DSML (SAP Data Intelligence) con un enfoque en la preparación
empresarial, la gestión de datos y el gobierno, y la integración con las numerosas soluciones de datos,
análisis e inteligencia artificial de SAP.

Teradata, que ofrece Teradata Vantage, facilita una vista unificada de los datos empresariales y permite
a los usuarios realizar análisis predictivos y prescriptivos, así como la toma de decisiones autónomas y
el aprendizaje automático a escala.

World Programming, que proporciona WPS Analytics, una plataforma flexible que admite el desarrollo,
el gobierno y la implementación de análisis con herramientas visuales y de programación para Python,
R, SQL y SAS.
Criterios de evaluación

Habilidad para hacer

Producto / servicio: bienes y servicios básicos que compiten y / o sirven al mercado definido. Este
criterio evalúa las capacidades actuales de productos y servicios, calidad, conjuntos de
características, habilidades, etc. Estos se pueden ofrecer de forma nativa o mediante acuerdos y
asociaciones OEM, tal como se define en la definición del mercado y se detalla en los criterios.
Viabilidad general (unidad de negocios, financiera, estrategia y organización): este criterio incluye
una evaluación de la salud financiera general de la organización, así como el éxito financiero y
práctico de la unidad de negocios. El criterio también evalúa la probabilidad de que la organización
continúe ofreciendo e invirtiendo en el producto, así como la posición del producto en la cartera
actual.
Ejecución de ventas / fijación de precios: este criterio evalúa las capacidades de la organización en
todas las actividades de preventa y la estructura que las respalda. Se incluyen la gestión de
acuerdos, fijación de precios y negociación, soporte de preventa y efectividad general del canal de
ventas.
Capacidad de respuesta del mercado y trayectoria: este criterio evalúa la capacidad de un proveedor
para responder, cambiar de dirección, ser flexible y lograr el éxito competitivo a medida que se
desarrollan las oportunidades, los competidores actúan, las necesidades de los clientes evolucionan
y la dinámica del mercado cambia. También considera el historial de respuesta de un proveedor a
las cambiantes demandas del mercado.
Ejecución de marketing: este criterio evalúa la claridad, la calidad, la creatividad y la eficacia de los
programas diseñados para transmitir el mensaje de la organización a fin de influir en el mercado,
promover una marca, aumentar el conocimiento de los productos y establecer una identificación
positiva en la mente de los clientes. Esta "participación mental" puede ser impulsada por una
combinación de publicidad, promoción, liderazgo de opinión, redes sociales, referencias y
actividades de ventas.
Experiencia del cliente: este criterio evalúa los productos, servicios y / o programas que permiten a
los clientes lograr resultados anticipados con los productos evaluados. Específicamente, considera
la calidad de las interacciones proveedor-comprador, soporte técnico y soporte de cuenta. También
se pueden evaluar herramientas auxiliares, programas de atención al cliente, disponibilidad de
grupos de usuarios y SLA, entre otras cosas.
Operaciones: este criterio evalúa la capacidad de la organización para lograr sus objetivos y cumplir
sus compromisos. Los factores considerados incluyen la calidad de la estructura organizacional,
habilidades, experiencias, programas, sistemas y otros vehículos que permiten a la organización
operar de manera efectiva y eficiente.
Tabla 1 : Capacidad para ejecutar criterios de evaluación

Ampliar tabla

Criterios de evaluación

Producto o servicio

Viabilidad general

Ejecución de ventas / precios

Capacidad de respuesta del mercado / registro

Ejecución de marketing

Experiencia del cliente

Operaciones

Fuente: Gartner (febrero de 2020)


Integridad de la visión

Comprensión del mercado: este criterio evalúa la capacidad de un proveedor para comprender las
necesidades de los clientes y utilizar esa comprensión para crear productos y servicios. Los
proveedores que tienen una visión clara de su mercado, y que escuchan y entienden las demandas
de los clientes, pueden moldear o mejorar los cambios del mercado.
Estrategia de marketing: este criterio busca mensajes claros y diferenciados que se comuniquen de
manera consistente internamente y se externalicen a través de las redes sociales, publicidad,
programas de clientes y declaraciones de posicionamiento.
Estrategia de ventas: este criterio busca una estrategia sólida para las ventas que utilice redes
apropiadas, incluidas las redes de ventas directas e indirectas, marketing, servicios y
comunicación. También considera socios que amplían el alcance y la profundidad del alcance del
mercado, la experiencia, las tecnologías, los servicios y la base de clientes de un proveedor.
Estrategia de oferta (producto): este criterio busca un enfoque para el desarrollo y la entrega de
productos que enfatiza la diferenciación del mercado, la funcionalidad, la metodología y las
características a medida que se corresponden con los requisitos actuales y futuros.
Innovación: este criterio busca diseños directos, relacionados, complementarios y sinérgicos de
recursos, experiencia o capital para fines de inversión, consolidación, defensivos o preventivos.
Tabla 2 : Completitud de los criterios de evaluación de la visión

Ampliar tabla

Criterios de evaluación

Entendimiento del mercado

Estrategia de mercadeo

Estrategia de ventas

Estrategia de oferta (producto)

Modelo de negocio

Estrategia vertical / industrial

Innovación

Estrategia geográfica

Fuente: Gartner (febrero de 2020)


Descripciones de cuadrantes

Líderes
Los líderes tienen una fuerte presencia y una importante participación mental en el mercado
DSML. Demuestran fortaleza en profundidad y amplitud en todo el proceso de exploración de datos,
desarrollo de modelos y operacionalización. Mientras brindan un servicio y soporte sobresalientes,
los líderes también son ágiles para responder a las condiciones del mercado que cambian
rápidamente. El número de científicos de datos expertos y ciudadanos que usan plataformas de
Líderes es significativo y está creciendo.
Los líderes están en la posición más fuerte para influir en el crecimiento y la dirección del
mercado. Se dirigen a la mayoría de las industrias, geografías, dominios de datos y casos de uso, y
por lo tanto tienen una comprensión sólida y una estrategia para este mercado. No solo pueden
centrarse en la ejecución efectiva, en función de las condiciones actuales del mercado, sino que
también tienen hojas de ruta sólidas para aprovechar los nuevos desarrollos y las tecnologías
avanzadas en este sector en rápida transformación. Proporcionan liderazgo de pensamiento y
diferenciación innovadora, a menudo interrumpiendo el mercado en el proceso.
Los líderes son proveedores adecuados para la mayoría de las organizaciones para evaluar. Sin
embargo, no deberían ser los únicos proveedores evaluados, ya que otros proveedores podrían
abordar las necesidades únicas de una organización con mayor precisión. Los líderes proporcionan
un punto de referencia de altos estándares con los que otros deben ser comparados.
Retadores
Los retadores tienen una presencia establecida, credibilidad, viabilidad y capacidades robustas de
producto. Sin embargo, es posible que no demuestren liderazgo de pensamiento e innovación en el
mismo grado que los líderes.
Hay dos tipos principales de Challenger:

Proveedores DSML establecidos desde hace mucho tiempo que tienen éxito debido a su estabilidad,
previsibilidad y relaciones con los clientes a largo plazo. Estos proveedores necesitan revitalizar su
visión para mantenerse al tanto de los desarrollos del mercado y ser más influyentes e innovadores. Si
simplemente continúan haciendo lo que han estado haciendo, su crecimiento y presencia en el mercado
pueden verse afectados.

Los proveedores establecidos en mercados adyacentes, como los mercados de análisis y BI, proveedor
de servicios de datos y análisis, y mercados de herramientas para desarrolladores, que están ingresando
al mercado DSML con soluciones que extienden sus plataformas actuales. Estos proveedores ofrecen
una opción razonable no solo para clientes existentes sino también para nuevos clientes. A medida que
estos proveedores prueben que pueden influir en este mercado y proporcionar una dirección y visión
claras, pueden convertirse en Líderes. Pero deben evitar la tentación de introducir nuevas capacidades
de forma rápida pero superficial.
Los retadores están bien posicionados para tener éxito en este mercado tal como se define
actualmente y están operando efectivamente dentro de las condiciones actuales del mercado. Sin
embargo, su visión y hoja de ruta pueden verse afectadas por la falta de comprensión del mercado,
el enfoque excesivo en las ganancias a corto plazo, la inercia relacionada con la estrategia y el
producto, y la falta de innovación. Igualmente, sus esfuerzos de marketing, presencia geográfica y
visibilidad pueden no estar a la par con los de los líderes.
Visionarios
Los visionarios son a menudo vendedores relativamente pequeños o nuevos entrantes
representativos de las tendencias que están dando forma o tienen el potencial de dar forma al
mercado. Sin embargo, puede haber preocupaciones sobre la capacidad de estos proveedores para
seguir ejecutando de manera efectiva y escalar a medida que crecen. Por lo general, no son bien
conocidos en este mercado y, por lo tanto, a menudo no tienen el impulso de los retadores y los
líderes.
Los visionarios no solo tienen una visión sólida, sino que también tienen una sólida hoja de ruta de
apoyo. Son innovadores en su enfoque para abordar las necesidades del mercado. Aunque sus
ofertas suelen ser innovadoras y sólidas en términos de las capacidades que ofrecen, a menudo hay
lagunas en la amplitud y amplitud de estas ofertas.
Vale la pena considerar a los visionarios porque pueden:

Representa una oportunidad para impulsar una iniciativa innovadora

Proporcione una capacidad de diferenciación convincente que ofrezca una ventaja competitiva como
complemento o como sustituto de las soluciones existentes.

Ser influenciado más fácilmente con respecto a su hoja de ruta y enfoque de producto
Los visionarios, sin embargo, también representan una opción potencialmente más riesgosa para
los compradores. En el mercado DSML altamente competitivo de hoy en día, los Visionarios también
pueden tener dificultades para ganar impulso, desarrollar una presencia, aumentar su participación
en el mercado, cumplir su visión y ejecutar su hoja de ruta. También pueden ser objetivos de
adquisición.
A medida que los visionarios maduran y demuestran su capacidad de ejecución, eventualmente
pueden convertirse en líderes.
Jugadores de nicho
Los jugadores de nicho demuestran fortaleza en una industria o enfoque particular, o se combinan
bien con una pila de tecnología específica. Deben ser considerados por los compradores en su nicho
particular.
Algunos jugadores de nicho demuestran un grado de visión, lo que sugiere que podrían convertirse
en visionarios. Sin embargo, a menudo luchan para que su visión sea convincente, en relación con
otros en el mercado. Se consideran más seguidores que líderes en términos de conducción y
definición del mercado. También pueden estar luchando por desarrollar un historial de innovación
y liderazgo de pensamiento que podría darles el impulso para convertirse en Visionarios.
Otros jugadores de nicho podrían convertirse en retadores si continúan ejecutándose de una manera
que aumente su impulso y tracción en el mercado.
Contexto

El mercado DSML es a la vez más dinámico y desordenado que nunca. Los proveedores entrelazan
soluciones patentadas que evolucionan rápidamente con numerosos componentes de código abierto
y redes de asociación cada vez más complejas. Los líderes de datos y análisis buscan satisfacer a
científicos expertos en datos que exigen capacidades de vanguardia, científicos ambiciosos de datos
ciudadanos que buscan constructores de modelos rápidos y accesibles, y desarrolladores que
abordan el inmenso desafío de la ingeniería de ML. El movimiento en este mercado es rápido y
multidireccional. Las instantáneas se desactualizan de forma alarmante rápidamente.
Los gigantes que alguna vez estuvieron dormidos de Google y AWS ahora están despiertos y
atronadores en todo el paisaje (aunque Amazon SageMaker fue excluido de este Cuadrante Mágico
ya que fue comercializado y utilizado principalmente por los desarrolladores de aplicaciones en el
momento de la evaluación). Los poderes tradicionales del espacio, IBM y SAS, se están cargando
en la nueva década con ofertas modernas y estrategias adaptativas. Numerosos vendedores
pequeños y medianos se encuentran en períodos sostenidos de hipercrecimiento. Otras marcas
antiguas y admiradas en el espacio demuestran innovaciones emocionantes y finanzas saludables.
Al igual que con el Cuadrante Mágico del año pasado, los proveedores están muy centrados en la
innovación y la diferenciación, en lugar de la ejecución pura. La innovación sigue siendo clave para
la supervivencia y la relevancia. Incluso con la gran cantidad de proveedores establecidos y líderes
en el pensamiento, siguen surgiendo innumerables nuevas empresas DSML con diversos productos
y propuestas de valor. El selecto grupo en este Cuadrante Mágico ha establecido sólidas bases de
clientes, desempeño financiero y tecnología. Aún así, una nueva generación de proveedores se
esfuerza por lograr visibilidad, relevancia y quizás algún día una participación de mercado
significativa. Dada la naturaleza competitiva y vibrante de este mercado, los proveedores que
podrían haber competido por la colocación en el lado izquierdo del cuadrante tienen dificultades
para entrar.
La actividad de fusiones y adquisiciones en este mercado ha sido regular pero moderada. Los
proveedores en este Cuadrante Mágico probablemente continuarán adquiriendo compañías
interesantes para completar sus plataformas, mientras que las adquisiciones importantes
transformadoras (en la línea de la adquisición de Tableau por parte de Salesforce en 2019) siempre
son posibles.
Los líderes de datos y análisis deben trabajar duro solo para mantenerse al día con este
mercado. Las organizaciones de usuarios finales necesitan aumentar su compromiso solo para
mantenerse razonablemente actualizadas. Los líderes deben centrarse en desarrollar nuevos casos
de uso y aplicaciones para DSML, que sean altamente visibles, brinden un valor comercial real y
generen impulso para futuras iniciativas. Además, deberían buscar extender el acceso a las
tecnologías del mercado a roles no tradicionales y desarrollar importantes programas de educación
interna.
Ya sea que las organizaciones de usuarios finales recién estén comenzando con el análisis predictivo
y prescriptivo o tengan capacidades maduras en análisis avanzado, deben monitorear los cambios
en el mercado. Esto incluye cómo los proveedores están desarrollando sus ofertas y proporcionando
nuevas capacidades a diferentes tipos de usuarios y casos de uso extendido. Las organizaciones
deben comenzar por identificar las brechas en sus propias carteras y monitorear las ofertas de los
proveedores a la luz de sus necesidades comerciales. Primero deben evaluar si sus proveedores de
análisis existentes están avanzando hacia los nuevos desafíos. Deben considerar no solo
proveedores de DSML, sino también proveedores de análisis y BI, que están ampliando cada vez
más sus capacidades para realizar análisis más avanzados. A medida que las capacidades DSML se
adoptan cada vez más en las empresas, El trabajo interdepartamental es importante para evitar la
fragmentación excesiva y la falta de estándares comunes. De lo contrario, los departamentos
individuales pueden adoptar diferentes plataformas y procesos, una situación que conduce a
problemas operativos y de mantenimiento.
Para lograr capacidades analíticas avanzadas y totalmente maduras, las organizaciones deben
planificar e invertir en el ciclo de vida completo de la ciencia de datos. El ciclo de vida incluye
procesos para acceder y transformar datos, realizar análisis y construir modelos analíticos,
operacionalizar e incorporar modelos, administrar y monitorear modelos a lo largo del tiempo para
reevaluar su relevancia y ajustar modelos para reflejar los cambios en los datos y el entorno
empresarial.
Ya sea que comience o extienda su viaje en el campo de DSML, las organizaciones no necesitan
viajar solas. Los proveedores de servicios de datos y análisis ofrecen orientación, un enfoque
estructurado y un menor riesgo de falla. Los proveedores de servicios también ayudan a mejorar el
desafío común de reclutar y retener talentos de ciencia de datos (consulte la “Guía del mercado
para proveedores de servicios de datos y análisis” ).
Visión general del mercado

El mercado DSML es más que saludable e innovador. La amplia combinación de proveedores ofrece
una gran variedad de capacidades, con soluciones apropiadas para la mayoría de los niveles de
madurez. Las definiciones y parámetros de la ciencia de datos y los científicos de datos continúan
evolucionando, y el espacio es dramáticamente diferente del inicio de este Cuadrante Mágico en
2014.
Muchos proveedores ahora buscan un punto óptimo con sus plataformas para atraer y deleitar
simultáneamente tanto a los científicos expertos en datos como a los científicos ciudadanos. Los
proveedores están agregando más capacidades diseñadas para ingenieros de datos, desarrolladores
e ingenieros de ML, a medida que la participación de un elenco de apoyo en el ciclo de vida de la
ciencia de datos se vuelve más común. Los proveedores que anteriormente solo atendían a
científicos expertos en datos están agregando capacidades aumentadas e interfaces mejoradas para
atraer a los científicos de datos ciudadanos. Los proveedores desean expandir la huella y la
disponibilidad de sus soluciones para maximizar el retorno del cliente en las inversiones de la
plataforma.
Sigue habiendo un montón de innovaciones convincentes y hojas de ruta visionarias, como lo indica
el posicionamiento de muchos proveedores a la derecha del eje de integridad de la visión. Aunque
muchos elementos de la visión de los proveedores y la propuesta de valor se superponen, las áreas
clave de diferenciación continúan surgiendo. Estos incluyen interfaz de usuario, DSML aumentado
(autoML), MLOps, rendimiento y escalabilidad, y casos y técnicas de uso de vanguardia (p. Ej.,
Aprendizaje profundo, IoT a gran escala, aprendizaje de refuerzo).
Muchas organizaciones están iniciando iniciativas DSML utilizando ofertas de proveedores de
servicios de nube pública y de código abierto gratuitos o de bajo costo para desarrollar su
conocimiento y explorar posibilidades. Luego, es probable que adopten software comercial para
abordar casos de uso más amplios y requisitos para la colaboración en equipo, y para poner en
práctica su implementación y administración de modelos. Si bien el éxito de la ciencia de datos
empresariales con una pila de código abierto es posible, la gran mayoría de los equipos de ciencia
de datos maduros e impactantes han invertido en una plataforma comercial.
Los ingresos generales del software de la plataforma DSML crecieron un 19% en 2018 (frente al
17% en 2017) para representar el segundo segmento de más rápido crecimiento del mercado de
software de análisis y BI (detrás de las plataformas de BI modernas). Los ingresos del segmento
para 2018 fueron de $ 3.2 mil millones (en comparación con $ 2.6 mil millones en 2017). Su
participación en el mercado global de análisis y BI creció de 14.1% en 2017 a 15.1% en 2018.
Varios de los proveedores más pequeños y más jóvenes en este espacio ahora mantienen
hipercrecimiento. Crecer a la tasa del mercado es en realidad una tasa de crecimiento lenta en
comparación con muchos proveedores en este Cuadrante Mágico. Los interesados en este mercado
deben monitorear y evaluar regularmente los siguientes desarrollos:
La combinación de usuarios de plataformas DSML se vuelve cada vez más heterogénea. Los científicos
expertos en datos siguen siendo los usuarios principales, pero el científico de datos ciudadanos está
cerca de representar la mayor fuente de demanda e ingresos potenciales. No existe un científico de
datos ciudadanos estándar. La persona incluye no solo analistas de negocios y BI, sino también
personas del espacio de datos tradicional, como analistas de datos e ingenieros de datos, así como
desarrolladores de aplicaciones e ingenieros de aplicaciones. La capacidad de colaborar y compartir es
más crucial que nunca a medida que más usuarios, en diferentes roles, adoptan plataformas DSML.

Tanto el espacio de la plataforma de análisis y BI como el espacio de la plataforma DSML continúan


colisionando e influyendo entre sí. Más proveedores en el sector de análisis y BI están ofreciendo
capacidades predictivas y prescriptivas, a menudo a través de proveedores aumentados. Por su parte,
los proveedores de ciencia de datos están agregando capacidades de transformación de datos y
visualización de datos más robustas a sus plataformas al tiempo que hacen que su entorno sea más
hospitalario para las personas sin antecedentes de ciencia de datos tradicionales.

Aunque los nuevos proveedores están entrando en el mercado, los vendedores "heredados" son muy
relevantes. Muchos proveedores tradicionales en el espacio DSML han establecido firmemente nuevos
productos o están renovando y modernizando su enfoque o expandiéndose a través de asociaciones
estratégicas, fusiones o adquisiciones. Los grandes nombres continúan ofreciendo nuevas capacidades
y enfoques. Al mismo tiempo, están permitiendo que los clientes existentes continúen beneficiándose
de las inversiones que ya han realizado y una pila de tecnología con la que están acostumbrados a
trabajar.

El ecosistema y la comunidad de código abierto son tan vibrantes como siempre. Python está
firmemente establecido como el lenguaje dominante en DSML y la comunidad R continúa creciendo. El
software de código abierto permite a las organizaciones impulsar o ampliar las iniciativas DSML con
poca inversión inicial o adicional. Además, el ecosistema está abierto a, y respaldado por, proveedores
que también ofrecen plataformas comerciales en el mercado DSML.

Los bloques de construcción de algoritmos a menudo se usan para crear modelos. Esta tendencia
continuará a medida que los modelos continúen siendo abstraídos y empaquetados para problemas
específicos de dominio e industria.

Los modelos empaquetados están cada vez más disponibles a través de API que pueden integrarse
fácilmente y consumirse en aplicaciones (consulte “Cuadrante mágico para servicios de desarrollo de
AI en la nube” ). Muchas API de servicios en la nube están muy centradas en problemas específicos
del dominio y la industria. Este enfoque puede reducir o incluso eliminar la necesidad de que las
organizaciones construyan modelos ellas mismas.

Los equipos de ciencia de datos se han vuelto mucho mejores para desarrollar modelos que para
ponerlos en funcionamiento. Como resultado, el valor comercial a menudo no se mide ni se realiza. Las
capacidades de MLOps dentro de las plataformas de ciencia de datos van más allá de la mera
implementación a la gestión y mantenimiento continuos de modelos en producción. Mientras que se
desarrollan muchos modelos, pocos se ponen en funcionamiento de una manera que conduzca no solo
a la implementación sino también a la gestión y el mantenimiento continuos. Además, los modelos que
no se gestionan y supervisan adecuadamente corren el riesgo de volverse irrelevantes o inexactos a
medida que cambian las condiciones comerciales.
El ritmo de cambio e innovación del mercado DSML solo continuará acelerándose en el futuro
previsible.
Durante el año pasado, varias tendencias en las ofertas de la plataforma DSML han cobrado
impulso. Las plataformas modernas incorporan o acomodan lo siguiente:

Componentización: las plataformas compuestas de múltiples componentes se han convertido en la


norma a medida que los proveedores desarrollan sus propios componentes, usan software de código
abierto o se asocian con otros proveedores para expandir sus ofertas. Los proveedores proporcionan
cada vez más una colección heterogénea de herramientas, a diferencia de las integraciones nativas
dentro de un solo producto. La definición de una plataforma DSML se ha actualizado significativamente
este año para reflejar esta realidad.

Aceptación de código abierto:Todas las plataformas DSML usan e incorporan software de código
abierto, aunque en distintos grados. Algunos proporcionan API para acceder a bibliotecas comunes de
código abierto. Algunos incorporan tecnologías de código abierto en capacidades accesibles dentro de
sus propias plataformas. Otros incluyen la capacidad de usar artefactos analíticos creados dentro de la
plataforma dentro del ecosistema de código abierto. Otros proporcionan más envoltorios para trabajar
de forma nativa con herramientas de código abierto en un entorno consistente que también permite la
operacionalización. El soporte de plataformas y marcos de código abierto a través de varios enfoques
colaborativos y orquestados se ha convertido en el estándar. Estas plataformas adaptativas aumentan
el soporte para nuevas capacidades y mayores cargas de trabajo al tiempo que reducen la necesidad
de que los usuarios cambien plataformas para diferentes contextos.

Múltiples tipos de usuarios: los desarrollos orgánicos en la ciencia de datos exigen que las herramientas
aborden las necesidades de los usuarios con diferentes habilidades y diferentes niveles de conocimiento
de DSML. Algunas plataformas todavía están diseñadas principalmente para un tipo de usuario
específico (generalmente científicos expertos en datos). Sin embargo, los componentes o capacidades
para permitir una amplia gama de usuarios, desde científicos de datos ciudadanos hasta científicos de
datos expertos y desarrolladores de aplicaciones, son cada vez más la norma.

Coherencia de la plataforma: la mayor componenteización y la incorporación de código abierto crean


más potencial para soluciones fragmentadas e incómodas. La necesidad de acceder a múltiples
componentes y plataformas para obtener capacidades completas y sólidas debe equilibrarse con la
conveniencia de acceder a todas las funcionalidades de una manera fluida y coherente. A medida que
las ofertas abarcan un entorno heterogéneo, la cohesión se vuelve cada vez más importante. A medida
que las ofertas se expanden para proporcionar más capacidades y mantenerse al día con las tecnologías
emergentes, es crucial que admitan la capacidad no solo de administrar múltiples componentes, sino
también de acceder a ellos fácilmente y sin problemas desde la plataforma.

MLOps: las capacidades de operacionalización no solo se implementan, sino que también administran
y mantienen modelos a lo largo del tiempo. La funcionalidad MLOps es crucial para alentar la
reevaluación continua de la relevancia y validez del análisis a lo largo del tiempo a medida que cambian
las necesidades, prioridades y condiciones del negocio. A medida que DSML sale del laboratorio hacia
la corriente principal, debe operacionalizarse con una integración perfecta y una arquitectura y procesos
cuidadosamente diseñados. Las capacidades de MLOps también deben incluir explicabilidad, versiones
de modelos y análisis de impacto empresarial, entre otros.
Depósitos de modelos y datos: existe una tendencia a proporcionar un medio para rastrear y compartir
tanto los datos como los artefactos analíticos generados como parte del proceso de desarrollo e
implementación del modelo. Esto es vital para la deduplicación de esfuerzos, la gobernanza y la
escalabilidad empresarial de las iniciativas de ciencia de datos. También es compatible con la
actualización continua de los activos analíticos en uso y proporciona transparencia crítica en las
operaciones de ciencia de datos.

Colaboración: a medida que el acceso a las plataformas DSML se democratiza y más tipos de usuarios
trabajan juntos a través de la tubería analítica, la necesidad de poder colaborar fácilmente y sin
problemas aumenta significativamente. A medida que las plataformas se vuelven más accesibles para
los nuevos tipos de usuarios, estos productos deben permitir que las personas trabajen juntas y
compartan en tiempo real durante todo el ciclo de vida de la ciencia de datos. Las plataformas DSML
también están facilitando una colaboración vital entre los equipos de ciencia de datos y TI, y entre los
científicos de datos y los líderes de la línea de negocios.

Extensión a la gestión de decisiones: cada vez más, las plataformas DSML se extienden más allá de la
operacionalización para apoyar la colaboración, lo que, a su vez, alimenta el interés en las capacidades
de gestión de decisiones a medida que las herramientas de análisis van más allá de la predicción para
impulsar explícitamente las decisiones comerciales.
Evidencia

Las evaluaciones y comentarios de Gartner en este Cuadrante Mágico se basan en las siguientes
fuentes:

Manuales de instrucciones y documentación de proveedores seleccionados. Los utilizamos para verificar


la funcionalidad de la plataforma.

Una encuesta en línea de clientes de referencia de proveedores, realizada entre septiembre y octubre
de 2019. Esta encuesta obtuvo 175 respuestas sobre la experiencia de los clientes de referencia con
las plataformas de proveedores. La lista de participantes en la encuesta derivada de la información
suministrada por los proveedores.

Entrevistas telefónicas realizadas con referencias de clientes proporcionadas por los vendedores.

Un cuestionario completado por los vendedores.

Sesiones informativas para proveedores, incluidas demostraciones de productos, sobre la estrategia y


las operaciones de proveedores individuales.

Una solicitud de propuesta exhaustiva que indaga cómo cada proveedor ofrece características
específicas que corresponden a nuestras 15 capacidades críticas (consulte “Kit de herramientas:
Solicitud de propuestas para plataformas de ciencia de datos y aprendizaje automático” ).

Una demostración en video preparada de qué tan bien las plataformas DSML de los proveedores
abordan los requisitos de funcionalidad específicos en las 15 capacidades críticas.
Interacciones entre los analistas de Gartner y los clientes de Gartner que deciden sus criterios de
evaluación, y las opiniones de los clientes de Gartner sobre el éxito de los proveedores que cumplen
con estos criterios
Nota 1Definición de una plataforma de código abierto

El enfoque de código abierto se está volviendo más común en todo el mercado de plataformas
DSML. Permite a las personas innovar en colaboración, cada una aportando su propia perspectiva
de una manera que acorta el tiempo de comercialización.
El enfoque de código abierto se está convirtiendo rápidamente en una forma convencional de
introducir nuevas capacidades. Muchas de estas capacidades se evalúan en este Cuadrante Mágico.
Los ejemplos más comunes de código abierto en el mercado de plataformas DSML son los
componentes.
Los componentes de código abierto incluyen:

Lenguajes de programación de código abierto como Python y R

Bibliotecas y marcos de código abierto como scikit-learn y TensorFlow

Visualizaciones de código abierto como D3 y Plotly

Cuadernos de código abierto como Jupyter y Zeppelin

Plataformas de gestión de datos de código abierto como Apache Spark y Hadoop


Una plataforma se considera abierta, pero no de código abierto, si ofrece flexibilidad y extensibilidad
para acceder a los componentes de código abierto. Además, una plataforma puede ser de código
abierto, lo que significa que su código fuente está disponible para su uso o modificación.
El software de código abierto generalmente se desarrolla como una colaboración pública y se pone
a disposición de forma gratuita. Sin embargo, solo las plataformas de código abierto que también
tienen productos con licencia comercial fueron elegibles para su inclusión en este Cuadrante Mágico.
Definiciones de criterios de evaluación

Habilidad para hacer

Producto / servicio: bienes y servicios básicos ofrecidos por el proveedor para el mercado
definido. Esto incluye las capacidades actuales de productos / servicios, calidad, conjuntos de
características, habilidades, etc., ya sea que se ofrezcan de forma nativa o mediante acuerdos /
asociaciones OEM, tal como se define en la definición del mercado y se detalla en los criterios.
Viabilidad general: la viabilidad incluye una evaluación de la salud financiera general de la
organización, el éxito financiero y práctico de la unidad de negocios, y la probabilidad de que la
unidad de negocios individual continúe invirtiendo en el producto, continúe ofreciendo el producto
y avance el estado de El arte dentro de la cartera de productos de la organización.
Ejecución de ventas / precios: las capacidades del proveedor en todas las actividades de preventa
y la estructura que las respalda. Esto incluye la gestión de acuerdos, precios y negociación, soporte
de preventa y la efectividad general del canal de ventas.
Capacidad de respuesta / registro del mercado: capacidad de responder, cambiar de dirección, ser
flexible y alcanzar el éxito competitivo a medida que se desarrollan las oportunidades, los
competidores actúan, las necesidades del cliente evolucionan y la dinámica del mercado
cambia. Este criterio también considera el historial de respuesta del proveedor.
Ejecución de marketing: la claridad, calidad, creatividad y eficacia de los programas diseñados para
transmitir el mensaje de la organización para influir en el mercado, promover la marca y el negocio,
aumentar el conocimiento de los productos y establecer una identificación positiva con el producto
/ marca y organización en el mentes de compradores. Esta "participación mental" puede ser
impulsada por una combinación de publicidad, iniciativas de promoción, liderazgo de opinión, boca
a boca y actividades de ventas.
Experiencia del cliente: relaciones, productos y servicios / programas que permiten a los clientes
tener éxito con los productos evaluados. Específicamente, esto incluye las formas en que los clientes
reciben soporte técnico o soporte de cuenta. Esto también puede incluir herramientas auxiliares,
programas de atención al cliente (y la calidad de los mismos), disponibilidad de grupos de usuarios,
acuerdos de nivel de servicio, etc.
Operaciones: la capacidad de la organización para cumplir sus objetivos y compromisos. Los
factores incluyen la calidad de la estructura organizativa, incluidas las habilidades, experiencias,
programas, sistemas y otros vehículos que permiten a la organización operar de manera efectiva y
eficiente de manera continua.
Integridad de la visión

Comprensión del mercado: capacidad del vendedor para comprender los deseos y necesidades de
los compradores y traducirlos en productos y servicios. Los proveedores que muestran el más alto
grado de visión escuchan y entienden los deseos y necesidades de los compradores, y pueden dar
forma o mejorar a aquellos con su visión adicional.
Estrategia de marketing: un conjunto claro y diferenciado de mensajes comunicados de manera
consistente en toda la organización y externalizados a través del sitio web, publicidad, programas
de clientes y declaraciones de posicionamiento.
Estrategia de ventas: la estrategia para vender productos que utiliza la red apropiada de afiliados
de ventas, marketing, servicios y comunicaciones directas e indirectas que amplían el alcance y la
profundidad del alcance del mercado, habilidades, experiencia, tecnologías, servicios y la base de
clientes.
Estrategia de oferta (producto): el enfoque del proveedor para el desarrollo y entrega de productos
que enfatiza la diferenciación, la funcionalidad, la metodología y los conjuntos de características a
medida que se corresponden con los requisitos actuales y futuros.
Modelo de negocio: la solidez y la lógica de la propuesta comercial subyacente del proveedor.
Estrategia vertical / industrial: la estrategia del proveedor para dirigir recursos, habilidades y ofertas
para satisfacer las necesidades específicas de segmentos de mercado individuales, incluidos los
mercados verticales.
Innovación: diseños directos, relacionados, complementarios y sinérgicos de recursos, experiencia
o capital para fines de inversión, consolidación, defensivos o preventivos.
Estrategia geográfica: la estrategia del proveedor para dirigir recursos, habilidades y ofertas para
satisfacer las necesidades específicas de las geografías fuera del "hogar" o la geografía nativa, ya
sea directamente o a través de socios, canales y filiales, según corresponda para esa geografía y
mercado.

También podría gustarte