Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Estudio de Mercado
Estudio de Mercado
Se trata, en definitiva, de una potente herramienta, que debe permitir a la empresa obtener la
información necesaria para establecer las diferentes políticas, objetivos, planes y estrategias más
adecuadas a sus intereses.
En nuestro país, la investigación de mercados continúa con una tónica de crecimientos moderados
que, desde principios del siglo, viene siendo habitual en el sector ya que en el año 2006 facturó
430,2 millones de euros, lo que supuso crecer un 7,3 por 100 más que el ejercicio anterior, según
el informe elaborado por AEDEMO (Asociación Nacional de Empresas de Investigación de
Mercados). El 75,8 por 100 de la facturación procedió de estudios nacionales mientras que el 24,2
por 100 restante fue aportado por estudios contratados por empresas radicadas fuera de España.
Respecto al tipo de cliente que contrata investigación de mercados en España, un 40,4 por 100
está formado por empresas fabricantes de bienes de consumo, un 12 por 100 por el sector público,
un 6,4 por 100 medios de comunicación, y un 5,9 por 100 distribución y utilities (electricidad, gas,
telecomunicaciones). Los sectores que mayor crecimiento han registrado a lo largo de 2006 han
sido el sector público y los medios. El tipo de investigación que se ha contratado es
mayoritariamente cuantitativa, con un 81,5 por 100, destacando, dentro de este grupo, los
estudios con entrevista personal que representan el 30,6 por 100, las entrevistas telefónicas, el
25,9 por 100, las entrevistas on line que suponen el 9,6 por 100 y por correo postal el 2,3 por 100.
Asimismo y frente a la atomización empresarial que tiene el sector, la solución vendrá dada de la
mano de la calidad que se aporte y máxime en un momento en que la investigación se encuentra
en un proceso de cambio profundo afectado por el desarrollo de las nuevas tecnologías, la nueva
economía y la globalización del mercado.
La dirección empresarial, ya que los objetivos que se persiguen con la investigación están
estrechamente ligados al diseño de una estrategia y al cumplimiento de unas metas de
venta, precios, productos y distribución.
Cuando las soluciones alternativas de los problemas son complejas, la toma de decisiones sin su
auxilio es peligrosa.
Hace por una parte más eficaz el sistema de ventas y el rendimiento de los vendedores, y
por otra reduce el coste de ventas.
– Usos y actitudes.
– Análisis de motivaciones.
– Satisfacción de la clientela.
Efectividad publicitaria:
– Pretest publicitario.
– Postest de campañas.
– Efectividad promocional.
Análisis de producto:
– Test de concepto.
– Análisis multiconcepto-multiatributo.
– Test de producto.
Estudios comerciales:
Estudios de distribución:
Medios de comunicación:
– Audiencia de medios.
– Efectividad de soportes.
– Sondeos electorales.
– Investigación sociológica.
– Estudios institucionales.
Posicionamiento en la red, motivado por la gran importancia que la red aporta a las
compañías; habrá que realizar un informe comparativo de su situación con respecto a la
competencia, tanto en el mercado nacional como en el internacional, aunque no estuviese
implantada.
Etcétera.
Para realizar un completo y exhaustivo análisis de la situación hemos de obtener un «histórico» con
los datos mencionados anteriormente; esto significa que deberemos contar con información de los
tres o cinco años anteriores, dependiendo del grado de rigor y profundidad que deseemos
implementar al estudio.
No obstante, en caso de duda o no utilidad, debe realizarse de nuevo a partir de bases correctas y
actuales.
Una vez elegidas las posibles fuentes de datos, hemos de valorarlas, teniendo en cuenta los
siguientes aspectos:
Grado de fiabilidad.
Origen de la fuente.
Grado de obsolescencia.
Validez contrastada.
Las fuentes de datos las podemos dividir en internas y externas. Internas son aquellas cuya
información obtenida emana de la propia empresa. Éste es el caso más favorable para los equipos
investigadores, ya que la actualización permanente de los datos que posee la propia empresa es
una valiosa fuente de información. Externas son aquellas que provienen de diferentes organismos
ajenos a la empresa, publicaciones, Internet, etc.
Asociaciones profesionales.
Etcétera.
Sin embargo, estas informaciones pueden obtenerse con relativa facilidad. ¿Cómo? Se tendrá en
cuenta no a todos los hogares, sino a una muestra relativamente pequeña de los mismos; lo que
se hace, pues, es sustituir el universo que se quiere estudiar por una muestra que lo represente. La
cuestión que ahora puede plantearse es la obtención del grado de fiabilidad de la encuesta. Si la
muestra está bien elegida y es suficientemente amplia, ésta será representativa. Además, es
necesario atender al método mediante el cual se elige físicamente la muestra:
Este tipo de muestras presenta ciertos tipos de inconvenientes. Por eso, cuando el número de
elementos que constituye la población es elevado, este proceso lleva consigo un esfuerzo
considerable. El mecanismo operativo se puede simplificar procediendo a una elección
«sistemática», que consiste en lo siguiente: si conocemos el llamado coeficiente de elevación, que
se consigue dividiendo el número total de elementos de la población que se quiere estudiar por el
correspondiente al de la muestra, el resultado que nos dé será el límite superior para seleccionar al
azar un número entre este cociente y la unidad, quedando fijado entonces como el primer
seleccionado. A continuación, a este número se le suma el coeficiente de elevación y el número
obtenido es el segundo elemento, y así sucesivamente.
Explicación gráfica:
N
Coeficiente de elevación Ce =
n
1, .............................................. X .............................................., Ce
1.erseleccionado = X
2.° seleccionado = X + Ce
3.erseleccionado = 2.° + Ce
Un muestreo, bastante utilizado en las entrevistas y que según algunos autores puede resultar
prácticamente aleatorio, es el denominado «muestreo por rutas», en el que partiendo de unos
puntos determinados (calle, número...), los agentes van siguiendo su itinerario y efectúan las
entrevistas de acuerdo con un ritmo (por ejemplo, cada 10 edificios) y unas normas (para la
elección de viviendas). Una variante de muestreo no aleatorio, que suele utilizarse frecuentemente
en determinados casos, son los focus groups o «grupos de discusión», cuya importancia en
determinados estudios va en aumento.
Las fórmulas generales que permiten determinar el tamaño de la muestra son las siguientes:
Z2 x P x Q
n=
E2
Z2 x P x Q x N
n=
E2 (N - 1) + Z2 x P x Q
Leyenda:
Z2 = Valor crítico correspondiente al nivel de confianza elegido; siempre se opera con valor
sigma 2, luego Z = 2.
Para facilitar el cálculo del tamaño de la muestra suelen utilizarse las tablas, incorporadas en los
anexos I y II al final del capítulo, cuyo uso viene dado por el fácil método del eje de coordenadas.
EJEMPLO 1
22 x P x Q 4 x 50 x 50
n= = = 625 personas
42 16
EJEMPLO 2
22 x 50 x 50 x 10.000
n= = 588 personas
42 (10.000 - 1) + 2 2
x 50 x 50 x 50
En ambos casos si hubiésemos ido a las tablas de los anexos I y II hubiésemos obtenido el mismo
resultado.
El cuestionario no sólo debe permitir una correcta plasmación de la información buscada, sino que
también tiene que ser diseñado de tal forma que facilite al máximo las posibilidades de un
tratamiento cuantitativo de los datos recogidos, ya que en los estudios cualitativos se denominan
guías de tópicos. Es decir, hay dos aspectos que se deben tener en cuenta:
Claridad del lenguaje. Hay que procurar términos que sean suficientemente claros, lo que
evitará errores de interpretación.
Respuestas fáciles. Para evitar incorrecciones como consecuencia de la fatiga, hay que
elaborar preguntas cuyas respuestas no supongan gran esfuerzo mental.
No influenciar la respuesta. Hay que dejar entera libertad a la hora de elegir la respuesta,
sin influir de ninguna forma al entrevistado.
Abiertas y cerradas. Abiertas son aquellas en que el entrevistado puede dar libremente su
respuesta. Por el contrario, en las cerradas el entrevistado debe elegir una o varias.
Preguntas para ordenar. En ellas se pide al entrevistado que según su criterio coloque por
orden los términos que se le indican.
En el anexo III se recoge un modelo real de la encuesta que sirve para evaluar el nivel de
satifacción de una empresa y sus productos.
Estos miembros del equipo investigador deben ser entrenados para cada investigación, pues su
influencia en los estudios es enorme, hasta el punto de que por muy planteada y dirigida que esté
una encuesta, si no se dispone del personal competente para efectuar los trabajos de campo, los
resultados pueden desvirtuarse. Es ésta una opinión avalada por la experiencia y muy generalizada
entre los autores que hemos consultado.
Hay muchas características que dependerán del tipo de estudios que se vayan a realizar. Así ocurre
con las relativas a la edad, preparación técnica y cultural, etc.; sin embargo, existen algunas
peculiaridades de las que difícilmente podrá prescindirse:
Tipología metódica y ordenada. Deben saber captar detalles sobre la veracidad y seriedad
del entrevistado, así como otros factores externos.
Sinceridad. Su trabajo es siempre algo libre, y la sinceridad y responsabilidad son
importantes a la hora de puntuar a los posibles candidatos.
Activo. Debe cumplir su cometido valiéndose por sí mismo. No se trata de que estén
ocupando cierto número de horas, sino de que sean capaces de alcanzar sus objetivos.
Presencia positiva. Su aspecto ha de ser agradable.
Los entrevistadores son dirigidos por jefes de grupo que, a veces, son entrevistadores veteranos.
Se recomienda un jefe de grupo para cada cinco agentes encuestadores, aproximadamente, y su
misión consiste en acompañar a los encuestadores en algunas entrevistas para verificar la calidad
de su trabajo y corregirlos en caso necesario, así como efectuar aquellas visitas más difíciles y
delicadas y, finalmente, proceder a una primera revisión de los formularios.
Para disminuir la posibilidad de que sucedan estas cosas, el supervisor o jefe de equipo debe
repetir algunas de las entrevistas y comprobar que todo se hizo correctamente, así como aclarar
cualquier detalle que esté incompleto o induzca a error. Si se comprueba la falsedad total o parcial
de un cuestionario, se han de revisar todos los efectuados por el mismo agente. Una vez depurados
los cuestionarios, el supervisor estampará su visto bueno en todos para someterlos a la tabulación.
La tabulación puede ser tratada de forma manual o informática. Aunque la primera está totalmente
en desuso, se efectúa a nivel particular o cuando el cuestionario es reducido y se realiza mediante
el punteo o simple recuento de los datos. Se debe tabular informáticamente, ya que la información
que se recoge en las encuestas es muy amplia y exige, para su eficaz utilización, la realización de
múltiples clasificaciones combinadas entre variables.
En todo caso, el proceso de tabulación requiere una previa codificación de las respuestas obtenidas
en los cuestionarios, es decir, la traducción de los cuestionarios a una clave numérica. El momento
más adecuado para elaborar este plan de procesamiento de datos es al elaborar el cuestionario, ya
que de esta forma se evita la posibilidad de que surjan cuestiones que no puedan ser
correctamente tratadas por falta de preguntas adecuadas o de difícil tabulación.
«Los investigadores pueden dedicar un tiempo considerable y mucho dinero de la firma para llevar
a cabo una tarea, estar entusiasmados porque los resultados apuntan claramente hacia
conclusiones importantes. Dedicar mucho esfuerzo para producir un informe realmente valioso. Los
resultados se envían al principal directivo de la empresa y el analista espera los comentarios.
Luego se le llama y se le pregunta: ¿Quién leyó el borrador de este trabajo?, he encontrado tres
errores de ortografía en el informe. Cuando uno ha tenido experiencias similares a ésta, comienza
a apreciar la importancia que el ejecutivo da a la presentación de los resultados.»
La triste reacción del directivo es lo que hay que evitar a la hora de presentar un informe final o
cualquier otro tipo de estudios, ya que en la mayoría de los casos la efectividad de un informe se
juzga por la habilidad con la que se haya escrito y presentado el mismo, olvidándose del
planteamiento y la ejecución adecuados.
Algunas veces las presentaciones son demasiado largas, otras, muy cortas; a veces se abusa de
gráficos, por ello e independientemente de a quién vaya dirigido el informe se han incluido las
principales características que deben servirnos para presentarlo:
La portada debe dar a conocer el tema sobre el que versa el informe, para y por quién ha
sido preparado, así como la fecha en la que se ha terminado (mes y año solamente).
En la introducción se explicarán los motivos por los que se ha llevado a cabo la tarea, el
objetivo previsto en el estudio, así como el equipo que ha colaborado.
El cuerpo del informe comenzará con una exposición de los problemas que se van a
investigar y las hipótesis sobre las cuales se apoyará la investigación. A continuación, se
describirán los métodos empleados, fuentes de información, forma de establecer la
muestra, tipo de cuestionarios y el número y clase de investigadores que participen.
Los resultados se presentarán en tablas y gráficos que expliquen las relaciones existentes
entre las diversas variables analizadas.
A efectos metodológicos, las técnicas cuantitativas se basan en agrupar y medir a los individuos
muestrales en categorías, en función de variables preestablecidas, tales como pautas de consumo,
rasgos sociodemográficos, ejes lógicos de segmentación, etc.
Por tanto, los resultados obtenidos a partir de técnicas cuantitativas se validan exclusivamente con
criterios estadísticos, por lo que no son adecuadas para reconstruir las relaciones sociales que
subyacen a la medición concreta. En el mejor de los casos, se limitan a describirla. Es decir, no
descubren procesos, simplemente los cuantifican.
Pongamos un sencillo ejemplo. Supongamos que se realiza un análisis del mercado turístico en
España y una de sus conclusiones descriptivas es que los individuos de núcleos poblacionales de
más de 10.000 habitantes escogen con mucha mayor frecuencia la temporada baja como época
vacacional de desplazamiento de su vivienda habitual. Con este dato de referencia, a una
determinada agencia de viajes podría ocurrírsele una estrategia promocional de este tipo de
turismo en municipios pequeños, creyendo haber descubierto un nicho de mercado. Pues bien,
supongamos ahora que en los núcleos pequeños la distribución por sectores de actividad incorpora
una proporción muy superior de trabajadores en el sector agrícola que en los núcleos grandes, y
que la única época en la que pueden desentenderse de sus labores en el campo sea en verano. Si
esto es cierto, la agencia que diseñó la campaña promocional fracasaría. Podemos observar que, si
bien la investigación es estadísticamente perfecta (puesto que cuantificó adecuadamente las
variables), conceptualmente no tiene ningún valor, ya que la relación entre tamaño de hábitat y
hábitos de consumo turístico es sólo una relación numérica pero prácticamente diferente.
Ya en los años 70, pero sobre todo en la década de los 80, se empezaron a desarrollar en la
investigación social, y específicamente en la de mercados, otro tipo de técnicas complementarias
que en ningún caso compiten, o así debería ser, con las cuantitativas, puesto que implican
perspectivas diferentes. Se trataría de diversas maneras de observar la misma realidad. La
investigación cualitativa extrae las variables motivacionales que configuran los ejes valorativos y
de actuación. Por su parte, el análisis cuantitativo mide tales ejes, así como las categorías surgidas
y las relaciones entre ellas. En sentido figurado, la investigación cuantitativa mide la parte visible
de la luna y la cualitativa explica por qué una parte es visible y la otra no. Explicación y descripción
son dos caras del mismo fenómeno. La visibilidad de la luna no implica necesariamente la
imposibilidad del estudio de su cara oculta.
GRÁFICO 2. PRINCIPALES TÉCNICAS DE RECOGIDA DE INFORMACIÓN
Antes de adentrarnos en las técnicas cualitativas, he considerado interesante incluir una técnica
muy utilizada en los últimos años y que adquirirá un importante protagonismo en el marketing del
siglo XXI.
Está cada vez más claro que la demanda es uno de los principales termómetros del negocio. Si hay
compradores, hay ventas y, por tanto, hay ingresos para la empresa. Por ello, las compañías deben
tener muy en cuenta la calidad de la atención que prestan a sus clientes. ¿Y cuál es la mejor
manera de evaluar el grado de satisfacción de una demanda ante la oferta de un producto, un
servicio o incluso ante el tratamiento dado por un vendedor en el momento de una compra?:
estando en la piel del cliente, y esto se consigue a través de la estrategia del cliente misteriosoo
mistery shopping, una herramienta sencilla y muy eficiente a la hora de detectar los posibles fallos
en la actividad que uno se propone.
Lo más ventajoso es que no es necesario ser un experto, ni tampoco invertir mucho dinero para
poner esta táctica en marcha. ¿Quién no es capaz de reconocer una sonrisa de bienvenida al entrar
en una tienda, o una dosis de cordialidad en la despedida? ¿Y quién no se da cuenta cuando un
vendedor intenta contestar a las cuestiones que plantea con simpatía, seguridad y agilidad? O bien
detectar que el seguimiento no se está realizando como debería ser.
Aunque ocurra por teléfono, en el momento de hablar con la apoderada de un banco, o cuando
pedimos información a una agencia de viajes, es posible detectar posibles fallos en la comunicación
y en la atención al público, lo que muchas veces puede pasar desapercibido por la rutina diaria,
generando posibles perjuicios a medio y largo plazo. Además, la misma evaluación que se hace a
su propio negocio también puede ser puesta en marcha en la tienda de al lado, es decir: el mistery
shopping es también una gran herramienta para conocer a la competencia y saber sobre sus
debilidades, fortalezas, ventajas, etc.
Pero, esas son sólo algunas de las observaciones que se puede hacer con una simple visita a un
local de venta al público o con una rápida llamada para, a partir de ahí, trazar estrategias que
permitan mejorar los resultados. Sin embargo, lo que se percibe en la práctica es que difícilmente
los grandes directivos salen a la calle para conocer a fondo el funcionamiento de la empresa que
dirigen. El director general de una compañía aérea, por ejemplo, siempre que viaja por su empresa
lo hace como el director general y no como un pasajero más de la clase económica. Así que la idea
que se formará del servicio ofrecido no reflejará la realidad vivida por la mayoría de los usuarios. El
ideal sería que estas personas viviesen un día como cliente misterioso.
Y esta afirmación es válida en todos los sectores donde existe gran rivalidad competitiva. Hay
muchas empresas que venden casi lo mismo, a un precio muy similar. La atención al cliente, junto
con la estrategia de marketing y el saber hacer del vendedor son seguramente los grandes
elementos diferenciadores que permiten a cualquier empresa ofrecer una ventaja competitiva en
un mercado tan homogéneo y atomizado. Pero parece que conceptos básicos como éstos son
olvidados, y lo que se percibe en la práctica es justo al revés. Nuestra experiencia nos indica que la
estrategia del cliente misterioso ha de realizarse de forma regular y a nivel profesional.
Lo que está claro es que ningún negocio se mantiene dinámico sin su gran protagonista: el cliente,
pues para él se crea, se produce y se vende. Por tanto, hay que estar muy atento para que los
reyes del negocio no prefieran a la competencia y se conviertan en clientes fieles y prescriptores de
nuestra empresa. Seguramente así el mistery shopping ayudará al empresario y directivo a
conocer mejor las áreas de mejora que tiene nuestra compañía para conseguir dar respuestas
satisfactorias a las necesidades del mercado.
Surgen así las técnicas cualitativas, como una vía de investigación complementaria. Si el objetivo
de la investigación cuantitativa es clasificar, agrupar en categorías y medir (en definitiva, describir
la realidad), la finalidad de las técnicas cualitativas es analizar el estrato social, o sea, encontrar los
«porqués» de esa realidad, o al menos marcarnos las tendencias.
Las técnicas cualitativas más difundidas son los grupos de discusión, denominadas en
determinadas ocasiones focus group, y las entrevistas en profundidad. En ambos casos, la recogida
de información se traduce en la obtención y posterior análisis del diálogo libre y espontáneo entre
un reducido grupo de personas (grupo de discusión) o entre el entrevistador y el entrevistado
(entrevista en profundidad).
Obviamente, el límite de estas técnicas es que no existen unidades de medida muestral, de ahí que
sean complementarias de las cuantitativas. Su relevancia cada vez mayor en la investigación de
mercados radica en que mediante el análisis del discurso de los microgrupos podemos ser capaces
de captar los ejes motivacionales que subyacen a las opiniones cotidianas y al comportamiento
diario.
No se conocen las variables reales que estructuran el mercado, ni los procesos sociales que
lo definen y reproducen.
Se utilizan como pretest antes del diseño definitivo del cuestionario. No sólo ayudan a
formular correctamente las preguntas, sino que contribuyen a precodificar y cerrar las
posibles respuestas en categorías semánticas claras y excluyentes entre sí.
Por su parte, el grupo de discusión tiene una ventaja adicional. En el desarrollo del propio
grupo, suelen representarse los distintos roles sociales: líder de opinión, creativo,
escéptico, reforzadores, etc. La relación entre la dinámica surgida y la evolución del
discurso en su contexto es lo que debe reflejar el microcosmos a partir del cual se
extraerán las dimensiones fundamentales.
Conviene puntualizar que estas técnicas poco tienen que ver con ciertas dinámicas de grupo que se
realizan a nivel interno de empresas, tales como las «tormentas de ideas», cuya finalidad es
exclusivamente la de producir ideas, con lo que no requieren un análisis específico, más allá del
resumen o de la extracción casi literal de tales ideas.
3.4. Metodología
La realización de los grupos de discusión se caracteriza por cierta flexibilidad. A continuación
mencionaremos brevemente algunos requisitos básicos de funcionamiento.
El grupo debe estar formado por un número de personas que puede oscilar entre 6 y 10 individuos.
Los integrantes no deben conocerse previamente, al objeto de evitar alianzas surgidas de ámbitos
ajenos a la propia discusión.
Si es posible, tampoco deben conocer con antelación el objetivo de la investigación, puesto que
podrían formarse opiniones o valoraciones preconcebidas. Una descripción aséptica y genérica de
tal objetivo debe ser suficiente.
Las condiciones de la sala serán agradables. Los integrantes del grupo se sentarán alrededor de
una mesa sin que existan relaciones de prevalencia entre ellos, ni siquiera del moderador. Una
mesa redonda se adecua perfectamente a este fin.
La duración de la reunión también es flexible. Como criterio orientativo, suelen girar alrededor de
una hora y media. La información suele ser grabada en cinta o televisión y es transcrita
posteriormente de manera literal. La grabación, que en un primer momento puede coartar a los
individuos, es fundamental puesto que la realización en un «acta» o resumen no tendría ninguna
utilidad a efectos analíticos. En el momento de introducir el tema a discutir, el moderador explicará
los criterios que hacen necesaria la presencia del casete o televisor.
También en el caso de productos novedosos puede ser aconsejable un test de producto o uso
encaminado a averiguar si es necesario modificar características del producto (sabor, durabilidad,
comodidad de manejo), o si estas características pueden anular en la práctica lo que era una buena
idea sobre el papel.
El test de concepto y/o el estudio de consumidor actual deben permitirnos definir, al menos en
líneas generales, a qué segmentos deseamos dirigir el producto y en qué canales podría tener más
aceptación por el consumidor.
Consumidores de esos segmentos: estudio del mercado potencial que deberá cuantificar
cuál es la demanda esperada, con qué sensibilidad al precio debemos contar, en qué
canales estarían más dispuestos a comprar nuestro producto (y en cuáles no lo
comprarían), etc.
Representantes de los posibles canales: estudio al canal, en el que se plantea la posibilidad
de comercialización y se pregunta por condiciones, costes, posibilidades, etc.
Como consecuencia del punto anterior, los observatorios suelen combinar información
obtenida de distintas fuentes: organismos oficiales, estudios de mercado, asociaciones
sectoriales, etc.
A) Cómo se hace
El primer paso en el diseño de un observatorio es la determinación de los contenidos de
información que va a aportar, y que normalmente se reflejarán en los resultados en forma de
indicadores. Algunos ejemplos de indicadores básicos para un observatorio en una categoría de
productos de gran consumo serían:
Estructura del mercado:
– Precios.
– Tipos de canal.
– Actitudes y percepciones de los puntos de venta hacia las marcas (satisfacción, imagen,
fidelidad, etc.).
El consumidor:
– Relación con las marcas: indicadores funnel: conocimiento --> consideración de compra
--> prueba --> consumo --> fidelidad/exclusividad.
Una vez determinados los contenidos del observatorio, se procede a la definición de las fuentes de
información, comenzando por revisar qué fuentes de las existentes en la actualidad pueden aportar
datos al observatorio cumpliendo los requisitos de consistencia, representatividad y vigencia
(actualización).
Entre estas fuentes solemos contar con organismos oficiales (Instituto Nacional de Estadística,
ministerios, etc.), anuarios estadísticos, y anuarios o memorias anuales de asociaciones
profesionales/sectoriales.
Normalmente estas fuentes sólo cubren una parte de los indicadores planificados para el
observatorio, por lo que suele ser necesario recurrir a proveedores especializados de información,
como son los paneles de consumidores y los paneles de distribución.
Por último, para aquellos indicadores no cubiertos por ninguna de las fuentes anteriores, se
diseñarán estudios tipo tracking: encuestas periódicas a muestras representativas de consumidores
y/o puntos de venta.
Ola piloto: normalmente, la primera edición del observatorio sirve para ajustar y validar tanto las
fuentes de información como los indicadores resultantes: qué tratamiento estadístico se va a dar a
la información, cuál es la consistencia de datos entre distintas fuentes, cómo se van a presentar o
editar los resultados.
Pero el verdadero valor del observatorio se obtiene a partir de la segunda ola, a través de un
seguimiento periódico, cuando se pueden analizar los resultados desde un punto de vista evolutivo.
La periodicidad en la actualización de indicadores vendrá normalmente determinada por dos
factores:
Con una serie histórica suficiente, el observatorio permite crear un banco de experiencia
sobre distintos eventos ocurridos en el pasado: por ejemplo, guerras de precios,
enfriamiento de la economía, etc. En estos casos, el usuario del observatorio contará con
un conocimiento –basado en experiencias anteriores– sobre cuáles pueden ser las
reacciones más probables del mercado y actuar en consecuencia.
A partir de ahora no existe justificación para decir que el mercado evoluciona tan rápidamente que
nos ha cogido con el pie cambiado. Nuestro futuro es lo suficientemente importante para empezar
a poner en práctica una de las herramientas que nos va a asegurar las ventas de forma
permanente.
Se puede realizar este trabajo de campo en el momento y lugar que se está efectuando la compra,
por teléfono, vía postal u on line. Conocer a los clientes que nos han dejado de comprar o han
presentado algún tipo de reclamación nos puede aportar conocimiento sobre las variables del
servicio que están fallando, para poder actuar y así corregir las posibles áreas de mejora.
Por ello, aconsejamos realizar un mix de los estudios tradicionales de satisfacción con la
información comercial que tiene la empresa y los realizados ad hoc de compra misteriosa para
saber exactamente si estamos orientados hacia el mercado, ya que considerar al cliente como
centro de negocio sólo se alcanza si la satisfacción es plena.
Pero no sólo debemos conformarnos con saber el grado de satisfacción, el marketing estratégico da
un paso más y quiere ampliar la información del cliente para traducirla en conocimiento. Por ello,
también han de conocerse, entre otras variables, las siguientes:
Nivel de vinculación y posible abandono que tiene el cliente con nuestro producto o
servicio.
Una vez que dentro de la cultura corporativa de la compañía se valore positivamente el conocer el
nivel de satisfacción del cliente, es preciso protocolarizarlo con un plan director en el que al menos
se contemple:
Que se elaborarán cuantos planes de acciones específicos sean precisos para mantener un
determinado nivel.
Que todos los resultados serán presentados y actualizados por el comité de dirección.
Todo ello hará que se tenga el nivel de competitividad que nos exige la dinámica actual del
mercado. Para cerrar el tema hemos considerado oportuno incluir un breve modelo tradicional de
encuesta.
Entonces, ¿cómo podríamos definir el SIG? Es una base de datos que contempla informáticamente
una componente geográfica de información. Al utilizarla trabajamos con mapas que tienen unas
bases de datos asociadas a los mismos. Cada dato se sitúa reflejado como un punto dentro del
mapa que aparece en la pantalla del ordenador; los ejes de las calles y las carreteras son líneas
que determinan una zona que nos da toda la información que se encuentra dentro de ella, a partir
de ahí podemos marcar las diferentes estrategias de marketing. Algunos autores lo denominan
también como geomarketing.
Con los estudios cualitativos podemos conseguir un buen retrato de las tendencias del mercado,
pero con los SIG los datos disponibles nos pueden facilitar su ubicación; esto permite ofrecer una
clara ventaja competitiva, ya que su forma de tratar los datos la convierte en una herramienta que
no es fácilmente imitable.
Con este sistema de información, el control y el análisis de la información que ya tienen mejora
ostensiblemente la gestión de la empresa; ahora bien, no hay que olvidar que vivimos un cambio
radical en las orientaciones del marketing y cada vez más se precisan herramientas más flexibles,
fáciles de comprender y trabajar; aquí es donde los SIG están adquiriendo un importante
protagonismo por las múltiples utilidades que se pueden obtener.
El principal objetivo que se tiene entonces es conocer cuáles son las necesidades específicas de
información del cliente, determinar su urgencia, su importancia, establecer una jerarquía y,
conforme a ella, actuar.
Una constante en este libro será ver varias veces que nos hemos alejado del marketing de masas y
acudimos cada vez más a la segmentación del mercado o micromarketing, muchas empresas están
intentando dar respuestas a estos interrogantes pero pocas de forma profesional y seriamente.
Las principales compañías coinciden incluso en denominar esta técnica tipología mosaic refiriéndose
a los mercados potenciales de las empresas que han valorado las zonas, calculando áreas de
influencia, estableciendo áreas por su potencial, jerarquizando provincias, etc., de manera acorde a
diferentes criterios y dentro de más de 40 tipos diferentes de clientes.
Ventajas competitivas:
¿Qué hay en...? Localización de los elementos que estudiamos: pueden ser puntos de
venta, clientes, almacenes, centros de asistencia, etc.
¿Dónde se encuentra...? Buscamos un lugar o un elemento que reúna una serie de
condiciones. Por ejemplo, dónde se encuentran mis clientes que son menores de 25 años.
¿Qué ha cambiado desde...? Es un análisis de tendencias, vemos las diferencias que se dan
en una zona a lo largo del tiempo.
¿Qué patrones de distribución espacial existen...? Se podría estudiar si consumen más los
clientes que viven a menos de 100 metros de un centro comercial.
¿Qué sucede si...? Buscar modelos y estudiar si son válidos cuando ocurre un hecho
determinado.
¿Qué ruta debo coger? Tanto en ciudad como en carretera, hoy ya estamos habituados a
conducir con navegador.
Etcétera.
Como consecuencia de todo esto las bases de datos se han convertido en compañeras
imprescindibles de los analistas de mercado.
Definir un mercado objetivo para un producto implica identificar consumidores con necesidades
similares, pero será necesario tener en cuenta cuántos grupos homogéneos componen ese
mercado, y qué microzonas ocupan. Con un SIG localizo a mis clientes, puedo diferenciar dónde
están mis centros de venta y qué zonas ocupan los habitantes con el mismo perfil de mis clientes.
Con esta información la ubicación de un nuevo centro de ventas es una decisión sencilla.
Realicemos un repaso de los datos que tenemos dentro de las empresas y qué tipo de análisis se
podría realizar con ellos. En primer lugar los clientes: dónde están, quiénes son, o localización de
un segmento específico de población, por ejemplo. El protagonismo del término CRM (Customer
Relationship Management) o gestión de las relaciones con el cliente, nos vienen a confirmar que los
SIG son imprescindibles para la tarea comercial.
También son susceptibles de estudio los puntos de venta: dónde están, análisis para detectar los
huecos de mercado, eliminación de los puntos menos rentables, apertura de nuevos centros, o
estudio del acceso a los puntos de venta.
Al estudiar la red de ventas podemos zonificar el mercado, controlar y analizar las visitas, controlar
los gastos, estudiar históricamente las zonas, realizar nuevas asignaciones de zonas, etc.
De los datos de volumen de ventas se puede realizar un análisis de ventas por zonas, un análisis
de ventas por puntos de venta, por vendedor, planificar y controlar campañas de promoción, etc.
En la red de asistencia localizaremos inmediatamente los medios propios, los clientes o las rutas
óptimas de asistencia.
Sector medioambiental. Para realizar inventarios de suelos o controlar el tipo del uso del
mismo.
Bien empleada, esta herramienta puede aportar una reducción de costes y de plazos de ejecución
en los estudios de mercado. Las empresas se enfrentan a una nueva revolución en la forma en la
que vienen llevando a cabo su actividad, tanto en lo referente a nuevos productos y servicios
ofrecidos como en la novedosa manera de plantearse las relaciones comerciales y profesionales con
los clientes.
Aunque en España es una actividad poco madura, consideramos como referencia tres utilizaciones
básicas de Internet en investigación:
La falta de intermediario entre el cuestionario y el entrevistado hace que los sondeos sean
más objetivos. En principio, pienso que es un método más barato.
La interactividad del cliente con el instituto será mayor, ya que se evita el condicionante del
entrevistador, imprimiendo incluso mayor rapidez en el tratamiento de las respuestas y su
posterior tabulación.
La dificultad de acceso a determinados tipos de informantes entre los cuales aún no está
extendido su uso.
La dificultad en controlar la selección de informantes (por ejemplo, evitar que la misma
persona conteste varias veces a la encuesta, asegurar que la persona que ha respondido es
la adecuada, etc.).
Hay –por último– un tipo de estudios que consideramos más «investigaciones sobre Internet» que
investigaciones basadas en Internet. Nos referimos a los estudios de audiencia de páginas web, a
los estudios sobre perfiles y comportamientos del internauta (tiempos medios de visita, tipos de
información requerida, etc.).
Paneles.
Ómnibus.
La información que se facilita a continuación está obtenida de la «Guía de Marketing», editada por
la revista IPMARK.
9.1. Panel
Es un término anglosajón que indica la recogida de información regular en un determinado grupo
de personas o puntos de venta, sobre aquellos sectores y productos que se deseen analizar y que,
a su vez, son representativos, como unidad muestral, de un universo. Las empresas que estén
interesadas en conocer y recibir información regular sobre los productos en cuestión deberán
realizar un contacto con los responsables del panel.
Se pueden realizar estudios, entre otros, de los siguientes aspectos: horas de permanencia frente
al televisor o Internet, aceptación de un determinado producto, rotación de stocks, gustos,
tendencias, lugares de compra, etc.
LOS PANELES
Sustituye al antiguo panel de consumidores basado en audit manual con soporte diario que se
había venido desarrollando desde 1993.
Objetivos:
Complementar la información proveniente del panel de detallista a través del conocimiento del
consumidor en el hogar con respecto a los diferentes productos/marcas, así como ahondar en los
mecanismos del propio consumidor.
Universos estudiados:
Muestra:
Metodología:
Periodicidad:
Información suministrada:
Todas las variables aparecen agrupadas en base a los siguientes análisis: tendencia de mercado y
participación de las marcas. Comportamiento del consumidor en el acto de compra (compras
totales, porcentaje de hogares compradores, promedio de compras por hogar, frecuencia de
compras, compra media por acto). Perfil del consumidor, según criterios sociodemográficos.
Posicionamiento en el hogar: importancia de los hogares, exclusividad de marcas en los mismos.
Nivel de repetición de compra de cada marca/variedad, pudiendo conocerse de forma directa el
número y/o proporción de hogares que adquieren una referencia o marca una, dos, tres, o más
veces, dentro de un período de tiempo determinado. Datos por cadena. Tamaño del universo o
número de hogares incluidos en cada uno de los segmentos de población diferenciados.
Desgloses de mercado:
Áreas geográficas Nielsen. Tamaño del municipio. Clase social. Edad del ama de casa. Situación
laboral del ama de casa. Número de miembros del hogar. Presencia de niños en el hogar. De forma
opcional etapas de la vida. También se incluye en la base de datos estándar la información relativa
a los tipos de establecimiento, y de forma más específica, a las diferentes cadenas de distribución
de forma independiente.
Métodos de análisis:
Junto con la información básica de los informes que incluyen de forma estándar todas las variables
mencionadas anteriormente, Homescan ofrece la posibilidad de realizar estudios especiales que
permitan profundizar en el análisis de problemáticas más concretas. De esta manera se están
realizando los siguientes análisis: Sourcerer offering, Trial&Repeat, New, Lost and retained, Compra
combinada, Análisis de la cesta de la compra, Gain&Loss, Panel views, Chice segmente, Shopper
missions, Fieles-ocasionales-esporádicos, Heavy-medium-light, Etapas de la vida, Estilos de vida,
Trade planner, Shopper óptimizer, Trade category, Analyser. Otros paneles de consumidores: panel
de consumo de telefonía móvil.
Objetivos:
Los estudios de observación forman parte de toda una cartera de servicios que Nielsen pone a
disposición de los profesionales del marketing en el punto de venta.
Permiten disponer de un conocimiento exhaustivo de las variables concretas que se manejan con la
moderna distribución y establecer una ventaja diferenciadora sobre sus competidores. Esto es,
trasladar los conceptos de marketing y de marca al punto de venta. Así mismo ofrecen la
posibilidad de obtener los datos en tiempo real a través del sistema de alertas.
Tipos de estudios:
– Presencia de:
- Display.
- Folleto.
- Regalo.
- Lote.
- Multicompra (3 x 2, 2 x 1…).
– Presencia de premio/regalo.
Price monitor. Control quincenal de la variable PVP, así como de las promociones a nivel de
referencia en los puntos de venta más relevantes de la geografía española.
– Presencia en tienda.
– Precio.
– Folleto.
– Lotes 3x2.
– Regalo.
– Otras promociones.
Space monitor. Seguimiento mensual del espacio tanto de la categoría como de cada una
de las referencias que la forman.
– Facings.
– Precio medio.
– Ponderada de promociones.
Fecha de creación:
Objetivos:
Conocer al máximo detalle la audiencia de las distintas cadenas de televisión (a nivel de hogar e
individuos).
Número de hogares:
3.845 hogares en los que residen 10.300 individuos de cuatro o más años. Producto y/o marcas
estudiadas: todas las anunciadas en televisión.
Análisis: para la variable spots, la información se podrá jerarquizar según coste por mil (CPM) o
gross rating point (GRPs). Información procedente de la misma muestra referido a:
9.2. Ómnibus
Es al principio de la década de los 70 cuando comienza en España esta técnica de marketing;
consiste en recoger la información demandada por distintas empresas y sobre diferentes temas al
mismo tiempo. Se sigue el sistema de la entrevista personal, con cuestionarios estructurados
según el contenido que desea conocerse.
Algunos colectivos sostienen la idea de que el uso de los ómnibus viene determinado por un menor
coste de realización (ya que los gastos se reparten entre las diferentes empresas que encargan el
cuestionario); los defensores del mismo sostienen que el motivo determinante para decidirse por
este sistema está basado en las siguientes características técnicas:
La expresión gráfica con que se representa este tipo de estudios en casi todo el mundo son los
transportes públicos colectivos (autobuses, trenes, etc.), y ello es así porque define con mucha
precisión el concepto y las características que comporta el ómnibus:
Flexible a lo largo del trayecto, con distintas paradas en función de las necesidades de
información de cada cliente.
Estas características ambivalentes han hecho del ómnibus un estudio que ha alcanzado gran
notoriedad, siendo para muchas empresas su primer contacto con la investigación de mercados.
Los estudios ómnibus son, hoy en día, uno de los instrumentos importantes en la investigación de
mercados; su gran versatilidad permite que puedan ser utilizados por cualquier compañía,
independientemente del tamaño de la misma, pero, hasta la fecha, casi siempre para productos de
gran consumo.
En estos momentos, en España existen suficientes ómnibus como para poder responder a las
exigencias de quienes los deseen utilizar; si bien en el futuro, y analizando el entorno de los países
que nos rodean, se puede asegurar que los estudios ómnibus serán cada vez más frecuentes; se
creará una mayor diversificación de tipos y aparecerán otros nuevos dirigidos a universos más
concretos o específicos.
Un menor coste.
Gran rapidez de realización.
Farmacéuti Trimestra
cos l
Telefónic 200 630 € 960 1.260
o €
ANEXO I Y II
ANEXO III
---O0O---
Brasil
PBI 2.181.671 291 Millones de habitantes 75404 PBI per capita Argentina
PBI 632.223 40 Millones de Habitantes 1580558 PBI per capita
Colombia
PBI 429 866 46 Millones de habitantes 934491 PBI Per capita
Venezuela
PBI 346 973 30 Millones 1156577 PBI per capita
Perú
PBI 274 276 29 Millones 945779 ”
Chile
PBI 257 546 17,3 Millones 1514976 ”
Uruguay
PBI 48140 3,4 Millones 1415882 PBI per capita
Bolivia
PBI 47796 10 Millones 47796 PBI per capita
Paraguay
PBI 3146 6,5 Millones 48138 ”
Ecuador
PBI 113 825 14 Millones 813036 PBI per capita
Brasil es el país con mas PBI de América Latina, sin embargo en términos de PBI
Per capita es un de los países que se encuentra solo superando a Bolivia y
Paraguay.
Países del mundo ordenados según su producto interno bruto (PIB) a valores de
paridad de poder adquisitivo (PPA), la suma de todos los bienes y servicios finales
producidos por un país en un año, en relación a su paridad del poder adquisitivo
(PPA). Este es un indicador económico introducido a principios de los años
noventa por el Fondo Monetario Internacional para comparar de una manera
realista el nivel de vida entre distintos países, atendiendo al producto interior
bruto per cápita en términos del coste de vida en cada país.
La paridad del poder adquisitivo es una de las medidas más adecuadas para
comparar los niveles de vida que el producto interno bruto per cápita, puesto que
toma en cuenta las variaciones de precios. Este indicador elimina la ilusión
monetaria ligada a la variación de los tipos de cambio, de tal manera que una
apreciación o depreciación de una moneda no cambiará la paridad del poder
adquisitivo de un país, puesto que los habitantes de ese país reciben sus salarios y
hacen sus compras en la misma moneda. Es decir, permite que los tipos de cambio
entre las diversas monedas sean tales que se permita que una moneda tenga el
mismo poder adquisitivo en cualquier parte del mundo.