Documentos de Académico
Documentos de Profesional
Documentos de Cultura
A grosso modo, el análisis de contenidos con enfoque cuantitativo consiste en crear categorías y clasificar los
datos presentes en determinada(s) pieza(s) informativa(s) acorde con dichas categorías. Este proceso,
denominado codificación, permite reducir y ordenar la información incluida en soportes textuales
provenientes de distintos formatos (documentos, videos, audios, chats, etcétera). Esta codificación implica
asignar una etiqueta numérica a cada categoría a fin de poder contar la frecuencia con la que el texto
analizado se asocia a un contenido determinado.
Para garantizar la validez y la fiabilidad del análisis de contenido con enfoque cuantitativo es necesario
cumplir tres criterios. El primero es la selección de las unidades de codificación homogéneas. Esto implica
establecer qué parte del texto, de la imagen, del audio o del video se va a analizar. Así, dependiendo del
objetivo del investigador, la unidad de codificación puede ser la totalidad de la pieza o solo una parte de ella. Si
bien con el apoyo de software de análisis de contenidos se pueden mezclar distintos formatos (audio, video,
texto, etc.) se debe explicitar el tratamiento para cada uno.
El tercer criterio es la validación de las categorías de codificación mediante el empleo de varios codificadores y
la aplicación de pruebas de fiabilidad -las más utilizadas son el alfa de Krippendorff y los coeficientes kappa de
Cohen o kappa de Fleiss-. Ello requiere de un trabajo previo capacitación al equipo codificador y de
elaboración de un “diccionario de codificación”. Este documento contiene todas las instrucciones para la
codificación incluyendo la descripción de la información, las unidades de texto a codificar y la definición
conceptual de cada categoría.
Ejemplo:
Una investigación de este tipo es la de Guillaume y Bath, quienes estudiaron la cobertura
y el tratamiento que se daba en la prensa británica a la información sobre las vacunas para el sarampión, las
paperas y la rubéola durante un periodo de dos meses. Hall y Wright (2008) aplicaron el análisis de contenido
para examinar opiniones judiciales. Incluso, Christie y Fleischer (2010) lo utilizaron para determinar los diseños
y métodos más utilizados en estudios de evaluación publicados en entrevistas científicas.
2. OBSERVACIÓN
La observación cuantitativa es una colección objetiva de datos que se centra principalmente en números y
valores.
Esta técnica de observación se realiza sobre una muestra que representa mejor al mercado objetivo. Es
importante tener un tamaño de muestra más grande para que las observaciones se puedan hacer
considerando la mayoría de las diversidades que existen en una población.
Al considerar una población grande, es más probable que los resultados de la observación tengan mayor
credibilidad. Una vez que un investigador de mercado recopila datos de la muestra, comienza el proceso de
análisis y se logran los resultados observados.
Precisión: En la observación cuantitativa, los datos pueden medirse (cuantificarse) y, por lo tanto, producen
resultados precisos en comparación con otros métodos, como la observación cualitativa, que produce
resultados que no pueden cuantificarse. Por ejemplo, la temperatura de ebullición del agua a nivel del mar es
de 100°C, esta es una observación cuantitativa.
Resultados constantes: Los resultados de este método de observación son constantes, el punto de
ebullición del agua al nivel del mar será de 100°C y no cambiará con otras variables que permanecen
constantes.
Creación de muestras: Se debe formar una muestra para la observación cuantitativa y el tamaño de esta
muestra debe ser considerablemente grande para que los investigadores puedan generalizar la observación a
toda la población.
Investigación científica: Este método mide y “cuantifica” múltiples aspectos principalmente para la
investigación científica.
Resultados sin sesgos: A medida que se cuantifican los resultados, las observaciones derivadas de los
mismos están libres de sesgos, pero tienen un margen de error y generalmente se basan en una hipótesis.
Mejorar la fiabilidad de los resultados: Para que un vendedor tenga una cantidad vinculada a su
observación cualitativa, necesita realizar también una observación cuantitativa. Se puede obtener un resultado
cuantitativo para la observación cualitativa a fin de aumentar la fiabilidad de los resultados.
Realizar un análisis estadístico: La observación cuantitativa verifica los detalles llevando a cabo un análisis
estadístico de una declaración.
Prueba Estandarizada:
Es conveniente que se se seleccione una prueba desarrollada o adaptada por algún investigador para el mismo
contexto de nuestro estudio y que sea válida o confiable.
Test de Rorschach: Que presenta a los sujetos manchas de tinta en tarjetas o láminas blancas numeradas y
éstos relatan sus asociaciones e interpretaciones en relación a las manchas.
Test de Apercepción Temática: Que con un esquema similar al de Rorschach presenta a los sujetos cuadros
que evocan narraciones o cuentos y las personas deben elaborar una interpretación
La manera de aplicar, codificar, calificar e interpretar las pruebas estandarizadas es tan variada como los tipos
existentes. No pueden aplicarse con superficialidad e indiscriminadamente.
4. DATOS SECUNDARIOS
La investigación cuantitativa secundaria es un método de investigación que implica el uso de datos ya
existentes o datos secundarios. Los datos existentes se resumen y cotejan para aumentar la efectividad
general de la investigación. Este método de investigación implica la recopilación de datos cuantitativos en
fuentes de datos existentes como Internet, recursos gubernamentales, bibliotecas, informes de investigación,
etc. La investigación cuantitativa secundaria ayuda a validar los datos que se recopilan de la investigación
cuantitativa primaria, así como ayuda a fortalecer o probar o refutar datos recopilados previamente.
El análisis de datos secundarios según Wood (1964), es una herramienta conveniente y poderosa para los
investigadores que buscan hacer preguntas amplias a gran escala. Si bien tiene sus beneficios, como su
rentabilidad, amplitud y profundidad de los datos a los que proporciona acceso, el análisis de datos
secundarios también puede obligar a los investigadores a modificar su pregunta original o trabajar con un
conjunto de datos que de otra manera no sería ideal para sus objetivos.
Datos disponibles en Internet: con la alta penetración de Internet y los dispositivos móviles, se ha vuelto cada
vez más fácil realizar investigaciones utilizando Internet. La información sobre la mayoría de los temas está
disponible en línea, y esto ayuda a aumentar la validez de los datos primarios. Al mismo tiempo, contribuye a
probar la relevancia de los datos recopilados previamente.
Instituciones educativas: realizan investigaciones en profundidad sobre múltiples temas y, por lo tanto, los
informes que publican son una fuente importante de validación en la investigación cuantitativa.
Fuentes de información comercial: los periódicos locales, revistas, revistas, estaciones de radio y televisión
son una excelente fuente para obtener datos. Estas fuentes de información comercial tienen información
profunda y de primera mano sobre desarrollo económicos, agenda política, investigación de mercado,
segmentación demográfica y temas similares.
El propósito para el que se recopilan los datos en un principio puede no coincidir con los objetivos del
investigador.
A veces, puede ser muy difícil obtener acceso a los datos
El investigador no tiene control sobre la calidad de los datos
EJEMPLO
Un grupo de investigadores efectuó (en 2008 y 2009) un estudio para explorar el impacto que tienen las becas
otorgadas o gestionadas por una institución de educación superior sobre el desarrollo académico de los
alumnos beneficiarios y su deserción escolar.
Los investigadores solicitaron a las diferentes direcciones información de los estudiantes respecto a su
promedio general en la carrera, nivel socioeconómico, estatus respecto a la beca (becado-no becado), tipo de
beca (institucional, otorgada por el Ministerio de Educación, por organismo privado, con fondos del gobierno
estatal), monto de la beca, estatus académico del alumno (regular, irregular, desertor), semestre que cursa,
género y edad, entre otras cuestiones. Consideraron los últimos cinco años escolares. Con tal información
construyeron una base de datos (con más de medio millón de registros) y efectuaron análisis.
Entre otras cuestiones encontraron que el promedio de los becarios era muy superior al de los no becarios y la
deserción escolar era mínima entre los primeros, casi inexistente. Pero no encontraron una relación entre el
monto de la beca y el promedio general de la carrera (acumulado). Asimismo, descubrieron que las mujeres
tenían en general mejor promedio que sus compañeros.
Sistemas de medición por aparatos, como el detector de mentiras o polígrafo, que considera la respuesta
galvánica de la piel (en investigaciones sobre crímenes); la pistola láser, que mide la velocidad a la que circula
un automóvil desde un punto externo al vehículo (en estudios sobre el comportamiento de conductores);
instrumentos que captan la actividad cerebral (evaluaciones médicas y psicológicas); el escáner, que mide con
exactitud el cuerpo de un ser humano y ubica la talla ideal para confeccionar toda su ropa o vestuario (en
investigaciones para diseñar los uniformes de los soldados); la medición electrónica de distancias, etcétera.
DETECTOR DE MENTIRAS:
PISTOLA LASER PARA MEDIR VELOCIDAD DE AUTOS