Está en la página 1de 17

METODOLOGÍA INV EDUCATIVA (CARMEN CATALINA

PAULINO FIGUEROA)

E1 análisis de los datos cualitativos

En el proceso cuantitativo primero se recolectan todos los datos y posteriormente se


analizan, además, el análisis es bastante estandarizado (siguiendo un orden: primero,
análisis de confiabilidad y validez; segundo, estadística descriptiva; tercero, estadística
inferencial). En el proceso cualitativo no es así, tal como se ha reiterado, la recolección y el
análisis ocurren prácticamente en paralelo; además, el análisis no es estándar, ya que cada
estudio requiere de un esquema a "coreografía" propia de análisis.

En este apartado sugeriremos un proceso de análisis que incorpora las concepciones de


diversos teóricos de la metodología en el campo cualitativo, además de las nuestras. La
propuesta no aplica en su totalidad a cualquier estudio cualitativo que se realice (10 cual
sena intentar estandarizar el esquema e iría en contra de la lógica inductiva. más bien son
directrices y recomendaciones que cada estudiante, tutor de investigación a investigador
podrá adoptar a no de acuerdo con las circunstancias y naturaleza de un estudio en
particular.

En la recolección de datos, el proceso esencial consiste en que recibimos datos no


estructurados, pero que nosotros les damos estructura Los datos son muy variados, pero en
esencia son narraciones de los participantes: a) visuales (fotografías, videos, pinturas, entre
otros. b) auditivas (grabaciones. c) textos escritos (documentos, cartas, etc.) y d)
expresiones verbales y no verbales (como respuestas orales y gestos en una entrevista a
grupo de enfoque). además de las narraciones del investigador (anotaciones en la bimcora
de campo).

Algunas de las características que definen la naturaleza del análisis cualitativo son las
siguientes:
1. EI proceso esencial del análisis consiste en que recibimos datos no estructurados y los
estructuramos.

2. Los propósitos centrales del análisis cualitativo son:

• Darles estructura a los datos (Patton, 2002), 10 cual implica organizar las unidades, las

categorías, los temas y los patrones (Grinnell, 1997).

• Describir las experiencias de las personas estudiadas bajo su óptica, en su lenguaje y

con sus expresiones (Grinnell, 1997, Creswell, 2005).

• Comprender en profundidad el contexto que rodea los datos.

• Interpretar y evaluar unidades, categorías, temas y patrones (Patton, 2002).

• Explicar ambientes, situaciones, hechos, fenómenos (Baptiste, 2001).

• Reconstruir historias (Baptiste, 2001).

• Encontrar sentido a los datos en el marco del planteamiento del problema_

• Relacionar los resultados del anruisis con la teoría fundamentada 0 construir teorías

(Charmaz, 2000; Baptiste, 2001).

Ellogro de tales propositos es una labor paulatina_ Para cumplirlos debemos organizar y
evaluar grandes vohimenes de datos recolectados (generados), de tal manera que las
interpretaciones surgidas en el proceso se dirijan al planteamiento del problema.

4. Una fuente de datos importantísima que se agrega al análisis la constituyen las


impresiones, percepciones, sentimientos y experiencias del investigador 0 investigadores
(en forma de anotaciones 0 registradas por un medio electrónico).
5. La interpretación que se haga de los datos diferirá de la que podrían realizar otros
investigadores; 10 cual no significa que una interpretación sea mejor que otra, sino que
cada uno posee su propia perspectiva. Esto, aunque recientemente se han establecido ciertos
acuerdos para sistematizar en mayor medida el análisis cualitativo (Creswell, 2005).

6. EI análisis es un proceso ecléctico (que concilia diversas perspectivas) y sistemático, mas


no rígido ni mecano.

Reflexiones e impresiones durante la inmersión inicial

Durante la inmersión el investigador realiza diversas observaciones del ambiente, las


cuales, junto con sus impresiones, las anota en la bitacora de campo notas de diversos tipos
como ya se ilustraron con anterioridad. Asimismo, el investigador plática con integrantes
del ambiente algunos de ellos los potenciales participantes. recaba documentos y otros
materiales y fin realiza diversas actividades para comenzar a responder al planteamiento de
su problema de investigación. Con base en estas primeras datas, el investigador ariamente
reflexiona y evadía su planteamiento se hace preguntas, tal cama: que tenga en mente, tal
planteamiento refleja el fenómeno que quiera estudiar, tal planteamiento es adecuado, deba
mantenerla. modificarla. ajusta de acuerda can sus propias consideraciones. También,
analiza si el ambiente y la muestra san pertinentes en relación con su planteamiento y hace
las cambias que crea necesarias. Cama producto de las reflexiones empieza a esbozar
conceptos clave que ayuden a responder al planteamiento y entender las datas que se
relaciona can que, que es importante, que se parece a que, etcétera.

Por ejemplo, en el caso de la Guerra Cristera, con las primeras visitas a los contextos, los
investigadores comenzaron a tener una idea de cómo fue el conflicto en cada población,
que significado tuvo, como transcurre la vida social en la época y como eran los cristeros
entre otras cuestiones. así, empezaron a entender la arraigada religiosidad de las personas
de esa región en aquellos tiempos 1926-1929 y como perdura hasta nuestros Elías. En una
visita a una iglesia, se encuentran agujeros en las paredes aparentemente algo trivial), pero
al visitar otra iglesia, el hecho se repite se indaga, surgen ideas a que altura están las
marcas, atraviesan de una columna a otra en los patios de las iglesias, esto que implica aquí
ataban a sus caballos, esta iglesia fue un cuartel. Se encuentra algo en común entre dos, tres
más iglesias (unidades de análisis).
Reflexiones e impresiones durante la inmersi6n profunda

AI revisar más templos (ya con una observación más centrada en encontrar evidencia de
que estos fueron utilizados como cuarteles). se comprueba que varios fueron cuarteles, en
algunos casos de cristeros, pero en otros, de tropas del Gobierno Federal que los hablan
clausurado y tornado (hipótesis emergente). Asimismo, aparece un concepto esencial para
el estudio: "algunos de los supuestos cristeros, no 10 eran, simplemente se trataba de
gavilleros y banelidos que se hacían pasar por cristeros para robar, saquear hogares, violar
mujeres y cometer otras barbaridades; algunos más que se ostentaban como 'soldados' de
Cristo Rey, eran campesinos que aprovecharon el caos para levantarse contra los
terratenientes" (esto se comenzo a confirmar una y otra vez en entrevistas con participantes
de la época). 10 que coincida con algunas notas perioelisticas del semanario Prosperidad de
1929.

Análisis detallado de los datos

Obtuvimos los datos mediante al menos tres fuentes: observaciones del ambiente, bitacora
(anotaciones de distintas clases) y recolección enfocada (entrevistas, documentos,
observación más específica, sesiones, historias de vida, materiales diversos). Hemos
realizado reflexiones y analizados datos, tenemos un primer sentido de entendimiento, y
seguimos generando más datos.

recolección, como se ha mencionado, es flexible, pero regularmente enfocada). La mayoría


de las veces contamos con grandes voltimenes de datos (páginas de anotaciones u otros
documentos horas de grabación filmación de entrevistas, sesiones grupales u observación,
imágenes y distintos artefactos). EI procedimiento más común de análisis especifico es el
que a continuación se menciona, parte de la denominada teoría fundamentada. cual
significa que la teoría (hallazgos) va emergiendo fundamentada en los datos.
organización de los datos y la información, así como revisión del material y preparación de
los datos para el análisis detallado

Dado el amplio volumen de datos, estos deben encontrarse muy bien organizados.
Asimismo, debemos planear que herramientas vamos a utilizar (hoy en día la gran mayoría
de los análisis se efectúa mediante la computadora, al menos un procesador de textos).
Ambos aspectos dependen del tipo de datos que hayamos generado. Pudiera ser que
solamente tuviéramos datos escritos, por ejemplo, anotaciones escritas a mano y
documentos, en este caso podemos copiar las anotaciones en un procesador de textos,
escanear los documentos y archivarlos en el mismo procesador. Si tenemos iónicamente
imágenes y anotaciones escritas, las primeras se escanean transmiten a la computadora y las
segundas se copian o escanean.

La bitacora de análisis

Esta bitacora tiene la fnnci6n de documentar el procedimiento de análisis y las propias


reacciones del investigador al proceso y contiene fundamentalmente: Anotaciones sobre el
método utilizado (se describe el proceso y cada actividad realizada, por ejemplo: ajustes a
la codificación, problemas y la forma como se resolvieron). Anotaciones respecto a las
ideas, conceptos, significados, categorías e hipótesis que van surgiendo del análisis. •
Anotaciones en relación con la credibilidad y verificaci6n del estudio, para que cualquier
otro investigador pueda evaluar su trabajo (información contradictoria, razones por las
cuales se procede de una u otra forma). Resulta ser un instrumento invaluable para la
validez y confiabilidad del análisis (punto que abordaremos al final del capítulo).

Cuando realizamos la codificación categorización de los datos, pueden surgir interrogantes,


ideas, hip6tesis y conceptos que nos comiencen a ilustrar en torno al planteamiento del
problema, por que resulta indispensable el escribirlos para que no olvidemos cuestiones
importantes. Las notas nos ayudan a identificar unidades y categorías de significado. Es una
estrategia útil para organizar los procedimientos analíticos. Para las anotaciones, que suelen
tambien llamarse "memos analíticos", Strauss y Corbin (1998) sugieren:
Registrar la fecha de la anotación “memo" (memorándum).

• Incluir cualquier referencia fuente importante (por ejemplo, si consultamos con un colega,
quien es el, su afiliación institucional y su comentario).

• Marcar los memos con encabezados que sinteticen la idea, categoría concepto seisavado.

• No restringir el contenido de los memos anotaciones, permitirnos el libre flujo de ideas.

• Identificar el Código en particular al cual pertenece el memo.

• Usar diagramas, esquemas y matrices (u otra ciase de síntesis analítica) en los memos
para explicar ideas, hipótesis y conceptos.

• Cuando no piense que una categoría concepto haya sido 10 suficientemente definida.
crear un memo (adicionalmente, distinguirlo y etiquetarlo con la palabra "saturación").

• Registrar las reflexiones en memos que ayuden a pasar de un nivel descriptivo a otro
interpretativo.

• Guardar una copia de todos los memos.

Los memos analíticos se elaboran con fines de triangulación auditoria entre investigadores,
para que otras personas puedan ver que hicimos y como hicimos. La bitcicora se escribe
diariamente (anotando la fecha) y cada investigador signe su propio sistema para llenarla.
sugiere el siguiente esquema memos, anotaciones comentarios acerca del método de
análisis, memos sobre los problemas durante el proceso, memos en relaci6n con la
codificaci6n, memos respecto a ideas y comentarios de los investigadores (incluyendo
diagramas, mapas conceptuales, dibujos, esquemas, matrices), memos sobre el material de
apoyo localizado fotografías, videos, etcétera y memos relacionados con significados,
descripciones y conclusiones preliminares. ASI como la bitdcora de campo, reflejaba que
"transpiramos" durante la recolección de los datos y nos ayuda a establecer la credibilidad
de los participantes, la bitdcora analítica, refleja que "transpiramos" al analizar los datos y
nos apoya al establecer la credibilidad del método.

Surgimiento de unidades de análisis y codificación abierta

la investigación cualitativa, el surgimiento de unidades de análisis y la codificación abierta


son procesos fundamentales en la etapa inicial del análisis de datos.

Unidades de análisis: Las unidades de análisis emergen de la revisión detallada de los datos
recopilados (transcripciones de entrevistas, notas de campo, documentos, etc.). Son
segmentos de información que por sí mismos tienen significado y relevancia para el
fenómeno estudiado. Pueden ser palabras, frases, párrafos o incluso documentos completos.
La identificación de estas unidades permite descomponer los datos en partes manejables
para su análisis posterior.

Codificación abierta: Una vez identificadas las unidades de análisis, se inicia el proceso de
codificación abierta. Esto implica asignar códigos descriptivos o conceptuales a cada
unidad. Los códigos son etiquetas que capturan la esencia o idea principal de la unidad de
análisis.

En esta etapa, la codificación es abierta en el sentido de que los códigos emergen


directamente de los datos, sin concepciones preconcebidas. Se trata de un proceso inductivo
donde se examinan los datos minuciosamente línea por línea para generar códigos iniciales
que describan y conceptualicen el contenido.

La codificación abierta permite fragmentar los datos, analizar sus similitudes y diferencias,
e identificar patrones y categorías incipientes. Es un paso esencial para la construcción de
una teoría fundamentada en los datos.

Este proceso inicial conduce al refinamiento progresivo de códigos y al desarrollo de


categorías más abstractas a medida que se avanza en los niveles posteriores de codificación
(codificación axial y selectiva según algunos enfoques).
El surgimiento de unidades de análisis y la codificación abierta constituyen la base para
organizar, conceptualizar e iniciar el proceso analítico de los datos cualitativos recopilados,
sentando las bases para el desarrollo de una teoría arraigada en la evidencia empírica.

Técnicas para generar categorías cuando cuesta trabajo hacerlo.

4. Técnicas para generar categorías cuando cuesta trabajo hacerlo:

Cuando resulta difícil generar categorías a partir de los datos, los libros de metodología de
investigación cualitativa sugieren varias técnicas que pueden ayudar en este proceso:

Técnicas de escrutinio:

 Técnica de palabras clave: Identificar palabras o frases que se repiten con frecuencia
en los datos y usarlas como punto de partida para desarrollar categorías.
 Técnica de comparación constante: Comparar continuamente incidentes, códigos y
categorías emergentes para identificar similitudes y diferencias, lo que ayuda a
refinar las categorías.

Técnicas de procesamiento:

 Diagrama de afinidad: Agrupar códigos o unidades de análisis relacionadas en


grupos o categorías basados en su afinidad.
 Preguntas analíticas: Formular preguntas sobre los datos, como "¿Qué está
sucediendo aquí?", "¿Cuáles son las condiciones?", "¿Cuáles son las
consecuencias?", etc. Esto puede llevar a categorías más abstractas.
 Diagrama de flujo: Representar gráficamente las relaciones entre códigos y
categorías para identificar conexiones y patrones.

Selección de técnicas y descripción de categorías codificadas emergentes:


Una vez aplicadas estas técnicas, se pueden identificar categorías más sólidas. El siguiente
paso es la codificación axial y selectiva:

Codificación axial: En esta etapa, las categorías se refinan y se establecen conexiones entre
ellas. Se identifican las categorías centrales o principales y se relacionan con otras
categorías subordinadas.

Codificación selectiva: Implica integrar y refinar las categorías principales en un esquema


teórico más amplio. Se selecciona una categoría central que representa el fenómeno
principal y se relaciona sistemáticamente con las demás categorías.

Por ejemplo, en un estudio sobre la experiencia de pacientes con una enfermedad crónica,
algunas categorías codificadas que podrían emerger son:

1. Categoría central: "Afrontamiento de la enfermedad"


o Subcategorías: Retos emocionales, cambios en el estilo de vida, apoyo
familiar, barreras al acceso a la atención médica, etc.
2. Categoría: "Relaciones con los profesionales de la salud"
o Subcategorías: Comunicación efectiva, confianza en el equipo médico,
insatisfacción con el trato, etc.
3. Categoría: "Impacto en la vida diaria"
o Subcategorías: Limitaciones físicas, adaptaciones laborales, impacto
financiero, etc.

Claro, veamos una explicación más teórica sobre el surgimiento de unidades de análisis, la
codificación abierta, axial y selectiva en la investigación cualitativa:

El análisis de datos cualitativos sigue un proceso inductivo donde las teorías, conceptos y
categorías surgen de los propios datos en lugar de ser impuestos desde el inicio por el
investigador. Este enfoque se conoce como teoría fundamentada (grounded theory).

En la etapa inicial, se realiza una codificación abierta línea por línea de los datos
(transcripciones, notas, etc). Aquí se identifican segmentos de información significativos
llamados unidades de análisis o incidentes, y se les asignan códigos descriptivos que
capturan su esencia. Es un proceso abierto porque los códigos emergen directamente de los
datos sin ideas preconcebidas.

Luego, en la codificación axial, los códigos se agrupan en categorías más abstractas


basadas en sus propiedades y dimensiones compartidas. Se buscan conexiones y relaciones
entre categorías para explorar cómo se cruzan e influyen mutuamente. La categoría central
o fenómeno clave se identifica en esta etapa.

En la codificación selectiva, la categoría central se relaciona sistemáticamente con las


demás categorías principales, refinando y puliendo la teoría emergente. Se desarrollan
proposiciones y explicaciones más generales que integran e ilustran las relaciones entre
categorías.

A lo largo de este proceso, se emplean varios métodos analíticos como la comparación


constante de incidentes, el muestreo teórico para recolectar datos adicionales que ayuden a
refinar conceptos, y técnicas como preguntas analíticas, diagramas, etc. para facilitar la
conceptualización.

El objetivo final es generar una teoría sustantiva, con un esquema analítico codificado, que
explique el proceso o fenómeno central estudiado y patentice las múltiples influencias e
interrelaciones entre los conceptos que surgieron de los datos.

En esencia, se trata de un proceso iterativo de fragmentación, conceptualización y


reintegración de los datos para construir teorías fundamentadas empíricamente en lugar de
partir de perspectivas teóricas preconcebidas.

Generar hipótesis, explicaciones y teorías

En la investigación cualitativa, las hipótesis, explicaciones y teorías emergen de manera


inductiva a partir del análisis profundo de los datos recolectados. A medida que se
codifican los datos, se establecen relaciones entre categorías y conceptos, lo que permite
generar hipótesis tentativas y explicaciones preliminares sobre el fenómeno estudiado.

Estas hipótesis y explicaciones se refinan continuamente a través de la recolección y


análisis de más datos, utilizando técnicas como la comparación constante y el muestreo
teórico. Eventualmente, las hipótesis y explicaciones se integran en una teoría sustantiva
que representa una comprensión conceptual general del fenómeno investigado.

¿Cuándo dejar de recolectar y analizar datos? Saturación teórica:

En la investigación cualitativa, se alcanza un punto en el que la recolección y análisis


adicionales de datos ya no aportan nueva información significativa para seguir
desarrollando las categorías y teoría emergente. Este punto se conoce como saturación
teórica.

La saturación teórica se logra cuando:

1. No surgen nuevos códigos o categorías de los datos adicionales.


2. Las categorías existentes están bien desarrolladas en términos de propiedades,
dimensiones y relaciones.
3. Las relaciones entre categorías están bien establecidas y validadas.

Alcanzar la saturación implica que se ha logrado una comprensión profunda y completa del
fenómeno estudiado, y que recolectar más datos sería redundante y no añadiría insights
significativos a la teoría desarrollada.

¿Cuándo concluir el estudio?

El momento de concluir un estudio cualitativo depende de varios factores, pero


generalmente se da cuando:

1. Se ha alcanzado la saturación teórica.


2. Las preguntas de investigación han sido respondidas de manera exhaustiva.
3. La teoría o explicación desarrollada es sólida, coherente y suficientemente densa
conceptualmente.
4. Se han explorado y explicado adecuadamente las variaciones y casos negativos.
5. Los recursos disponibles (tiempo, fondos, etc.) se han agotado.

Es importante tener en cuenta que la conclusión del estudio no es un punto definitivo, sino
más bien una decisión pragmática basada en la evaluación del investigador sobre la solidez
y comprensión alcanzada de acuerdo con los criterios establecidos.

Análisis de los datos cualitativos asistido por computadora.

El análisis de datos cualitativos asistido por computadora (CAQDAS, por sus siglas en
inglés) implica el uso de programas informáticos especializados para facilitar y mejorar el
proceso de análisis. Algunos de los software más populares y sus características principales
son:

Atlas.ti: Permite codificar, anotar y organizar diferentes tipos de datos cualitativos (texto,
audio, video, imágenes). Facilita la creación de redes conceptuales, la búsqueda de patrones
y la visualización de relaciones entre códigos.

Ethnograph: Enfocado principalmente en el análisis de datos textuales. Permite codificar,


organizar códigos y realizar búsquedas avanzadas. Genera matrices y tablas para explorar
relaciones entre códigos.

NVivo: Uno de los programas CAQDAS más utilizados. Admite una amplia gama de
formatos de datos y ofrece herramientas para codificación, consultas, modelado y
visualización de datos. Integra funciones de análisis de contenido y de redes sociales.

Decisión Explorer: Diseñado para mapear y analizar modelos cognitivos. Facilita la captura
y representación visual de ideas, conceptos y sus interrelaciones mediante mapas
conceptuales.
MAXQDA: Permite codificar, anotar y visualizar datos cualitativos de diversas fuentes.
Ofrece herramientas para el análisis de contenido, la creación de matrices y la visualización
de redes conceptuales.

Estos programas brindan varias ventajas en comparación con el análisis manual, como:

Gestión eficiente de grandes volúmenes de datos cualitativos.

Codificación más rápida y sistemática.

Capacidades de búsqueda y recuperación de información mejoradas.

Facilidad para explorar relaciones y patrones en los datos.

Visualizaciones gráficas de códigos, categorías y modelos conceptuales.

Capacidades de auditoría y documentación del proceso analítico.

Sin embargo, es importante tener en cuenta que estos programas son solo herramientas de
apoyo y no reemplazan el juicio analítico y la interpretación del investigador. El proceso de
codificación, categorización y desarrollo de teorías sigue siendo una tarea intelectual que
requiere la participación activa del analista.

La elección del software dependerá de las necesidades específicas del proyecto, el tipo de
datos, las preferencias del investigador y los recursos disponibles. Muchos programas
ofrecen versiones de prueba o capacitación para facilitar la transición al análisis asistido por
computadora.
Rigor en la investigación cualitativa. Dependencia.

El rigor en la investigación cualitativa es fundamental para garantizar la calidad y


confiabilidad de los hallazgos. A diferencia de la investigación cuantitativa, que se basa en
criterios como la validez interna, externa, confiabilidad y objetividad, la investigación
cualitativa emplea otros criterios para evaluar su rigor. Algunos de los principales criterios
son:

Dependencia (confiabilidad cualitativa): Se refiere a la consistencia de los datos a lo largo


del tiempo y de las condiciones del estudio. Se logra mediante una descripción detallada del
proceso de investigación, la toma de notas de campo, la triangulación de datos y el uso de
un auditor externo.

Credibilidad (validez interna cualitativa): Se refiere a la veracidad de los datos y la


interpretación de los mismos por parte de los participantes. Se alcanza mediante la
triangulación de métodos, la observación persistente, el chequeo con los participantes, la
descripción densa y la reflexividad del investigador.

Transferencia (aplicabilidad de resultados): Se refiere a la posibilidad de transferir los


hallazgos a otros contextos o grupos. Se logra mediante una descripción detallada del
contexto y las características de los participantes, de modo que otros investigadores puedan
evaluar la aplicabilidad de los resultados a sus propios entornos.

Confirmación o conformabilidad (objetividad cualitativa): Se refiere a la neutralidad y la


ausencia de sesgos en los datos y su interpretación. Se alcanza mediante la triangulación de
investigadores, la auditoría de confirmación por parte de un investigador externo y el
mantenimiento de una bitácora de decisiones y reflexiones del investigador.

Otros criterios importantes incluyen:

 Integridad: Reflejando de manera honesta y completa la complejidad del fenómeno


estudiado.
 Autenticidad: Presentando una visión justa y equilibrada de las diferentes
perspectivas de los participantes.
 Resonancia: Logrando que los hallazgos tengan significado y sean evocadores para
los lectores.

Es importante destacar que el rigor en la investigación cualitativa no se logra mediante la


aplicación estricta de reglas o procedimientos, sino a través de un proceso reflexivo y
contextualizado que implica el juicio del investigador en cada etapa del estudio.

Los investigadores cualitativos deben estar atentos a estos criterios desde el diseño del
estudio hasta la presentación de los resultados, empleando estrategias como la
triangulación, la descripción detallada, la reflexividad y la auditoría externa para garantizar
la calidad y credibilidad de su trabajo.

También podría gustarte