Está en la página 1de 12

Nombre:

Juliana Calle

Asignatura:

Universidad:

Fecha:
8/02/2022

Montería Córdoba
Introducción
En este informe vamos a hablar de la teoría fundamentada de los datos de Glaser
y Strauss. Es una propuesta metodológica que busca desarrollar teoría a partir de
un proceso sistemático de obtención y análisis de los datos en la investigación
social. Esta metodología fue originalmente presentada por Barney G.
La Teoría Fundamentada nos permite construir teorías, conceptos, hipótesis y
proposiciones partiendo directamente de los datos y no de los supuestos a priori,
de otras investigaciones o de marcos teóricos existentes. La Teoría
Fundamentada considera la perspectiva de caso más que de variable.
También hablaremos de Análisis de datos cualitativos en la investigación social.
La investigación cualitativa tiene un potencial muy importante para el estudio de la
sociedad. Es un tipo de metodología que ha ganado espacio en los círculos
académicos. Durante nuestra experiencia como profesoras de Investigación Social
y como directoras de proyectos, tesis y trabajos de campo, nos hemos encontrado
con dificultades para instruir y recomendar un texto a la hora de operar con
información cualitativa. Ya que muchos llegan, incluso, a pensar que se puede
hacer investigación cualitativa de manera no metódica, recolectando información
sin pensar en las preguntas de investigación, ni en el marco conceptual, ni tan
siquiera en el diseño. Esto termina, necesariamente, en un desorden poco
productivo. Sabemos que no hay recetas y aquí tampoco las encontrarán. Porque
el investigador que lleve a cabo diferentes formas de investigación cualitativa es lo
más cercano a un artista, a un artesano, tiene sus propias estrategias, su propia
forma de hacer.

La Teoría Fundamentada
La metodología propuesta por la TF es basada en dos grandes estrategias que es
dl método de comparación constante y el muestreo teórico.
En el método de comparación, el investigador recoge, codifica y analiza datos para
generar una teoría que es para demostrar que son plausibles.

En el muestreo teórico se realiza para descubrir categorías y sus propiedades,


también para sugerir las interrelaciones de una teoría
El investigador selecciona casos a estudiar según su potencial para ayudar a
refinar los conceptos ya desarrollados.
Los datos se recogen con base en el muestreo teórico, el cual, a decir Glasser y
Strauss (1967), es el medio o sistema por el que el investigador decide con base
analítica, que datos buscar y registrar. Por ello, la recogida de datos en la
investigación etnográfica se debe guiar por una teoría de diseño emergente, pues
estos escenarios y medios pueden ir cambiando en la medida que va apareciendo
nueva información.
La teoría Fundamentada, establece la distinción entre la teoría formal y la teoría
sustantiva, haciendo énfasis en la teoría sustantiva.
La teoría sustantiva está relacionada con la interacción permanente que el
investigador logra en el proceso de recolección de datos; de los cuales pueden ir
surgiendo nuevas hipótesis para ser verificadas. En tal sentido, esta teoría es el
resultado del procesamiento sistemático de los datos de campo.
Esto quiere decir que, si escogimos a la TF como metodología en nuestra
averiguación, tendremos de forma temprana contacto con los usuarios como
actores; y, por efecto, la obra colaborativa de la verdad se puede ofrecer a partir
del principio de la indagación entre los sujetos conocido y cognoscente.

La TF, a partir de su planteamiento, integra el valor de la voz del individuo


conocido; debido a que sugiere la generación de los denominados códigos en vivo
que tienen la posibilidad de transformarse en categorías explicativas o teóricas;
esta clase de códigos se recuperan de manera directa del lenguaje y la manera de
comunicarse de los actores, así sea por el valor de su utilidad analítica o ya que
brindan una imagen más correcta de la verdad social que se quiere describir.

Con la Teoría Fundamentada la manera más común de las entrevistas es cara a


cara, no organizada u organizada, y en hondura. Con la Teoría Fundamentada la
magnitud de la muestra está referente de manera directa con la teoría. Es una
sección más del proceso, recogida de datos y estudio. La recogida de datos va
configurando al final la medida de la muestra. La medida final de ésta viene
definida por el desarrollo de las categorías identificadas y la teoría emergente
(Coyle, 1997), donde el analista no puede conocer al inicio la medida final (Glaser,
1992; Coyle, 1997). Con la Teoría Fundamentada, la ampliación de la muestra se
genera una vez que es necesario más información para la averiguación. Esto se
sabe cómo selección teórica de la muestra, y lo define Glaser (1978) como el
proceso de recogida de datos que producen teoría a partir del mismo instante en
que se recogen, se codifica y examina la información facilitada; y se dictamina qué
datos van a ser recogidos en las próximas entrevistas y dónde se encontrarán;
todo ello para desarrollar la teoría de la misma forma que va emergiendo. Este
proceso de recolección de datos es controlado por la teoría emergente. En la
Teoría Fundamentada se crea al mismo tiempo la recogida y estudio de los datos.
El proceso empieza con códigos abiertos sobre los datos recogidos, que dirigen la
muestra en cada una de las direcciones, hasta el hallazgo de cambiantes
centrales que se secundan de manera consistente en los datos. Una vez que se
consigue este grado la muestra llega a ser selectiva y se focaliza sobre los temas
que son centrales en la teoría emergente. Solamente una vez que por el momento
no aparecen datos nuevos el investigador deber renunciar a la recogida de más
información. Según con Millares y Hibernan (1994) los datos iniciales son
recogidos, escritos y revisados línea a línea, principalmente en párrafo. A lo largo
de los periodos iniciales del proceso de estudio línea a línea no es inusual detectar
centenares de códigos que son abiertos y no involucrados.

Se pueden identificar cuatro tipos de memos: metodológicos, teóricos, analíticos y


descriptivos. Los memos metodológicos permiten describir ideas sobre las
características de la muestra, el proceso de muestreo y aspectos relacionados con
la recogida y análisis de los datos. Los memos teóricos cumplen un papel
fundamental en la generación de teoría, aportando información sobre los códigos,
las categorías y sus relaciones con el objetivo de orientar al investigador hacia
niveles de análisis más abstractos y contribuir a la construcción y generación de
teoría. Los memos analíticos incluyen notas sobre el pensamiento reflexivo del
investigador, como por ejemplo aspectos relacionados con la saturación teórica o
el rigor del estudio. Finalmente, los memos descriptivos consisten en describir las
observaciones y reacciones que suceden durante la investigación.
Los memos se clasifican y almacenan para que el investigador, con posterioridad,
pueda utilizar la información redactada para considerar conexiones con las
distintas categorías, y así poder descubrir la categoría central que ayudará a la
generación y formulación de teoría.

La sensibilidad teórica. Hace referencia a la capacidad de tener insight, es decir, la


capacidad de comprender y separar lo que es pertinente de lo que es banal. Para
ello, el investigador requiere interactuar constantemente con la recogida y análisis
de los datos, en vez de elaborar hipótesis respecto a posibles resultados y
suspender sus juicios hasta que todos los datos estén analizados. Por lo tanto, es
necesario que el investigador mantenga la sensibilidad teórica en cada paso del
proceso de investigación para generar una teoría que esté fundamentada en los
datos y no en ideas preconcebidas o teorías ya existentes.

Análisis de datos cualitativos en la investigación social


El análisis de un desafío pendiente
Examinar datos cualitativos es fascinante debido a que implica encontrar lo hondo
de lo no dicho, de lo expresado, de lo gestual, es descubrir sentido a los
materiales provenientes de las más distintas fuentes; experiencias conseguidas
por el investigador a lo largo de sus situaciones, como partes de un rompecabezas
van juntándose, articulándose una a una, en la búsqueda de la comprensión e
interpretación.
información obtenida tendrá que ser condensada para lograr de esta forma pensar
en significados, en sentidos, la información que se muestra es infinita y por esto El
almacenamiento de la información, en la situación de la indagación cuantitativa, es
subjetivamente sencillo, no muestra monumentales problemas, sin embargo, no
ocurre lo mismo en los hallazgos almacenados.
Pensar sobre la actividad que se hace es parte misma de dicha actividad;
dictaminar la táctica metodológica más oportuna, la teoría que comprende la
situación o que va a ser primordial producir es, además, preguntarse sobre el
objeto de análisis y la postura que se adoptará.
Deducimos, además, que aquel objeto no está establecido, o sea, que es la
ciencia la que crea el objeto de análisis.
Generan el razonamiento; y dicha averiguación de entendimiento, de
reconocimiento del otro, pone en juego todos nuestros propios sentidos: aprender
a oír, saber ver, saber oler, tanto lo viejo como lo nuevo y hoy que está de moda
todo ‘lo nuevo’ mencionamos ‘no todo es tan viejo ni todo es tan nuevo’.
Asegurar que el exclusivo punto de consenso entre los estudiosos es la iniciativa
de que criticar, cuestionar y desconfiar en la averiguación cualitativa.
Averiguación, debido a que la averiguación de información está interactuando con
la verdad y conceptualizando la información; está presente una vez que tomamos
notas de campo, en sus paréntesis, opiniones, juicios, reflexiones,
interpretaciones, en articulación con otras fracciones de discurso, en las notas del
observador y en sus comentarios.
Empero en la indagación cualitativa se identifican diversos obstáculos en este
proceso.
Incrementará la confianza en la averiguación, en otras ocasiones va a poder
interesar la averiguación en tomadas a lo largo del proceso investigativo nos
permiten aprender en verdad lo cual nos proponemos aprender.
El flujo espontáneo de la plática, al relato personal; no basta clasificar, clasificar y
venimos mencionando, si la investigación se hace a lo largo del proceso
constantemente van a aparecer novedosos guiados por lo cual el observador
implica sobre la cotidianeidad de los sujetos, de los supuestos acerca del actor,
forzando a que los datos se ajusten a sus categorías.
La naturaleza de los datos cualitativos
Sus silencios, sus gestos, sus no decires y sus decires. generan el razonamiento;
y dicha averiguación de entendimiento, de reconocimiento del otro, pone en juego
todos nuestros propios sentidos: aprender a oír, saber ver, saber oler, tanto lo
viejo como lo nuevo y hoy que está de moda todo ‘lo nuevo’ mencionamos ‘no
todo es tan viejo asegurar que el exclusivo punto de consenso entre los estudiosos
es la iniciativa de que criticar, cuestionar y desconfiar en la indagación cualitativa.
Debido a que la averiguación de información está interactuando con la verdad y
conceptualizando la información; está presente una vez que tomamos notas de
campo, en sus paréntesis, opiniones, juicios, reflexiones, interpretaciones, en
articulación con otras fracciones de discurso, en las notas del observador y en sus
comentarios.
Empero en la averiguación cualitativa se identifican diversos obstáculos en este
proceso.
incrementará la confianza en la indagación, en otras ocasiones va a poder
interesar la averiguación en lo referente con la técnica; en otras palabras, que la
obtención de resultados-para un mismo estudio sean los mismos quien desee
haya hecho la indagación.
Actualmente podemos apreciar la creciente necesidad y exigencia por parte de la
comunidad científica para garantizar la validez de los diferentes tipos de estudio,
es así que se vienen analizando constantemente guías prácticas y
recomendaciones sobre cómo establecerla y sobre cómo determinar
objetivamente si un estudio está correctamente estructurado. Ahora, este ámbito,
el cual antes era aspecto intrínsecamente ligado al campo cuantitativo, constituye
también una preocupación y/o reto actual para la investigación cualitativa; sin
embargo, ambos enfoques distan considerablemente, es decir, son
específicamente opuestos en cuanto a la metodología que emplean para la
recolección de datos dentro de una investigación, teniendo, la investigación
cualitativa, como una de sus principales barreras la “generalización de datos”, ya
que la crítica fundamental del enfoque cualitativo afirma que es imposible
generalizar los hallazgos proporcionados con métodos cualitativos fuera de los
mismos casos analizados.
En este sentido, una de las etapas primordiales dentro de la investigación
cualitativa, es decir, el “corazón” de la misma radica en la realización del análisis
de los datos, lo cual, según Mejía (2011), es una etapa central de la investigación,
establece una dinámica de trabajo, organizados en unidades manejables,
clasificados y tratando de encontrar patrones de comportamientos generales;
asimismo, tiene por objeto posibilitar la emergencia de enunciados sobre los
significados que expresan los datos, palabras, textos, gráficos, dibujos, entre
otros, que se obtienen específicamente de cada uno de los participantes; es así
que las proposiciones, que se desprenden de los datos, pueden ser descriptivas y
empíricas, también, en un plano superior, las conclusiones pueden ser explicativas
y teóricas. En general, el análisis de los datos se lleva a cabo manteniendo su
carácter textual y categorizando el contenido del documento.
Por otro lado, la particularidad del análisis de datos dentro una investigación de
corte cualitativo reside en la flexibilidad de dicho proceso, tal como lo refieren
Rodríguez, Lorenzo y Herrera (2005), quienes señalan que las etapas de
encuentran sumamente interrelacionadas y, básicamente, se centra en el estudio
de los sujetos, denotando su flexibilidad y amoldamiento en el sentido que el
análisis se adapta, se acomoda y emerge acorde a la dinámica interna de la
organización de los datos y el manejo de las áreas a explorar para la temática
investigativa; asimismo, se caracteriza, pues, por su forma cíclica y circular, frente
a la posición lineal que adopta el análisis de datos cuantitativos.
Dentro del proceso de análisis para los datos cualitativos se debe considerar como
punto de partida la revisión crítica de los mismos para asegurar adecuada
relevancia de la investigación, considerando así la representatividad, fiabilidad,
validez y punto de saturación, este último aspecto relacionado con obtener
información específicamente relevante, dejando de indagar en el punto mediante
el cual apreciamos que ya no se está encontrando nuevos aportes que sean de
exclusividad para nuestro estudio, ya que simplemente se observa la repetición de
los datos obtenidos quizá con una mínima variación de palabras o con el
reemplazo de algunas metáforas.
Seguidamente, la reducción de los datos constituye un aspecto de sumo valor
para acceder a una mejor visualización-organización del material obtenido y así
poder realizar un adecuado análisis; en este sentido, Miles y Hibernan (como se
citó en Cisterna, 2005) resaltan la relevancia que tiene la reducción de la enorme
cantidad de información cualitativa disponible al finalizar la ejecución de las
entrevistas a profundidad, grupos focales, estudio de caso, etc., para la posterior
reducción de datos, procedimiento que consiste específicamente en buscar
dimensiones en el material para establecer categorías analíticas y definir códigos
que faciliten el trabajo futuro y la organización de aquellos datos que serán
sumamente importantes para la temática elegida.
Básicamente, Mejía (2011) señala que la importancia de la categorización de
datos radica en que, mediante el cual el contenido de la información cualitativa,
transcrita en el texto de campo, se descompone o divide en unidades temáticas
que expresan una idea relevante del objeto de estudio, la unidad del discurso se
fragmenta en componentes menores que expresan unidades de un mismo tópico
conceptual, facilitando así la comprensión de la información y resaltando aspectos
específicos sobre cada dimensión que se haya decido explorar; es por ello que,
previo a este paso, es imprescindible la reducción de datos cuando focalizamos
determinados aspectos de la realidad, ya que facilita las fases de categorización y
codificación que se ejecutarán posteriormente.
En esta línea, la categorización implica un proceso de identificación de unidades
temáticas y la clasificación de dichas unidades de datos en relación al todo,
describiendo clases significativas de un mismo género, de forma tal que se va
descubriendo características, propiedades o aspectos del fenómeno que se
investiga, lo representativo de la categorización es que se refiere a una unidad de
registro que expresa una idea, en un proceso constante de integración y
reintegración del todo y las partes a medida que se revisa el discurso y va
emergiendo el significado de cada componente del texto, representando así la
materia prima del análisis que permite establecer los datos significativos (Miles y
Hibernan, como se citó en Mejía, 2011).
Ahora, como se ha descrito previamente, elaborar un esquema de categorías es
un proceso imprescindible en el análisis de datos cualitativos, el cual se puede
establecer a través de tres criterios diferentes: estrategia inductiva, estrategia
deductiva y estrategia mixta, es decir, inductiva-deductiva. Haciendo referencia al
primer aspecto, la codificación inductiva genera un sistema de categorización que
es el resultado del proceso intrínseco del mismo análisis de los datos cualitativos,
es decir, consiste en el descubrimiento progresivo de las categorías a partir del
examen sucesivo de los datos de todas las formas posibles, no parte de una
estructura teórica restrictiva sobre los datos, sino que se examina línea a línea o
párrafo a párrafo del texto para generar contenidos de información del discurso, de
lo superficial y general a lo más profundo y específico; de esta manera, emerge un
conjunto de categorías iniciales, que conforme se desarrolla el proceso se pueden
modificar o se mantienen a partir de la comparación de todos los casos
examinados (Taylor y Bogdán, como se citó en Mejía, 2011).
El segundo criterio, estrategia deductiva, se va a constituir como contrario al
descrito previamente, ya que parte de un marco teórico definido, pues el esquema
de las categorías se establece a priori, antes de la propia experiencia del examen
de la información, las dimensiones, conceptos y categorías se deducen de una
teoría, es decir, la estructura teórica define de antemano el conjunto de las
categorías, las mismas que contienen las unidades de información; cabe señalar
que este proceso se expresa cuando se considera a la guía de preguntas o de
observación como única fuente de elaboración de las categorías para reducir
datos cualitativos (Mejía, 2011).
Finalmente, el tercer criterio, inductivo-deductivo, constituye una estrategia mixta
que más se utiliza en la práctica del trabajo de investigación, ya que se tiende a
recurrir con más frecuencia a la combinación de las estrategias inductiva y
deductiva para elaborar esquemas de categorías, este criterio se inicia con un
marco teórico para plantear macro categorías y la definición de cada una de ellas,
posteriormente, a partir del examen del discurso emergen categorías más
específicas; asimismo, se introducen modificaciones y ampliaciones que faciliten la
adaptación al conjunto de datos, según el examen minucioso y repetido de los
textos de campo, se elaboran listas más específicas a partir de la emergencia de
categorías en el examen de los datos, reconsiderándose las unidades temáticas
previamente categorizadas, agrupando códigos, dividiéndolos en otros o
suprimiendo alguno de ellos (Mejía, 2011).
Un aspecto importantísimo dentro del análisis de datos cualitativos y el cual
considero pertinente referir es el proceso de triangulación de datos cualitativos, el
cual básicamente se refiere al uso de varios métodos (tanto cuantitativos como
cualitativos), de fuentes de datos, de teorías, de investigadores o de ambientes en
el estudio de un fenómeno, ofreciendo así la alternativa de poder visualizar un
problema desde diferentes ángulos y de esta manera aumentar la validez y
consistencia de los hallazgos, permitiendo también aumentar la fortaleza y calidad
del estudio. Asimismo, la triangulación es vista también como un procedimiento
que disminuye la posibilidad de malos entendidos, al producir información
redundante durante la recolección de datos que esclarece de esta manera
significados y verifica la repetibilidad de una observación (Ojuda y Gómez-
Restrepo, 2005).
Si bien, al inicio se mencionaba la crítica que aún existe hacia cierto tipo de
investigación, específicamente la que concierne al enfoque cualitativo, la
experiencia acumulada en este tipo de investigaciones tiene sus primeros avances
significativos hacia la mitad del siglo pasado y no podemos pasarlo como algo
poco significativo, ni siquiera por quienes detentan posiciones epistemológicas
cercanas al más puro positivismo, es decir, a aquella “visión cerrada que sólo
pretende encontrar objetividad en lo que es cuantificable y reducible a relaciones
estadísticas”, en aquello “realmente medible”. Por el contrario, los avances
actuales en el campo epistemológico son cada vez más coincidentes en la idea de
encontrar complementaciones entre lo cualitativo y lo cuantitativo; sin embargo,
cabe señalar también que una de las carencias más comunes en la metodología
cualitativa es precisamente la ausencia de referentes que organicen la información
y guíen a los investigadores noveles en el proceso de investigación, pues hasta la
actualidad seguimos percibiendo que muy pocos se animan a estructurar de
manera más consolidada los procedimientos y lineamientos que le conciernen.
En suma, el avance en el análisis de datos cualitativos viene acrecentándose con
el transcurso de los años, si bien, aún percibimos aspectos por mejorar y delimitar,
tenemos que considerar que la recolección de los datos resulta el eje principal
para ambos enfoques, siendo la “principal motivación” del enfoque cualitativo la
obtención de datos a través de personas, seres vivos, comunidades, contextos o
situaciones en profundidad, considerando primordialmente la propia “forma de
expresión” de cada uno de ellos, recolectándolos con la finalidad de analizarlos y
comprenderlos en su contexto específico para poder responder satisfactoriamente
a sus preguntas de investigación y generar nuevos conocimientos en beneficio de
la comunidad científica, resaltando así la importancia que brinda el enfoque
cualitativo a entender los motivos subyacentes, los significados y las “razones
internas” del comportamiento humano.
Conclusión
La teoría fundamentada es una metodología de investigación cualitativa rigurosa
que permite, a través de unos procedimientos metodológicos característicos,
construir una teoría que fomente unos cuidados de enfermería de calidad. A pesar
de que su aplicación en la investigación enfermera en España es todavía escasa,
cabe resaltar el interés creciente por utilizar esta metodología en los últimos años.
Queda evidenciado en la revisión presentada, la utilidad de la TF para la
enfermería y en diferentes contextos de salud. Según Morse y cols., "la teoría
fundamenta, al igual que la investigación cualitativa, está en la esencia de lo que
es la enfermería: tratar de llegar a la gente, escuchar lo que tienen que decir, y
luego utilizar ese conocimiento para favorecer un cambio en sus vidas."
En este sentido, la TF contribuye al desarrollo del conocimiento enfermero, y con
ello a dar respuestas a los pacientes y familiares ante una situación de salud o
enfermedad.
El análisis de datos cualitativos es un proceso mediante el cual se extraen
conclusiones de datos no estructurados y heterogéneos que no son expresados
de forma numérica o cuantificable. Hablamos de un proceso que permite, a través
de un conjunto de técnicas, extraer conclusiones de una masa de datos en forma
textual o narrativa, e incluso de imágenes.

Estos datos pueden ser más o menos homogéneos o heterogéneos, por lo que
debes definir de forma clara la metodología a utilizar a la hora de tratar datos
cualitativos. Esto es esencial porque uno de los valores que aporta este análisis
radica en que permiten a las empresas obtener conocimientos en profundidad
sobre ciertas realidades subjetivas, como, por ejemplo, las preferencias,
sentimientos, sensaciones y motivaciones de los clientes. Evidentemente, esto
puede dotarlos de un valor añadido muy importante, ya que permite adelantarse a
las próximas tendencias de los diferentes mercados, como pueden ser el de la
automoción, la moda o el sector reta
Referencias
Wikipedia
http://biblioteca.clacso.edu.ar/Colombia/dcs-upn/20121130050354/
construccion.pdf
http://www.scielo.org.co/pdf/pege/n39/n39a01.pdf
https://www.ekon.es/blog/tipos-analisis-datos-cualitativos/

También podría gustarte