Está en la página 1de 19

TÉCNICAS E INSTRUMENTOS DE RECOLECCIÓN DE DATOS

Las técnicas e instrumentos de recolección de datos son elementos


que se utiliza el investigador para reunir y medir información
recolectada, este material debe ser organizado y debe estar
relacionado con los objetivo de investigación.
Cada una de estas técnicas e instrumento que se verán a continuación
van a permitir recopilar información del problema de estudio. Por
consiguiente es importante conocer sus características y
requerimientos para su aplicación
Concepto de medición
El ser humano siempre ha tenido la inquietud de saber la medida de algo. Por ejemplo cando
vamos a trabajar medimos el tiempo que demoramos en trasladarnos de un lugar a otro, o
cuando consumimos algún liquido saber cuánto estamos enjeriendo, también saber la longitud
de los objetos como un cuaderno y lo comparamos con una regla de medida entre otros. Medir
siempre ha sido una necesidad del ser humano y la investigación científica no está ajena a estos
parámetros de medición, tanto en las ciencias sociales como en las ciencias naturales.
Medición consiste en hacer una comparación de un valor o una magnitud frente a un patrón de
medida.
Según Carmines y Zeller, (1991) la medición es: “el proceso de vincular conceptos abstractos con
indicadores empíricos”, el cual se realiza mediante un plan explícito y organizado para clasificar
(y con frecuencia cuantificar) los datos disponibles (los indicadores), en términos del concepto
que el investigador tiene en mente. Por otra parte (Stevens, 1951), “asignar números, símbolos
o valores a las propiedades de objetos o eventos de acuerdo con reglas” (citado por Hernández,
Fernández y Baptista, p, 199).
Para Hernández et al 2018-II, p, Instrumento de medición Recurso que utiliza el investigador
para registrar información o datos sobre las variables que tiene en mente
Acontinuacion presentaresmos algunas tecnicas e instrumentos mas utilizados en investigacion
para su medicion
Técnica
Las técnicas de recolección de datos están conformado por un conjunto reglas o patrones que
dirigen las actividades que realizan los investigadores.
Para según Pardinas (1982) la técnica son herramientas metodológicas para resolver un
problema metodológico concreto, de comprobación o desaprobación de una hipótesis. (Como
cito Carrasco, 2006, p. 274)
En conclusión las técnicas son los procedimientos y estrategias que aplican los investigadores
para recabar la información de una manera eficiente.
La observacion, es una técnica que consiste, en observar, e interpretar las actuaciones,
comportamientos y hechos que las personas realizan, en este proceso lo que se quiere es mirar
con atencion de manera sistematica y objetiva como se desarrollan los diversos procesos en un
contexto de terminado.
La observacion se define como el “proceso sistematico de obtencion recopilacion y registro de
datos empiricos de un objeto, un suceso, un acontecimiento o conducta humana con el
procesito de procesarlo y convertirlo en informacion” Carrasco, (2006, p. 282)
“tecnica técnica de investigación científca, es un proceso riguroso que permite conocer, de
forma directa, el objeto de estudio para luego describir y analizar situaciones sobre la realidad
estudiada”. (Bernal, p. 257)
Según Ñaupas, Mejia, Novoa, Villagomez, (2014, p.201) escribe que la observacion es un
proceso de conocimiento de la realidad factual, mediante el contacto directo del sujeto
cognoscente y el objeto o fenomeno por conocer, a traves de los sentidos, principalmente la
vista, el oido, el tacto y el olfato.
Lista de cotejo Es un instrumento de investigacion que sirve a la observacion. Llamada tambien
hoja de chequeo o check list, consiste en una cedula u hoja de control, de verificacion de la
presencia o ausencia de conductas, secuencias o acciones, destrezas, competencias, aspectos
de salud, actividades sociales (Ñaupas et. al, p.208)
En conclusion Es un instrumento que permite identificar conductas con respecto a actitudes,
habilidades y destrezas. Contiene un listado de indicadores de logro en el que se constata, en
un solo tiempo, la presencia o ausencia de estos mediante la actuación del estudiante.
Ejemplo:
Desempeño en el salto caballete, en educacion fisica. Coloque con un check en el casillero
correspondiente

Secuencia de operaciones Correcto Incorrecto


1.- Inicia la carrera con decisión
2.- Rechaza en el trampolin con ambos pies
3.- Vuelve en eposicion horizontal
4.- Se apoya con ambas manos en el extremo del caballete
5.- Cae en dos pies sin tocar caballete
6.- Mantiene el equilibrio despues del salto
Fuente: tomado del libro de (Ñaupas et.al, 2014, p. 209)
La encuesta; es una “tecnica para la investigacion social, para la indagacion, exploracion y
recoleccion de datos, mediante preguntas formuladas directa o indirectamente a los sujetos
que constituyen la unidad de analisis del estudio investigado” Carrasco, (2006, p. 314)
A continuación se puede decir que la encuesta son procedimiento que se enmarcan dentro de
los diseños de una investigación, en el que el investigador recolecta datos mediante un
instrumento que es el cuestionario este instrumento debe estar previamente diseñado, y
validado para su aplicación y debe describir el fenómeno a investigar.
El cuestionario salkind, (1998, p.149) (citado por Valderrama 2013, p.275) los cuestionarios son
un conjunto de preguntas estructuradas y enfocadas que se contestan con lápiz y papel. Los
cuestionarios ahorran tiempo, porque permiten a los individuos llenarlos sin ayuda ni
intervención directa del investigador.
Para Bernal, (2010, p. 250), el cuestionario está conformado por un conjunto de ítems
planteadas para generar los datos necesarios, con el propósito de alcanzar los objetivos de la
investigación. En esta parte se quiere reunir información de la unidad de análisis y del objeto de
estudio
La entrevista; es un “instrumento muy utilizado en la investigación social consiste en un dialogo
interpersonal entre el entrevistador y el entrevistado, en una relación cara a cara, es decir en
forma directa” Carrasco, (2006, p. 315)
A continuación Ñaupas et. al, (2014, p. 219) nos dice que la entrevista es una especie de
conversación formal entre el investigador y el investigado o entre el entrevistador y el
entrevistado o informante; es una modalidad de la encuesta, que consiste en formular
preguntas de manera verbal con el objetivo de obtener respuestas o informaciones y con el fin
de verificar o comprobar las hipótesis de trabajo.

VALIDEZ Y CONFIABILIDAD DE LOS INSTRUMENTOS DE RECOLECCIÓN DE DATOS


Dentro del proceso de investigación, se requiere elaborar instrumentos en los que se pueda
recolectar datos; con la finalidad que la información recogida sea objetiva y real, en otras
palabras, que sea válida y confiable. Tal vez sea esta el gran problema para muchos
investigadores, ya que la realización de una buena investigación va depender del hecho que la
información recogida concuerde lo más cercano posible al problema, suceso o fenómeno que se
está investigando.
Cuando queremos recoger información o datos para la toma de decisiones, el dilema surge si el
instrumento a utilizar cumple los objetivos de la investigación, cubre el dominio de las variables
a investigar. En las diferentes áreas de conocimiento existen una diversidad de instrumentos
que ayudan a recoger información, entre ellos tenemos: los cuestionarios, ficha de observación,
lista de cotejo, pruebas, test, rúbricas, fichas técnicas u otros; la pregunta es ¿realmente el
instrumento elaborado nos ayudará a tomar decisiones? En este sentido, un instrumento según
Alvarado, Canales y Pineda (1994) “…es el mecanismo que utiliza el investigador para recolectar
y registrar la información” (p.125).
En concordancia con lo anterior, es difícil saber si el instrumento a elaborar servirá para recoger
buena información, que sea objetiva, real y que cumpla los objetivos del problema a investigar,
en estas circunstancias nos preguntamos ¿cuál será el mejor que podamos usar?, ¿cómo hacer
la selección tanto del instrumento como de los reactivos que la formen? Para que un
instrumento cumpla las expectativas, debe pasar por un proceso de evaluación; como: validez,
confiabilidad y objetividad (utilidad práctica).

Conceptos previos
Definición de medir: se entiende por medir cuando se asigna números, símbolos o valores a las
características o propiedades de objetos o eventos de acuerdo con reglas” (Stevens, 1951).
Desde luego, no se asignan a los objetos, sino a sus propiedades (Bostwick y Kyte, 2005).

Definición de medición: se puede definir a la medición como “el proceso de vincular conceptos
abstractos con indicadores empíricos”, el cual se realiza mediante un plan explícito y organizado
para clasificar (y con frecuencia cuantificar) los datos disponibles (los indicadores), en términos
del concepto que el investigador tiene en mente (Carmines y Zeller, 1991).

Instrumento de medición: es un recurso que utiliza el investigador para registrar datos


observables que representan verdaderamente los conceptos o las variables que tiene en mente
(Grinnell, Williams y Unrau, 2009).

Validez de un instrumento
Ebel (1977, citado por Fuentes, 1989) establece que validez “…designa la coherencia con que un
conjunto de puntajes de una prueba miden aquello que deben medir” (p. 103). La validez se
refiere al grado en que una prueba proporciona información que es apropiada a la decisión que
se toma. La validez responde a la pregunta ¿con qué fidelidad corresponde el universo o
población al atributo que se va a medir? Por ejemplo: Una prueba de conocimientos de regresión
lineal tiene que medir esto y no conocimientos de regresión cuadrática.

Tipos de validez:

Validez de Contenido
La validez de contenido se refiere al grado en que un instrumento refleja un dominio específico
del contenido de lo que se quiere medir, se trata de determinar hasta dónde los ítems, reactivos
o criterios de un instrumento son representativos del universo de contenido de la característica
o rasgo que se quiere medir, responde a la pregunta cuán representativo es el comportamiento
elegido como muestra del universo que intenta representar. Por ejemplo, un cuestionario sobre
la actitud de los alumnos ante la investigación no tendrá validez de contenido si explora la
opinión de los alumnos sobre las características de los docentes dentro de la cátedra de
estadística. También se le denomina validez racional o lógica.
Según plantea (De Arquer, M. I. 2011) se debe considerar que la validez de contenido
cualitativamente es una cuestión de juicio, se estima de manera subjetiva o intersubjetiva
empleando, usualmente, el denominado Juicio de Expertos. Los juicios de expertos se pueden
obtener por el método de agregados individuales (en forma individual dan sus opiniones), el
método Delphi (en forma grupal y sin debate dan sus opiniones en forma anónima, en este caso
se emplea la mediana y el intercuartil cuyas puntuaciones son en forma asimétrica), la técnica
de grupo nominal (reunidos el grupo en forma individual entregan sus puntuaciones, luego cada
uno expone y se debate para obtener coincidencias, se emplea la media aritmética para las
puntuaciones), y el método de consenso grupal (la tarea del grupo consiste en lograr un
consenso sobre las puntuaciones de los ítems)

Nota
La técnica utilizada con mayor frecuencia por los investigadores es el Método de Agregados
Individuales por la facilidad de elección de expertos y otros aspectos como tiempo y economía.

Método de Agregados Individuales: Se pide individualmente a cada experto que dé una


estimación directa de los ítems, reactivos o criterios del instrumento. Se seleccionan al menos
cinco expertos o jueces, para juzgar de manera independiente. Cada experto debe recibir la
información escrita suficiente sobre: el propósito de la prueba (objetivos), conceptualización del
universo de contenido, tabla de especificaciones o de operacionalización de las variables del
estudio y la ficha de validación del instrumento. Se recogen y analizan los instrumentos de
validación y se decide:
Un resultado de validez mayor al 61% es considerado aceptable y por lo tanto, el instrumento
es aplicable. El porcentaje de validez menor a 61% implicará que el investigador deberá revisar
el instrumento para que sea evaluado nuevamente.
Modelo de ficha de validez por juicio de expertos:

La validez cuantitativa de contenido se puede efectuar mediante el estadístico V de Aiken o la


prueba binomial.
Ejemplo:
La tabla muestra la base de datos de la pertinencia y no pertinencia de 31 ítems valuados por
Jueces Expertos en investigación. Hallamos la validez de contenido del instrumento con la V de
Aiken.
En este caso, el estadístico V de Aiken está expresado por la expresión:

Utilizando el software estadístico Excel se encuentra con facilidad el coeficiente V de Aiken


El coeficiente V de Aiken para cada Juez se obtiene reemplazando los datos en la expresión
matemática
𝑆 4
𝑉= = = 0,88
[𝑛(𝑐 − 1)] [5(2 − 1)]

Luego, el promedio de todos los coeficientes V de Aiken es 0,877; indica que el instrumento
tiene alta validez de contenido.

Validez de Constructo

Al respecto Babbie (2014); Grinnell, Williams y Unrau (2009); The SAGE Glossary of the Social
and Behavioral Sciences (2009d); y Sawilowsky, (2006), mencionan que “la validez de constructo
es probablemente la más importante, sobre todo desde una perspectiva científica, y se refiere
a qué tan bien un instrumento representa y mide un concepto teórico” (citado por Hernández,
Fernández y Baptista, 2014, p. 203)

Un constructo es una variable medida y tiene lugar dentro de una hipótesis, teoría o modelo
teórico. Es un atributo que no existe aislado sino en relación con otros y debe ser inferido de la
evidencia que tenemos en nuestras manos y que proviene de las puntuaciones del instrumento
aplicado.
La validez de constructo incluye tres etapas (Carmines y Zeller, 1991):
1. Sobre la base de la revisión de la literatura, se establece y especifica la relación entre el
concepto o variable medida por el instrumento y los demás conceptos incluidos en la teoría,
modelo teórico o hipótesis.
2. Se asocian estadísticamente los conceptos y se analizan cuidadosamente las correlaciones.
3. Se interpreta la evidencia empírica de acuerdo con el nivel en el que se clarifica la validez de
constructo de una medición en particular.
Para efectuar la validez de constructo podemos emplear: análisis factorial, análisis de cofactores,
análisis de covarianza. Además, la correlación por rangos (Rho) de Spearman, la correlación por
puntuaciones netas r de Pearson y el coeficiente Alfa de Cronbach.

Validez de criterio
Según Hernández, et al (2014), la validez de criterio de un instrumento de medición se establece
al comparar sus resultados con los de algún criterio externo que pretende medir lo mismo.
El principio de la validez de criterio es sencillo: si diferentes instrumentos o criterios miden el
mismo concepto o variable, deben arrojar resultados similares. Bostwick y Kyte (2005) lo
expresan de la siguiente forma:
Si hay validez de criterio, las puntuaciones obtenidas por ciertos casos en un instrumento deben
estar correlacionadas y predecir las puntuaciones de estos mismos casos logradas en otro
criterio.
La pregunta que se responde con la validez de criterio es: ¿en qué grado el instrumento
comparado con otros criterios externos mide lo mismo?
Si el criterio se fija en el presente de manera paralela, se habla de validez concurrente (Kaplan y
Saccuzzo, 2013) (los resultados del instrumento se correlacionan con el criterio en el mismo
momento o punto de tiempo)
Si el criterio se fija en el futuro, se habla de validez predictiva (The SAGE Glossary of the Social
and Behavioral Sciences, 2009d).

Confiabilidad del instrumento


La confiabilidad tiene que ver con la exactitud y precisión del procedimiento de medición. Los
coeficientes de confiabilidad proporcionan una indicación de la extensión, en que una medida
es consistente y reproducible. La utilidad práctica está relacionada con factores, tales como:
economía, conveniencia e interpretación para determinar si una prueba es práctica para usarla
ampliamente.
La confiabilidad de un instrumento de medición se refiere al grado en que su aplicación repetida
al mismo individuo u objeto produce resultados iguales, Hernández, et al (2014, p. 200)
Se refiere a la consistencia de los resultados. En el análisis de la confiabilidad se busca que los
resultados de un cuestionario concuerden con los resultados del cuestionario en otra ocasión
Menéndez (2009).
Se refiere al grado en que su aplicación repetida al mismo sujeto u objeto produce iguales
resultados Silva (2009).
Según Hernández, et al (2014). Los procedimientos más utilizados para determinar la
confiabilidad mediante un coeficiente son:

1) Medida de estabilidad (confiabilidad por test-retest).


En este procedimiento un mismo instrumento de medición se aplica dos o más veces a un mismo
grupo de personas o casos, después de cierto periodo. Si la correlación entre los resultados de
las diferentes aplicaciones es muy positiva, el instrumento se considera confiable (Rodríguez,
2006a y Krauss y Chen, 2003). Se trata de una especie de diseño de panel. Desde luego, el
periodo entre las mediciones es un factor que hay que considerar. Si el periodo es largo y la
variable o el contexto son susceptibles de cambios, ello suele confundir la interpretación del
coeficiente de fiabilidad obtenido por este procedimiento. Y si el periodo es corto las personas
pueden recordar cómo respondieron en la primera aplicación del instrumento, para aparecer
como más consistentes de lo que en realidad son (Bohrnstedt, 1976).

2) Método de formas alternativas o paralelas.


En este esquema no se administra el mismo instrumento de medición, sino dos o más versiones
equivalentes de éste. Las versiones (casi siempre dos) son similares en contenido, instrucciones,
duración y otras características, y se administran a un mismo grupo de personas
simultáneamente o dentro de un periodo corto. El instrumento es confable si la correlación
entre los resultados de ambas administraciones es positiva de manera signifcativa (Rodríguez,
2006b). Los patrones de respuesta deben variar poco entre las aplicaciones. Una variación de
este método es el de las formas alternas prueba-posprueba (Creswell, 2005), cuya diferencia
reside en que el tiempo que transcurre entre la administración de las versiones es mucho más
largo, que es el caso de algunos experimentos.

3) Método de mitades partidas (Split-halves).


Los procedimientos anteriores requieren cuando menos dos administraciones de la medición
en la muestra. En cambio, el método de mitades partidas necesita sólo una aplicación de la
medición. Específicamente, el conjunto total de ítems o reactivos se divide en dos mitades
equivalentes y se comparan las puntuaciones o resultados de ambas. Si el instrumento es
confiable, las puntuaciones de las dos mitades deben estar muy correlacionadas (Rodríguez,
2006c y McKelvie, 2003). Un individuo con baja puntuación en una mitad tenderá a mostrar
también una baja puntuación en la otra mitad.

4) Medidas de coherencia o consistencia interna.


Éstos son coeficientes que estiman la confiabilidad: a) el alfa de Cronbach (desarrollado por J.L.
Cronbach) y b) los coeficientes KR-20 y KR-21 de Kuder y Richardson (1937). El método de cálculo
de éstos requiere una sola administración del instrumento de medición. Su ventaja reside en
que no es necesario dividir en dos mitades a los ítems del instrumento, simplemente se aplica
la medición y se calcula el coeficiente. La mayoría de los programas estadísticos como SPSS y
Minitab los determinan y solamente deben interpretarse.

Respecto a la interpretación de los distintos coeficientes mencionados cabe señalar que no hay
una regla que indique “a partir de este valor no hay fiabilidad del instrumento”. Más bien, el
investigador calcula su valor, lo declara y lo somete a escrutinio de los usuarios del estudio u
otros investigadores, explicitando el método utilizado (Chen y Krauss, 2003; McKelvie, 2003;
Lauriola, 2003; y Carmines y Zeller, 1991). Algunos autores consideran que el coeficiente debe
estar entre 0.70 y 0.90 (Tavakol y Dennick, 2011; DeVellis, 2003; Streiner, 2003; Nunnally y
Bernstein, 1994; Petterson, 1994). Nunnally (1987) por encima de 0.80. Lauriola (2003) sugiere
un valor mínimo de 0.70 para la comparación entre grupos y 0.90 para escalas. Garson (2013)
establece que 0.60 es aceptable para propósitos exploratorios y 0.70 para fines confirmatorios,
resultando 0.80 “bueno” en un alcance explicativo. Ahora bien, también un coeficiente mayor
de 0.90 puede implicar redundancia de ítems o indicadores y la necesidad de reducir el
instrumento (Tavakol y Dennick, 2011).
Con respecto a los métodos basados en coeficientes de correlación hay una consideración
importante que hacer ahora. El coeficiente que elijamos para determinar la confiabilidad debe
ser apropiado al nivel de medición de la escala de nuestra variable (por ejemplo, si la escala de
mi variable es por intervalos, puedo utilizar el coeficiente de correlación de Pearson; pero si es
ordinal podré usar el coeficiente de Spearman o de Kendall; y si es nominal, otros coeficientes).
El alfa de Cronbach trabaja con variables de intervalos o de razón, KR-20 y KR-21 con ítems
dicotómicos (por ejemplo: sí-no) y 𝜌𝑥𝑦 ′ con reactivos tricotómicos (Knapp, 2013; Alkharusi,
2010; Vittengl, White, McGovern y Morton, 2006; y Feldt, 2005). Además, existen otros
coeficientes como el alfa estratificado, la confiabilidad máxima, los coeficientes de Raju, Kristof,
Angoff-Feldt, FeldtGilmer, Guttman λ2, λ4 maximizado y el análisis de Hoyt.
Viabilidad y confiabilidad de instrumentos en las investigaciones cualitativas:

Se debe de tener en cuenta, que si bien, el enfoque cualitativo se basa en métodos de


recolección de datos no estandarizados ni predeterminados completamente, tal recolección
consiste en obtener las perspectivas y puntos de vista de los participantes (sus emociones,
prioridades, experiencias, significados y otros aspectos más bien subjetivos). También resultan
de interés las interacciones entre individuos, grupos y colectividades. El investigador hace
preguntas más abiertas, recaba datos expresados a través del lenguaje escrito, verbal y no
verbal, así como visual, los cuales describe, analiza y convierte en temas que vincula, y reconoce
sus tendencias personales. Debido a ello, la preocupación directa del investigador se concentra
en las vivencias de los participantes tal como fueron (o son) sentidas y experimentadas (Sherman
y Webb, 1988). Patton (2011) define los datos cualitativos como descripciones detalladas de
situaciones, eventos, personas, interacciones, conductas observadas y sus manifestaciones.

En este contexto Hernández, S., Fernández, C., & Baptista, L. (2014) señalan que el investigador
cualitativo utiliza técnicas para recolectar datos, como la observación no estructurada,
entrevistas abiertas, revisión de documentos, discusión en grupo, evaluación de experiencias
personales, registro de historias de vida, e interacción e introspección con grupos o
comunidades, los cuales deberán seguir los mismos procedimiento descritos anteriormente
para obtener su confiabilidad y validez (pág. 9).

Ténganse en cuenta finalmente que el proceso de indagación es más flexible y se mueve entre
las respuestas y el desarrollo de la teoría. Su propósito consiste en “reconstruir” la realidad, tal
como la observan los actores de un sistema social definido previamente. Es holístico, porque se
precia de considerar el “todo” sin reducirlo al estudio de sus partes.

Rigor en la investigación cualitativa


Durante toda la indagación cualitativa pretendemos realizar un trabajo de calidad que cumpla
con el rigor de la metodología de la investigación. Los principales autores en la materia han
formulado una serie de criterios para establecer cierto “paralelo” con la confiabilidad, validez y
objetividad cuantitativa, los cuales han sido aceptados por la mayoría de los investigadores, pero
rechazados por otros. Los objetores de estos criterios argumentan que se han trasladado las
preocupaciones positivistas al ámbito de la investigación cualitativa (Sandín, 2003). Estos
criterios obedecen en parte al rechazo de una gran cantidad de trabajos cualitativos en revistas
y foros académicos en las décadas de 1980 y 1990.
Actualmente y con la consolidación del enfoque, la fundación de diversas publicaciones de corte
cualitativo y el desarrollo de los métodos mixtos, su aplicación es común. En esta obra los
presentamos a consideración del lector, quien en última instancia tiene la decisión fnal.
Asimismo, siguiendo a Saumure y Given (2008b), Hernández-Sampieri y Mendoza (2008) y a
Cuevas (2009), se prefiere utilizar el término “rigor”, en lugar de validez o confabilidad, aunque
haremos referencia a estos términos. Cabe señalar que aplican tanto al proceso como al
producto (Savin-Baden y Major, 2013).

Dependencia
La dependencia es una especie de “confiabilidad cualitativa”. Guba y Lincoln (1989) la
denominaron consistencia lógica, aunque Mertens (2010) considera que equivale más bien al
concepto de estabilidad. Saumure y Given (2008b) y Franklin y Ballau (2005) la definen como el
grado en que diferentes investigadores que recolecten datos similares en el campo y efectúen
los mismos análisis, generen resultados equivalentes. Creswell (2013a) la concibe como “la
consistencia de los resultados”. Para Hernández-Sampieri y Mendoza (2008), implica que los
datos deben ser revisados por distintos investigadores y éstos deben arribar a interpretaciones
congruentes. De ahí la necesidad de grabar los datos (entrevistas, sesiones, observaciones, etc.).
La “dependencia” involucra los intentos de los analistas por capturar las condiciones cambiantes
de sus observaciones y del diseño de investigación. Franklin y Ballau (2005) consideran dos
clases de dependencia: a) interna (grado en el cual distintos investigadores, al menos dos,
generan categorías similares con los mismos datos) y b) externa (grado en que diferentes
investigadores generan categorías similares en el mismo ambiente y periodo, pero cada quien
recaba sus propios datos). En ambos casos ese grado no se expresa por medio de un coeficiente,
sino que simplemente se trata de verificar la sistematización en la recolección y el análisis
cualitativo. Las amenazas a la “dependencia” pueden ser, básicamente: los sesgos que pueda
introducir el investigador en la sistematización durante la tarea en el campo y el análisis, el que
se disponga de una sola fuente de datos y la inexperiencia del investigador para codificar. Taylor
y Francis (2013), Carey (2007) y Coleman y Unrau (2005) señalan las siguientes recomendaciones
para alcanzar la “dependencia”: 1) evitar que nuestras creencias y opiniones afecten la
coherencia y sistematización de las interpretaciones de los datos y 2) no establecer conclusiones
antes de que todos los datos sean considerados y analizados y se alcance la saturación.
La dependencia se demuestra (o al menos se aporta evidencia en su favor) cuando el
investigador:
a) Proporciona detalles específicos sobre la perspectiva teórica del investigador y el diseño
utilizado.
b) Explica con claridad los criterios de selección de los participantes o casos y las herramientas
para recolectar datos.
c) Ofrece descripciones de los papeles que desempeñaron los investigadores en el campo y los
métodos de análisis empleados (procedimientos de codificación, desarrollo de categorías e
hipótesis).
d) Especifica el contexto de la recolección y cómo se incorporó en el análisis (por ejemplo, en
entrevistas, cuándo, dónde y cómo se efectuaron).
e) Documenta lo que hizo para minimizar la influencia de sus concepciones y sesgos.
f) Prueba que la recolección fue llevada a cabo con cuidado y coherencia (por ejemplo, en
entrevistas, a todos los participantes se les preguntó lo que era necesario, lo mínimo
indispensable vinculado al planteamiento).

Credibilidad
También se llama “máxima validez” (Saumure y Given, 2008b), y se refiere a si el investigador
ha captado el significado completo y profundo de las experiencias de los participantes,
particularmente de aquellas vinculadas con el planteamiento del problema. La pregunta a
responder es: ¿hemos recogido, comprendido y transmitido en profundidad y con amplitud los
significados, vivencias y conceptos de los participantes? La credibilidad tiene que ver también
con nuestra capacidad para comunicar el lenguaje, pensamientos, emociones y puntos de vista
de los participantes (Te SAGE Glossary of the Social and Behavioral Sciences, 2009k). Mertens
(2010) la define como la correspondencia entre la forma en que el participante percibe los
conceptos vinculados con el planteamiento y la manera como el investigador retrata los puntos
de vista del participante.
Las amenazas a esta validez son la reactividad (distorsiones que pueda ocasionar la presencia de
los investigadores en el campo o ambiente), tendencias y sesgos de los investigadores (que los
investigadores ignoren o minimicen datos que no apoyen sus creencias y conclusiones), y
distorsiones de los participantes sobre los eventos del ambiente o del pasado. Por ejemplo, que
reporten sucesos que no ocurrieron, que olviden los detalles, que magnifiquen su participación
en un hecho, que sus descripciones no revelen lo que realmente experimentaron y sintieron en
el momento de los sucesos, sino más bien lo que piensan y sienten ahora, en el presente; así
como falta de honestidad y autenticidad.
Savin-Baden y Major (2013), James (2008) y Coleman y Unrau (2005) efectúan las siguientes
recomendaciones para incrementar la “credibilidad”:
• Evitar que nuestras creencias y opiniones afecten la claridad de las interpretaciones de los
datos, cuando deben enriquecerlas.
• Considerar importantes todos los datos, particularmente los que contradicen nuestras
creencias.
• Privilegiar a todos los participantes por igual (asegurar que cada uno tenga el mismo acceso a
la investigación).
• Estar conscientes de cómo influimos a los participantes y cómo ellos nos afectan.
• Buscar evidencia positiva y negativa por igual (a favor y en contra de un postulado).
Transferencia (aplicabilidad de resultados)
Este criterio no se refiere a generalizar los resultados a una población más amplia, ya que ésta
no es una finalidad de un estudio cualitativo, sino que parte de ellos o su esencia puedan
aplicarse en otros contextos (Savin-Baden y Major, 2013; Morse, 2012; y Williams et al., 2005).
Mertens (2010) también la denomina “traslado”. Sabemos que es muy difícil que los resultados
de una investigación cualitativa particular puedan transferirse a otro contexto, pero en ciertos
casos, pueden dar pautas para tener una idea general del problema estudiado y la posibilidad
de aplicar ciertas soluciones en otro ambiente. Por ejemplo, los resultados de un estudio
cualitativo sobre la depresión posparto realizado con 10 mujeres de Buenos Aires no pueden
generalizarse a otras mujeres de esta ciudad que experimenten tal depresión, mucho menos a
las argentinas o a las latinoamericanas. Pero sí pueden contribuir a un mayor conocimiento del
fenómeno y a establecer algunas pautas para futuras indagaciones sobre la depresión posparto,
aunque se efectúen en Montevideo, Sevilla o Monterrey. La transferencia no la realiza el
investigador, sino el usuario o lector, que es el que se pregunta si puede aplicarse a su contexto.
El investigador lo único que puede hacer es intentar mostrar su perspectiva sobre dónde y cómo
encajan o embonan sus resultados en el campo de conocimiento de un problema analizado.
Con la finalidad de que el lector o usuario pueda contar con más elementos para evaluar la
posibilidad de transferencia, el investigador debe describir con toda amplitud y precisión el
ambiente, los participantes, materiales, momento del estudio, etc. La transferencia nunca será
total, pues no hay dos contextos iguales, en todo caso será parcial. Para que la posibilidad de
transferencia sea mayor es necesario que la muestra sea diversa y los resultados (temas,
descripciones, hipótesis y teoría) se convaliden si emergen en muchos más casos

Confirmación o confirmabilidad
Este criterio está vinculado a la credibilidad y se refiere a demostrar que hemos minimizado los
sesgos y tendencias del investigador (Mertens, 2010, y Guba y Lincoln, 1989). Implica rastrear
los datos en su fuente y la explicitación de la lógica utilizada para interpretarlos.
Las estancias prolongadas en el campo, la triangulación, la auditoría, el chequeo con
participantes y la reflexión sobre los prejuicios, creencias y concepciones del investigador
ayudan a proveer información sobre la confirmación.
Otros criterios
Además de los criterios anteriores, otros autores más recientes como Savin-Baden y Major
(2013); Teddlie y Tashakkori (2009); y Smith (2003) han propuesto unos más, entre los que
podemos mencionar los siguientes:
• Fundamentación: la amplitud con que la investigación posee bases teóricas y filosóficas sólidas
y provee de un marco referencial que informa al estudio. Tiene que ver con una revisión de la
literatura extensiva y pertinente (enfocada en estudios similares). Además de incluir un
razonamiento contundente de las razones por las que se recurrió a un enfoque cualitativo.
• Aproximación: desde un punto de vista metodológico, la contundencia con que se explicitaron
los juicios y lógica del estudio. El investigador debe señalar de manera específica la secuencia
que se siguió en la investigación y los razonamientos que la condujeron.
• Representatividad de voces: ya comentada. Debemos incluir todos los grupos de interés o al
menos la mayoría (por ejemplo, si estudiamos los valores de los jóvenes universitarios, debemos
escuchar a estudiantes de todos los estratos económicos, hombres y mujeres, de escuelas
públicas y privadas, de diferentes edades y tratando de abarcar el máximo de licenciaturas o
carreras).
• Capacidad de otorgar significado: la profundidad con que se presentan nuevos
descubrimientos y entendimientos del problema de investigación a través de los datos y el
método utilizado.
• Autenticidad: que tanto los participantes como el investigador se expresen tal y como son y
las descripciones sean equilibradas y justas (Burns, 2009 y James, 2008).
Todo esto, además de verosimilitud, honestidad y capacidad de autocrítica (Savin-Baden y
Major, 2013).
Método de análisis de datos (Enfoque cuantitativo)

Fuente: Hernández, Fernández y Baptista (2014)


Método de análisis de datos (Enfoque cualitativo)

Fuente: Hernandez, Fernandez y Baptista (2014)


Referencias

Alvarado, E., Canales, F. y Fineda, E. (1994). Metodología de la Investigación (2ª ed.). Washington
D. C: Organización Panamericana de la Salud
Bernal, C (2010), Metodología de la investigación, Administración, Economía, Humanidades y
Ciencias Sociales. Colombia: Pearson.
Carmines, N. y Zeller, R. (1979) Reliability and validity assessment. Londres: Sage.
Cronbach, L. (1951) Coefficient alpha and the internal structure of test. Psychometrika, 16, 3,
297-334.
Hernández, S., Fernández, C., & Baptista, L. (2014). Metodología de la Investigación. 6ta edición
(5ta ed.). México: McGraw-Hill/Interamericana.
Kaplan, R. M., & Saccuzzo, D. P. (2013). Psychological Testing: Principles, Applications, and Issues.
MINDTAP.
Palella, S. y Martins, F. (2003). Metodología de la Investigación cuantitativa. Caracas: Fedupel.
Sherman, R. R., & Webb, R. B. (1988). Qualitative research in education: A focus. Qualitative
research in education: Focus and methods, 2-21.
Torres, C. (2000). Orientaciones básicas, Metodología de la investigación. Lima: San Marcos.

También podría gustarte