Está en la página 1de 53

1

TËCNICAS DE LA INVESTIGACIÓN

Tema 1: Elección del Diseño de Investigación

¿Qué es un diseño de investigación?


Es el plan o estrategia que concebimos para obtener la información necesaria en nuestro proceso de
investigación. En el enfoque cuantitativo, el investigador utiliza su o sus diseños para analizar la
certeza de las hipótesis formuladas en un contexto en particular o para aportar evidencia
respecto de los lineamientos de la investigación (en el caso de que no se tengan hipótesis).
Si el diseño está concebido cuidadosamente, el producto final de un estudio, vale decir sus resultados
tendrán mayores posibilidades de éxito para generar conocimiento. Dentro del enfoque
cuantitativo, la calidad de una investigación se encuentra relacionada con el grado en que
apliquemos el diseño tal como fue preconcebido (en el caso de los experimentos).
Desde luego, en cualquier investigación el diseño debe ajustarse ante posibles contingencias o
cambios en la situación.

Tipos de diseños. - Básicamente se pueden considerar dos tipos de diseños desde el enfoque
cuantitativo:
 Investigación experimental e
 Investigación no experimental.
A su vez, la investigación experimental puede subdividirse en:
 preexperimentos,
 experimentos “puros” y
 cuasiexperimentos.
La investigación no experimental la subdividimos en:
 diseños transversales y
 diseños longitudinales.

Diseños experimentales
¿Qué es un experimento?
De un modo general diremos que un experimento consiste en realizar una acción y luego
observar las consecuencias de esta acción.
Experimento con un sentido desde la investigación científica, se refiere a un estudio en el que se
manipulan intencionalmente una o más variables independientes (supuestas causas
antecedentes), para analizar las consecuencias que la manipulación tiene sobre una o más
variables dependientes (supuestos efectos consecuentes), dentro de una situación de control
para el investigador.

¿Cuál es el primer requisito de un experimento?


Es la manipulación intencional de una o más variables independientes. Aquí manipular es sinónimo de
hacer variar o asignar distintos valores a la variable independiente. La manipulación o variación
de una variable independiente puede realizarse de dos formas: niveles o grados y modalidades.

Nivel o grado.
Es la intensidad de variación de la variable independiente.
El nivel mínimo de manipulación es de dos grados: presencia-ausencia de la variable independiente.
Cada nivel o grado involucra un grupo en el experimento.

Presencia-ausencia implica que un grupo se expone a la presencia de la variable independiente y el


otro no. Posteriormente, los dos grupos se comparan para saber si el grupo expuesto a la
variable independiente difiere del grupo que no fue expuesto, al que también se lo conoce como
“grupo control” o “grupo testigo”.
2

En general en un experimento podemos decir que, si en ambos grupos todo fue “igual” menos la
exposición a la variable independiente, es razonable pensar que las diferencias entre los grupos
se deban a la presencia-ausencia de tal variable.
Más de dos grados
En ocasiones, es posible hacer variar o manipular la variable independiente en cantidades o grados.
Esta situación tiene la ventaja de que no solo se puede determinar si la presencia de la variable
independiente o tratamiento experimental tiene un efecto, sino también si distintos niveles de la
variable independiente producen diferentes efectos. Es decir, si la magnitud del efecto (y)
depende de la intensidad del estímulo (x1, x2, x3, etc.)

Modalidades de manipulación.
El término modalidad es aplicado a las formas o categorías distintas que se puedan presentar en la
variable independiente, sin que esto implique cantidades.
En ocasiones, la manipulación de la variable independiente conlleva una combinación de cantidades y
modalidades de esta, pero es necesario señalar en que cada nivel o modalidad implica al menos
un grupo.

¿Cómo se define la manera de manipular las variables independientes?


Al manipular una variable independiente es necesario especificar qué se va a entender por esa
variable en el experimento (definición operacional experimental). Es decir, trasladar el concepto
teórico a un estímulo experimental (una serie de operaciones y actividades concretas a realizar).

Dificultades para definir cómo se manipularán las variables independientes.


En ocasiones no resulta difícil trasladar el concepto teórico (variable independiente) en operaciones
prácticas de manipulación (tratamientos o estímulos experimentales). Sin embargo, a veces
resulta complicado representar el concepto teórico, sobre todo con variables internas, variables
que puedan tener varios significados o variables que sean difíciles de alterar.

Guía para sortear dificultades.


Para definir cómo se va a manipular una variable es necesario:
1. Consultar experimentos antecedentes para ver si en estos resultó exitosa la forma de
manipular la variable independiente.
Al respecto, resulta imprescindible analizar si la manipulación de esos experimentos puede
aplicarse al nuestro, o cómo se extrapolará a nuestra situación experimental.
2. Evaluar la manipulación antes de que se conduzca el experimento.
Hay varias preguntas que el experimentador debe hacerse para evaluar su manipulación ante
de llevarla a cabo:
 ¿Las operaciones experimentales representan la variable conceptual que se tiene en
mente?
 ¿Los diferentes niveles de variación de la variable independiente harán que los sujetos se
comporten de diferente forma?
 ¿Qué otras maneras existen para manipular una variable?, ¿esta es la mejor?
Asimismo, en muchos casos, si la manipulación resulta errónea y se genera experimentalmente otra
variable independiente distinta a la que nos interesa, ni siquiera se aporta evidencia sobre el
efecto de esa otra variable porque no se estaba preparado para ello.
En resumen, si la manipulación es equivocada es muy probable que:
a) El experimento no sirva para nada.
b) Vivamos en el error (creer que “algo es” cuando verdaderamente “no es”) y
c) Obtengamos resultados que no nos interesen (si nos interesaran habríamos pensado
en otro experimento).
También, si la presencia de la variable independiente en el o los grupos experimentales es débil,
probablemente no se encontrarán efectos, pero no porque no pueda haberlos.

3. Incluir verificaciones para la manipulación.


3

Cuando se utilizan seres humanos hay varias formas de verificar si realmente funcionó la
manipulación.
 La primera consiste en entrevistar a los sujetos. Supongamos que, por medio de la
manipulación, pretendemos generar que un grupo esté muy motivado hacia una tarea o
actividad y el otro no, después del experimento entrevistaríamos a los participantes para ver si el
grupo que debería estar muy motivado lo estuvo, y el otro grupo que no debía estar motivado no
lo estuvo.
 Una segunda forma es incluir mediciones relativas a la manipulación durante el
experimento. Por ejemplo, aplicar una escala de motivación a ambos grupos cuando
supuestamente uno de los grupos debe estar motivado y el otro grupo no tendría que estarlo.

¿Cuál es el segundo requisito de un experimento?


Consiste en medir el efecto que la variable independiente tiene en la otra variable: la dependiente.
Esto es igualmente importante y como en la variable dependiente se observa el efecto, la medición
debe ser válida y confiable. Si no podemos asegurar que se midió de manera adecuada, los
resultados no servirán y el experimento será una pérdida de tiempo.
Las variables dependientes se pueden medir de diversas maneras: cuestionarios, escalas,
observación, entrevistas, mediciones fisiológicas, y otras.
En la planeación de un experimento se debe precisar cómo se van a manipular las variables
independientes y, cómo medir el efecto que causa en las variables dependientes.

¿Cuál es el tercer requisito de un experimento?


Es el control o la validez interna de la situación experimental. El término “control” tiene diversas
connotaciones dentro de la experimentación.
Sin embargo, su acepción más común es que, si en el experimento se observa que una o más
variables independientes hacen variar a las dependientes, la variación de estas últimas se deba
a la manipulación de las primeras y no a otros factores o causas. Y si se observa que
una o más variables independientes no tienen efecto sobre las dependientes, se puede estar
seguro de ello.
Tener “control” significa: saber que está ocurriendo realmente con la relación entre las variables
independientes y las dependientes. A su vez, la validez interna es el grado de confianza que se
tiene de que los resultados del experimento se interpreten adecuadamente y sean válidos (se
logra cuando hay control).

Fuentes de invalidación interna.


Existen diversos factores que tal vez nos confundan y sean causa de que ya no sepamos si la
presencia de una variable independiente o de un tratamiento experimental surte o no un
verdadero efecto. Se trata de explicaciones rivales a la explicación de que las variables
independientes afectan a las dependientes.
A estas explicaciones se les conoce como fuente de invalidación interna porque precisamente atentan
contra la validez interna de un experimento.
La validez interna se relaciona con la calidad del experimento y se logra cuando hay control, cuando
los grupos difieren entre sí solamente en la exposición a la variable independiente (ausencia-
presencia o en grados o modalidades), cuando las mediciones de la variable dependiente son
confiables y válidas, y cuando el análisis es el adecuado para el tipo de datos que estamos
manejando.
El control interno se logra eliminando esas explicaciones rivales o fuentes de invalidación interna, entre
las que se tienen:
 Historia
 Maduración
 Inestabilidad
 Administración de pruebas
 Instrumentación
 Regresión estadística
4

 Selección
 Mortalidad experimental
 Interacción entre selección y maduración
 Difusión de tratamientos experimentales
 Actuaciones anormales del grupo de control tras interacciones

¿Cómo se logran el control y la validez interna?


El control de un experimento logra la validez interna, y el control se alcanza mediante:
1) varios grupos de comparación (dos como mínimo)
2) equivalencia de los grupos en todo, excepto en la manipulación de la o las variables.

Varios grupos de comparación


Es necesario que en un experimento se tengan, por lo menos dos grupos que comparar, ya que si solo
se tiene uno no es posible saber con certeza si influyeron las fuentes de invalidación interna o
no.
Con un solo grupo no estaríamos seguros de que los resultados se debieran al estímulo experimental o
a otras razones. Siempre quedará la duda. Los “experimentos con un grupo se basan en
sospechas o en lo que “aparentemente es”, pero carecen de fundamentos

Equivalencia inicial
Implica que los grupos son similares entre sí al momento de iniciarse el experimento. Si este se refiere
a los métodos educativos, los grupos deben ser equiparables en cuanto a número de personas,
inteligencia, edad, género, aprovechamiento, disciplina, nivel socioeconómico, memoria,
motivación, alimentación, conocimientos previos, estado de salud física y mental, interés por los
contenidos, extraversión, etc.
La equivalencia inicial no se refiere a la equivalencia entre individuos, porque las personas tenemos
por naturaleza diferencias individuales; sino a la equivalencia entre grupos.
Si tenemos dos grupos en un experimento, es indudable que habrá, por ejemplo, personas muy
inteligentes en un grupo, pero también debe haberlas en el otro grupo. Si en un grupo hay
mujeres, en el otro debe haberlas en la misma proporción.
Y así con todas las variables que lleguen a afectar a la o las variables dependientes, además de la
variable independiente.

Equivalencia durante el experimento.


Los grupos deben mantenerse similares en los aspectos concernientes al desarrollo experimental,
excepto en la manipulación de la: variable independiente: mismas instrucciones (salvo
variaciones que sean parte de esa manipulación), personas con las que tratan los participantes y
maneras de recibirlos, lugares con características semejantes (iguales objetos en los cuartos,
clima, ventilación, sonido ambiental, etc.), misma duración del experimento, así como del
momento y, en fin, todo lo que sea parte del experimento.

¿Cómo se logra la equivalencia inicial?


Por asignación al azar o aleatoria de los participantes a los grupos del experimento.
El que los participantes sean asignados al azar significa que no hay un motivo sistemático por el cual
fueron elegidos para ser parte de un grupo o del otro.
La casualidad es la que define a qué grupo son asignados.
La asignación al azar nos asegura probabilísticamente que dos o más grupos son equivalentes entre
sí.
Por emparejamiento o técnica del apareo, que consiste en igualar a los grupos en relación con alguna
variable específica, que puede influir de modo decisivo en la o las variables dependientes.
En esta técnica, el primer paso es elegir la variable específica de acuerdo con algún criterio teórico. Es
obvio que esta variable debe estar muy relacionada con las variables dependientes.
El segundo paso consiste en obtener una medición de la variable elegida para emparejar a los grupos.
Esta medición puede existir o efectuarse antes del experimento.
5

Referente a estas dos técnicas diremos que:


La asignación al azar es el método más preciso y confiable para hacer equivalentes los grupos. El
emparejamiento no la sustituye.
Este llega a suprimir o eliminar el posible efecto de la variable apareada, pero nunca nos asegura que
otras variables (las que no están apareadas) no vayan a afectar los resultados del experimento.
En cambio, la asignación aleatoria garantiza que otras variables, además de las de interés para el
investigador no afecten las dependientes ni confundan al experimentador.

Clasificación de los diseños experimentales


Campbell y Stanley dividen los diseños experimentales en tres clases:
a) pre experimentos
b) experimentos “puros”
c) cuasi experimentos
Los preexperimentos son diseños de un solo grupo, cuyo grado de control es mínimo. Generalmente
es útil como un primer acercamiento al problema de investigación en la realidad.
Entre los preexperimentos tenemos:
1. Estudio de caso con una sola medición, que consiste en administrar un estímulo o tratamiento a
un grupo y después aplicar una medición de una o más variables para observar cuál es el nivel
del grupo en estas variables. No hay manipulación de la variable independiente. Tampoco hay
una referencia previa de cuál era el nivel que tenía el grupo en la(s) variable(s) independientes
antes del estímulo, ni existe grupo de comparación.
2. Diseño de preprueba-posprueba con un solo grupo, consiste en aplicar una prueba previa al
estímulo o tratamiento experimental, después se le administra el tratamiento y finalmente se le
aplica una prueba posterior al estímulo.
Este diseño ofrece una ventaja sobre el anterior, existe un punto de referencia inicial para ver qué nivel
tenía el grupo en la(s) variable(s) dependientes antes del estímulo.

Los diseños preexperimentales no son adecuados para el establecimiento de relaciones causales entre
la(s) variable(s) independientes y la(s) variable(s) dependientes, ya que se muestran vulnerables
en cuanto a la posibilidad de control y la validez interna.
En ciertas ocasiones estos diseños sirven como estudios exploratorios, pero sus resultados deben
observarse con precaución De ellos no es posible obtener conclusiones seguras. Abren el
camino, para que de ellos se deriven estudios más profundos.

Los experimentos “puros” Son aquellos que reúnen los dos requisitos para lograr el control y la validez
interna:
1. Grupos de comparación (manipulación de la(s) variable(s) independientes.
2. Equivalencia de los grupos.

Estos diseños llegan a incluir una o más variables independientes y una o más dependientes.
Asimismo pueden usar pre pruebas y pos pruebas para analizar la evolución de los grupos antes
y después del tratamiento experimental. Desde luego, no todos los diseños experimentales
“puros” utilizan pre prueba; aunque la pos prueba si es necesaria para determinar los efectos de
las condiciones experimentales.
Entre estos diseños se tienen:
 Diseño con pos prueba únicamente y un grupo de contro l. La manipulación de la variable
independiente alcanza solo dos niveles: presencia y ausencia. Los sujetos se asignan a los
grupos al azar y, cuando concluye la manipulación, a ambos grupos se le administra una
medición sobre la variable dependiente en estudio.
 Diseño con pre prueba-posprueba y grupo de control . Este diseño incorpora la administración de
prepruebas a los grupos que componen el experimento. Los sujetos se asignan al azar a los
grupos, después a estos se les aplica simultáneamente la pre prueba; un grupo recibe el
tratamiento experimental y otro no (grupo control); por último, se les administra también
simultáneamente, una pos prueba.
6

 Diseño de cuatro grupos de R. L. Solomon . Es una mezcla de los dos anteriores, la suma de
estos dos diseños origina cuatro grupos que son asignados al azar: dos de control y dos
experimentales, los primeros reciben el mismo tratamiento experimental y los segundos no. Solo
a uno de los grupos de control y a uno experimental se le administra la pre prueba y, a los cuatro
la pos prueba.

Diseños experimentales de series cronológicas múltiples. Se usan cuando la influencia de la variable


independiente sobre la dependiente tarda en manifestarse y se quieren analizar estos resultados en el
mediano y largo plazo.
Es un diseño que efectúa a través del tiempo varias observaciones o mediciones sobre una o más
variables. Estos diseños pueden tener dos o más grupos y los participantes son asignados al azar.

Diseños factoriales, manipulan dos o más variables independientes e incluyen dos o más niveles o
modalidades de presencia en cada una de las variables independientes. Se utilizan muy a menudo en la
investigación experimental.
La construcción básica de un diseño factorial consiste en que todos los niveles o modalidades de cada
variable independiente son tomados en combinación con todas las variables y modalidades de las otras
variables independientes.

¿Qué es la validez externa?


Además de la validez interna de un experimento, es deseable que este tenga validez externa
La validez externa, se refiere a qué tan generalizables son los resultados de un experimento a
situaciones no experimentales, así como a otros participantes o poblaciones. Responde a la
pregunta: ¿lo que encontré en el experimento, a qué tipos de personas, grupos, contextos y
situaciones se aplica?

Fuentes de invalidación externa.


Existen diversos factores. Los más comunes son:
 Efecto reactivo o de interacción de las pruebas.
 Efecto de interacción entre los errores de selección y el tratamiento experimental.
 Efectos reactivos de los tratamientos experimentales.
 Interferencia de tratamientos múltiples.
 Imposibilidad de replicar los tratamientos.
 Descripciones insuficientes del tratamiento experimental.
 Efectos de novedad e interrupción.
 El experimentador.
 Interacción entre la historia o el lugar y los efectos del tratamiento experimental.
 Mediciones de la variable dependiente.

¿Cuáles pueden ser los contextos de los experimentos?


En la investigación sobre el comportamiento se distinguen dos contextos para un diseño experimental:
experimentos de laboratorio y experimentos de campo.
Experimentos de laboratorio, estudio en el que el efecto de todas o casi todas las variables
independientes influyentes no concernientes al problema de investigación se mantiene reducido
lo más posible.
En los experimentos de campo la investigación se efectúa en una situación realista en la que una o
más variables independientes son manipuladas en condiciones tan cuidadosamente controladas
como lo permite la situación.

¿Qué alcances tienen los experimentos y cuál es el enfoque del que se derivan?
Debido a que analizan las relaciones entre una o más variables independientes y una o más
dependientes, así como los efectos causales de las primeras sobre las segundas, son estudios
explicativos (que obviamente determinan correlaciones). Son diseños cuantitativos y el
paradigma deductivo. Se basan en hipótesis preestablecidas, miden variables y su aplicación
7

debe sujetarse al diseño preconcebido; al desarrollarse, el investigador está centrado en la


validez, el rigor y el control de la situación de investigación. Asimismo, el análisis estadístico es
importante, su fin es estimar efectos causales.
Los cuasiexperimentos. También manipulan deliberadamente, al menos, una variable independiente
para observar su efecto y relación con una o más variables dependientes, solo que difieren de
los experimentos “puros” en el grado de seguridad o confiabilidad que pueda tenerse sobre la
equivalencia inicial de los grupos.
En estos diseños los sujetos no se asignan al azar a los grupos ni se emparejan, sino que dichos
grupos ya están formados antes del experimento: son grupos intactos (la razón por la que surgen
y la manera como se formaron es independiente o aparte del experimento).

Pasos de un experimento. Los pasos que suelen realizarse en el desarrollo de un experimento son:
1. Decidir cuántas variables independientes y dependientes deberán incluirse en el experimento.
Deben incluirse las variables que sean necesarias para probar las hipótesis, alcanzar los
objetivos y responder las preguntas de investigación.
2. Elegir los niveles o modalidades de manipulación de las variables independientes y traducirlos
en tratamientos experimentales. Este paso requiere que un concepto teórico se convierta en una
serie de operaciones que habrán de realizarse para administrar uno o varios tratamientos
experimentales.
1. Desarrollar el instrumento o instrumentos para medir la(s) variable(s) dependiente(s).
2. Seleccionar una muestra de personas para el experimento (idealmente representativa de la
población).
3. Reclutar a los sujetos participantes del experimento. Esto implica tener contacto con ellos, darle
las explicaciones necesarias, obtener su consentimiento por escrito e indicarles lugar, día, hora y
persona con quien deben presentarse. Siempre es conveniente darles el máximo de facilidades
para que acudan al experimento: transporte en caso necesario, proporcionarles un mapa con las
indicaciones precisas, etc.
Los sujetos deben encontrar motivante su participación en el experimento. A veces resulta
adecuado que quienes tratan con los sujetos participantes sean personas que les resulten
atractivas
4. Seleccionar el diseño experimental o cuasi experimental apropiado para nuestra hipótesis,
objetivos y preguntas de investigación.
5. Planear cómo vamos a manejar a los sujetos que participen en el experimento. Es decir, elaborar
una ruta crítica de qué van a hacer las personas desde que llegan al lugar del experimento hasta
que se retiran (paso a paso).
6. En el caso de experimentos “puros”, dividirlos al azar o emparejarlos; y en el caso de
cuasiexperimentos, analizar cuidadosamente las propiedades de los grupos intactos.
7. Aplicar las pre pruebas (cuando las haya), los tratamientos respectivos (cuando no se trate de
grupos de control) y las pos pruebas.

Diseños no experimentales.
Son los que se realizan sin manipular deliberadamente variables, es decir donde no hacemos variar en
forma intencional las variables independientes para ver su efecto sobre otras variables.
Lo que se hace en la investigación no experimental es observar fenómenos tal como se dan en su
contexto natural, para después analizarlos. En estos estudios no se construye ninguna situación,
sino que se observan situaciones ya existentes, no provocadas intencionalmente en la
investigación por quien la realiza.

¿Cuáles son los tipos de diseño no experimentales?


Los tipos de diseño no experimentales, son clasificados por su dimensión temporal o el número de
momentos o puntos en el tiempo, en los cuales se recolectan datos en diseños transeccionales
y longitudinales.
8

La investigación transeccional o transversal recolecta datos en un solo momento, en un tiempo


único. Su propósito es describir variables y analizar su incidencia e interrelación en un momento
dado. Es como tomar una fotografía de algo que sucede. Por ejemplo:
 Investigar el número de empleados, desempleados y subempleados en una ciudad en cierto
momento.
 Determinar el nivel de escolaridad de los trabajadores de un sindicato en un punto en el tiempo.
 Medir las percepciones y actitudes de mujeres jóvenes que fueron abusadas recientemente.
 Evaluar el estado de los edificios de un barrio o de una colonia, después de un terremoto.
 Determinar el estado de salud física y emocional de un grupo de personas que ingresaron a los
hospitales como consecuencia de un acto terrorista.
 Analizar si hay diferencias en el contenido sexual entre las telenovelas que se están exhibiendo
simultáneamente.

A su vez, los diseños transeccionales se dividen en tres: exploratorios, descriptivos y


correlacionales-causales
El propósito de los diseños transeccionales exploratorios es comenzar a conocer una variable o un
conjunto de variables, una comunidad, un contexto, un evento, una situación. Se trata de una
exploración inicial en un momento específico. Por lo general se aplica a problemas de
investigación nuevos o poco conocidos; además constituyen el preámbulo de otros diseños
(experimentales y no experimentales).
Los diseños transeccionales descriptivos tienen como objetivo indagar la incidencia de las modalidades
de una o más variables de la población: grupo de personas u otros seres vivos, objetos,
situaciones, contextos, fenómenos, comunidades; y así proporcionar su descripción.
Los transeccionalescorrelacionales-causales describen relaciones entre dos o más categorías,
conceptos o variables en un momento determinado. A veces, únicamente en términos
correlacionales, otras en función de relación causa-efecto (causales).
Los diseños correlacionales-causales pueden limitarse a establecer relaciones entre variables sin
precisar sentido de causalidad o pretender analizar relaciones causales. Cuando se limitan a
relaciones no causales, se fundamentan en planteamientos e hipótesis correlacionales; del
mismo modo, cuando buscan evaluar relaciones causales, se basan en planteamientos e
hipótesis causales.
Estos diseños en ocasiones describen relaciones en uno o más grupos o subgrupos, y suelen describir
primero las variables incluidas en la investigación, para luego establecer relaciones entre estas
(en primer lugar, son descriptivos de variables individuales, pero luego van más allá de las
descripciones, estableciendo relaciones).
Las encuestas de opinión (surveys) son consideradas por diversos autores como un diseño que se
encuadra en el tipo no experimental transversal o transeccional descriptiva o correlacional-
causal, ya que tienen los propósitos de unos u otros diseños y a veces de ambos. Generalmente
utilizan cuestionarios que se aplican en diferentes contextos.

La investigación longitudinal o evolutiva recolecta datos a través del tiempo en puntos o periodos,
para hacer inferencias respecto al cambio, sus causas y sus consecuencias. Tales puntos o
periodos por lo común se especifican de antemano.
Los diseños longitudinales suelen dividirse en tres tipos:
 diseños de tendencia (trend),
 diseños de análisis evolutivo de grupo (cohort) y
 diseños panel.

Los diseños longitudinales de tendencia son aquellos que analizan cambios a través del tiempo (en
categorías, conceptos, variables o sus relaciones), dentro de alguna población en general.
Su característica distintiva es que la atención se centra en una población. Se puede observar o medir a
toda la población, o bien, tomar una muestra de ella, cada vez que se observen o se midan las
variables o sus relaciones entre estas, en varios puntos en el tiempo y se examina su evolución
9

a lo largo de ese periodo. Es importante señalar que los sujetos del estudio no son los mismos
(son las muestras diferentes), pero la población es la misma.

Los diseños longitudinales de evolución de grupo o cohortes examinan cambios a través del tiempo en
sub poblaciones o grupos específicos. Su atención son los cohorts o grupos de individuos
vinculados de alguna manera o identificados por una característica común, generalmente la edad
o la época.
Podemos por lo tanto resumir que este tipo de diseño toma diversas muestras en el tiempo, a la misma
sub población, que está vinculada por algún criterio o característica.

Los diseños longitudinales panel, son similares a las otras dos clases de diseño, solo que el mismo
grupo de participantes es medido u observado en todos los tiempos o momentos.
En los diseños panel se tiene la ventaja de que, además de conocer los cambios grupales, se conocen
los cambios individuales. Se sabe qué cambios específicos introducen el cambio. La desventaja
es que a veces resulta muy difícil obtener con exactitud a los mismos sujetos para las
posteriores mediciones u observaciones subsecuentes.

Comparación de los diseños transeccionales y longitudinales. Los estudios longitudinales tienen


la ventaja de que proporcionan información sobre cómo las categorías, los conceptos, las
variables, las comunidades, los fenómenos y sus relaciones evolucionan a través del tiempo.
Sin embargo, suelen ser más costosos que los transeccionales.
La elección de un tipo de diseño u otro, depende más bien de los propósitos de la investigación y de su
alcance. Asimismo, es factible combinar temporalmente las dos perspectivas.

Los estudios de caso


Los estudios de caso son considerados por algunos autores como una clase de diferente de diseños, a
la par de los experimentales, no experimentales y cualitativos (Mertens, 2005 y Williams, Grinnell
y Unrau, 2005) mientras que otros los ubican como una clase de diseño experimental (León y
Montero, 2003), o un diseño etnográfico (Creswell, 2005). También han sido concebidos como un
asunto de muestreo (Hernández, Fernández y Baptista, 2003) o un método (Yin, 2003).
La realidad es que los estudios de caso son todo lo anterior. Poseen sus propios procedimientos y
clases de diseños. Los podríamos definir como “estudios que al utilizar los procesos de
investigación cuantitativa, cualitativa o mixta; analizan profundamente una unidad para
responder al planteamiento del problema, probar hipótesis y desarrollar alguna teoría”
En los estudios de caso la unidad o caso investigado puede tratarse un individuo, una pareja, una
familia, un objeto, un sistema, una organización, un hecho histórico, un municipio, un
departamento, un país, etc.

TÉCNICAS DE LA INVESTIGACIÓN

Tema 2.- SELECCIÓN DE LA MUESTRA CUANTITATIVA.

Muestreo cuantitativo. No siempre en una investigación cuantitativa se tiene una muestra. A veces
es necesario realizar estos estudios a todos los sujetos o casos (personas, animales, plantas,
objetos, etc.) del universo o población, tal como ocurre en un censo, u otro tipo de investigación
donde la población no es grande o, a veces cuando no es conveniente marginar del estudio a
partes de los elementos que comprende el estudio.

Unidades de análisis. Para seleccionar una muestra lo primero que se hace es definir la unidad de
análisis, llamados también “casos o elementos” que no son otra cosa que: las personas,
organizaciones, periódicos, comunidades, situaciones, eventos, etc.; sobre qué o quiénes se van
a recolectar datos y, que depende del planteamiento del problema a investigar y de los alcances
del estudio.
10

Universo, población y muestra. El término “universo” suele tomarse en los estudios de investigación
como igual a población, aunque este puede en algunos casos ser distinto, ya que su extensión
es mayor. “Población”, es el conjunto de todos los casos que concuerdan con una serie de
especificaciones o características, es de los “que o quienes” debemos obtener o recolectar datos
para nuestro trabajo de investigación.

Los “que o quienes” de los cuales debemos recolectar los datos son las “unidades de análisis”.

“Muestra” Es un subgrupo de la población del cual se recolectan los datos, y que tiene que
definirse o delimitarse de antemano con precisión, y que además debe ser representativo de
dicha población. El investigador pretende que los resultados encontrados en la muestra logren
generalizarse a la población.

¿Quiénes son los “que o quienes” debemos considerar para la obtención de los datos? Son las
llamadas unidades de análisis, que se les denomina también casos o elementos, y son los sujetos,
objetos, sucesos o comunidades de estudio, situaciones o eventos, los cuales para su elección depende
del planteamiento del problema de investigación y los alcances del estudio.

Tipos de muestras. Dependiendo del tipo de investigación, de los objetivos del estudio, del esquema
de investigación y de la contribución que se piensa hacer con ella, las muestras pueden ser:
probabilísticas y no probabilísticas.

Muestras probabilísticas son aquellas en las que todos los elementos de la población tienen la
misma posibilidad de ser escogidos y se obtienen definiendo las características de la población y
el tamaño de la muestra, y por medio de una selección aleatoria o mecánica de las unidades de
análisis. Es más ventajosa que la no probabilística, ya que puede medirse el error en nuestras
predicciones.

Muestras no probabilísticas son aquellas en la que la elección de los elementos no depende


de la probabilidad, sino de causas relacionadas con las características de la investigación o de
quien hace la muestra. Aquí el procedimiento no es mecánico ni probabilístico, sino que depende
del proceso de toma de decisiones de una o grupo de personas, y las muestras seleccionadas
obedecen a otros criterios de investigación.

Selección de la muestra probabilística. Al seleccionar la muestra debemos evitar tres errores que
pueden presentarse:

1) no elegir a casos que deberían ser parte de la muestra (participantes que deberían estar y no
fueron seleccionados),

2) incluir a casos que no deberían estar porque no forman parte de la población y

3) seleccionar casos que son verdaderamente inelegibles.

Para hacer una muestra probabilística es necesario entender los siguientes términos y sus definiciones:

La población, a la que se le suele denominar como N, es un conjunto de elementos. En una


población, nos interesa conocer valores promedio de las características de los elementos de la
población, así: Podemos expresar como

Y = al valor promedio de una variable determinada (Y) que nos interesa conocer.
11

También nos interesa conocer:

V = la varianza de la población con respecto a determinadas variables.

Como los valores de la población no se conocen, seleccionamos una muestra.

La muestra, a la que se simboliza n, es un subconjunto de la población N. A través de


estimados en la muestra inferimos valores de la población. Por lo tanto y = un estimado
promedio que podemos determinar en la muestra. Sabemos que en nuestra estimación habrá
una diferencia (¿Y- y =?), es decir un error, el cual dependerá del número de elementos
muestreados. A este error se le conoce como error estándar (se).

se = la desviación estándar de la distribución muestral y representa la fluctuación de y.

(se)2 = varianza de la población V2

s2 = varianza de la muestra, la cual podrá determinarse en términos de probabilidad donde: s2 =


p (1- p).

p = porcentaje estimado de la muestra, probabilidad de ocurrencia del fenómeno, la cual se


estima sobre marcos de muestreo previos o se define, la certeza total siempre es igual a 1 (uno),
las posibilidades a partir de esto son: “p” de que sí ocurra y “q” de que no ocurra (p + q = 1). De
aquí se deriva 1 – p.

Para una muestra probabilística se necesitan principalmente dos cosas:

1) Determinar el tamaño de la muestra (n) y,

2) Seleccionar los elementos muestrales, de manera que todos tengan la misma posibilidad de
ser elegidos.

El tamaño de la muestra. En base a los términos y definiciones señalados anteriormente, el tamaño


de la muestra se determina en dos pasos:

1. Tamaño provisional de la muestra (n’) = varianza de la muestra / varianza de la población


n’ = s2 / V2

Nótese que hasta acá solo se toma en cuenta el error estándar (se) que nos fijaremos en
nuestro estudio estimado en la varianza de la población; y, la probabilidad de ocurrencia
o porcentaje estimado de la muestra (p) estimado en la varianza de la muestra.

2. Tamaño de la muestra, en el cual se toma en cuenta el tamaño provisional de la muestra


y además el tamaño de la población (N), y está dado por la siguiente fórmula:
n = n’ / (1 + n’/N).

Si analizamos esta última fórmula vemos que, para el caso de poblaciones grandes, el cociente n’/N
tiende a cero, y por lo tanto el tamaño de la muestra se aproxima al tamaño provisional de la misma.
Para poblaciones pequeñas, es decir igual o menor al tamaño provisional de la muestra, el tamaño de la
misma se reduce a la mitad del tamaño provisional (cuando n’ = N), y disminuye más aún a medida que
N disminuye.

Ejemplo 1.- Tomando las consideraciones señaladas sobre la población en torno a sus características
de contenido, de lugar y en el tiempo, Baptista (1983) en un estudio sobre los directivos de empresa en
12

México y con base en las consideraciones teóricas del estudio que describe el comportamiento
gerencial de los individuos y la relación este con otras variables de tipo organizacional, procedió a
definir la población de la siguiente manera.

Nuestra población comprende a todos aquellos directores generales de las empresas industriales y
comerciales que en 1983 tienen un capital social superior a 30 millones de pesos, con ventas
superiores a los 100 millones de pesos y/o con más de 300 empleados.

Con estas características se precisó que la población era de N = 1176 directores generales, ya que
1176 empresas reunían las mencionadas características. ¿Cuál es entonces el número de directores
generales (n) que se deben entrevistar, para tener un error estándar de 0.015 (¿1,5%), si la probabilidad
de ocurrencia se estima en 0?9 (90%)

N = 1176 (tamaño de la población) y = 1 (valor promedio de una variable: 1director por empresa)

se = 0.015 (error estándar, determinado por nosotros)

V2= (0.015)2 = 0.000225 (varianza de la población, igual al cuadrado del se)

p = 0.9 (porcentaje estimado de la muestra o probabilidad de ocurrencia)

s2 = p (1 – p) = 0.9 (1 – 0.9) = 0.09 (varianza de la muestra).

n’ = tamaño provisional de la muestra

n = tamaño de la muestra.

Reemplazando valores en las fórmulas para los tamaños de la muestra n’ y n, se tiene:

n’ = s2 / V2 = p (1 – p) / (0,015)2 = 0.9 (1 – 0.9) / 0.000225 = 0.09 / 0.000225 = 400

n = n’ / (1 + n’/N) = 400 / (1 + 400/1176) = 298,5

n = 298 directores generales

Una vez obtenido el tamaño de la muestra que en este caso es el número de empresas de las cuales
extraeremos 1 director por empresa, el siguiente paso es cómo seleccionar a esos 298 sujetos de las
1176 empresas que es el tamaño de nuestra población sujeta al estudio de investigación. Para esto el
procedimiento puede ser computarizado o manual (tal como veremos más adelante), y se debe tomar
del total para que en forma aleatoria puedan seleccionarse estos elementos de la muestra salvo que por
las características o rubros específicos de las empresas industriales y comerciales y por el interés
propio del estudio se tengan que extraer estas proporcionalmente al número de empresas de cada
rubro, y estaríamos ante un muestreo estratificado.

Muestra probabilística estratificada

Es un subgrupo en el que la población se divide en segmentos y se selecciona una muestra para cada
segmento, ya que a veces es preciso comparar resultados entre segmentos, grupos o nichos de la
población, porque así lo señala el planteamiento del problema. La estratificación aumenta la precisión
de la muestra e implica el uso deliberado de diferentes tamaños de muestra para cada estrato, a fin de
lograr reducir la varianza de cada unidad de la media muestral.
13

Para determinar el tamaño de la muestra para cada estrato, sencillamente se obtiene el coeficiente de
proporcionalidad (o coeficiente de reparto) que resulta al dividir el tamaño de la muestra entre el tamaño
de la población, y este se lo multiplica por cada estrato de la población, para así obtener los diferentes
estratos de las muestras.

k = coeficiente de proporcionalidad = n / N

Para el caso del ejemplo anterior, las 1176 empresas industriales y comerciales pertenecían a 10
rubros, distribuidas de la siguiente forma, que se muestran a continuación con el cálculo del tamaño de
la muestra de cada estrato:

Estrato Directores generales Población Coeficiente de Cálculo del tamaño de


por rubro de empresas por rubro por rubro reparto k = n/N la muestra por rubro

1 Extractivo y siderúrgico 53 298/1176 = 0,2534 53 x 0,2534 = 13

2 Metal mecánicas 109 Idem 109 x 0,2534 = 28

3 Alimen. bebidas y tabaco 215 Idem 215 x 0,2534 = 55

4 Papel y artes gráficas 87 Idem 87 x 0,2534 = 22

5 Textiles 98 Idem 98 x 0,2534 = 25

6 Eléctricas y electrónicas 110 Idem 110 x 0,2534 = 28

7 Automotriz 81 Idem 81 x 0,2535 = 20

8 Químico farmacéutica 221 Idem 221 x 0,2534 = 56

9 Otras empr. de transform. 151 Idem 151 x 0,2534 = 38

10 Comerciales 51 Idem 51 x 0,2534 = 13

N = 1176 n = 298

Ejercicio 2.- (Para resolver por los estudiantes)

Se realizará un estudio de investigación entre los estudiantes de nuestra Facultad, de la UAGRM de


esta ciudad, sobre ………………...(escoger el tema). Determinar el tamaño de la muestra estratificada
por facultades, si el error estándar no debe pasar del 3%, y si la probabilidad de ocurrencia es del 80%

Muestreo probabilístico por racimos.

Cuando se quiere ahorrar recursos financieros en la investigación por tiempo, distancias geográficas o
una combinación de éstos y otros obstáculos, se recurre al muestreo por racimos o clúster. En este
muestreo se considera que las unidades de análisis se encuentran encapsuladas en determinados
lugares físicos o geográficos a los que se denomina racimos, y de donde nos es más fácil llegar para
obtener la información que nos servirá para nuestro estudio.
14

Muestrear por racimos implica diferenciar entre la unidad de análisis y la unidad muestral. La unidad de
análisis indica quienes van a ser medidos, o sea, los participantes o casos a quienes en última instancia
vamos a aplicar el instrumento de medición. La unidad muestral (en este tipo de muestra) se refiere al
racimo por medio del cual se logra el acceso a la unidad de análisis. El muestreo por racimos supone
una selección en dos etapas, ambas con procedimientos probabilísticos. En la primera se seleccionan
los racimos siguiendo los pasos ya señalados de una muestra probabilística simple o estratificada. En la
segunda y dentro de estos racimos se selecciona a los sujetos u objetos que van a medirse.

Ejemplo 3.- Problema de investigación: Una estación de radio local necesita saber con precisión, cómo
utilizan la radio los adultos de una ciudad de 2,5 millones de habitantes. Es decir, qué tantos radios
escuchan, a qué horas, qué contenidos prefieren y sus opiniones con respecto a los programas
noticiosos.

Procedimientos: Se diseñará un cuestionario que indague estas áreas sobre el uso de la radio. Los
cuestionarios se aplicarán por entrevistadores a una muestra de sujetos adultos.

Población: Todos aquellos sujetos hombres o mujeres mayores de 21 años y que vivan en una casa o
un departamento propio o rentado de la ciudad.

Diseño por racimos: Los directivos de la radio desconocen el número total de personas con las
características señaladas. Sin embargo, nos piden que diseñemos una muestra que abarque a todos los
sujetos adultos de la ciudad y que además sean jefes de familia (se excluyen a los adultos
dependientes).

Estrategia empleada: Se considera el uso de un mapa actualizado de la ciudad, en la cual indica que
hay 5000 manzanas. Las manzanas se utilizarán como racimos o unidades muestrales, a partir de las
cuales obtendremos en última instancia a nuestros sujetos adultos.

Lo primero entonces es determinar: ¿cuántas manzanas necesitaremos muestrear del total de esas
5000, si queremos que nuestro error estándar no sea mayor de 0.015 y con una probabilidad de
ocurrencia del 50%?

Calculamos n para una muestra probabilística simple.

n’ = s2 / V2 = p (1 – p) / (0,015)2 = 0.5 (1 – 0.5) / 0.000225 = 0.25 / 0.000225 = 1111.11

n = n’ / (1 + n’/N) = 1111.11 / (1 + 1111,11/5000) = 909

n = 909 manzanas

Se sabe que la población N = 5000 manzanas, por estudios previos está dividida en 4 estratos
socioeconómicos, que categorizan esa población según el ingreso mensual promedio de sus habitantes,
de la siguiente manera:

Estrato Número de manzanas


1 270
2 1940
3 2000
4 790
Total 5000

Por lo tanto, del total de la muestra, que son 909 manzanas, le corresponde a cada estrato lo
siguiente:
15

1 270 x 909/5000 = 49
2 1940 x 909/5000 = 353
3 2000 x 909/5000 = 364
4 790 x 909/5000 = 143
Total = 909

Esta selección comprende la selección de los racimos, los cuales se pueden numerar y elegir
aleatoriamente hasta completar el número de cada estrato. En una última etapa, se seleccionan los
participantes dentro de cada racimo. Este procedimiento también se hace de manera aleatoria, hasta
lograr un número de personas (unidades de análisis) determinados de cada racimo. Así por ejemplo,
para este estudio se determinó que por cada manzana participen 20 personas, con lo que el número de
personas por estrato, alcanza a 18180, distribuidos en los cuatro estratos de la siguiente manera:

Estrato Número de Número de Número de Número de


Manzanas muestras por unidades muestrales unidades muestrales
manzana por manzana por estrato

1 270 49 20 980
2 1940 353 20 7060
3 2000 364 20 7280
4 790 143 20 2860
N = 5000 n = 909 Total = 18180

Selección de la muestra. - Ya se dijo anteriormente que para las muestras probabilísticas se necesitan
dos cosas, de la primera, que es el tamaño de la muestra ya se calculó (simple, estratificada y por
racimos). El segundo paso es determinar cuáles elementos muestrales de los ya calculados van a ser
escogidos aleatoriamente para esto podemos proceder de la siguiente manera:

Tómbola. - Muy simple pero no muy rápida, consiste en numerar todos los elementos muestrales del
“uno” al número “n”. Hacer fichas o papeles, uno por cada elemento, revolverlos en una caja, e ir
sacando n número de fichas, según el tamaño de la muestra. Los números que salieron al azar son los
que conforman la muestra.

Ejemplo. - Del ejemplo 1 (el de las empresas mejicanas), tomando el muestreo estratificado y, si
consideramos el primer rubro 1 de empresas extractivo y siderúrgico, el que tiene una población N=
53, del que deben seleccionase aleatoriamente la muestra n = 13 directivos generales, se procede de la
siguiente manera:

En una lista se enumeran cada una de las 53 empresas. Elaboramos 53 fichas o bolillos, los cuales
colocamos en recipiente, del cual sacamos los 13 necesarios y que corresponden a los 13 elementos
muestrales de este estrato, los cuales anotamos en nuestra lista previamente elaborada. Similar
situación se hace con los demás estratos.

Números random o números aleatorios. - El uso de números random no significa la selección


azarosa o fortuita, sino la utilización de una tabla de números que aplica un mecanismo de probabilidad
muy bien diseñado. Los números random de la Corporación Rand, cuentan con una tabla de más de un
millón de dígitos, partes de estas tablas se pueden ver en muchos apéndices de libros de estadística.
La selección se la realiza directamente en el ordenador, una vez que se han generado los números
aleatorios utilizando el programa Stats (ver CD), o bien usando tablas de estos números aleatorios.
16

El procedimiento manual consiste en tomar cuantos dígitos sean necesarios para los elementos
muestrales que requerimos. Así por ejemplo si se requieren de 270 manzanas tomar 49 de ellas,
tomamos los 3 últimos dígitos, y escogemos aquellos que no excedan de los 270, de los cuales se
toman los 49 necesarios. Se puede comenzar en cualquier lugar de la tabla y la búsqueda o rastreo de
estos 49 se la puede realizar de abajo hacia arriba, de derecha a izquierda o en ambos casos en
sentidos contrarios.

Selección sistemática de elementos muestrales. - Este procedimiento de selección es muy útil e


implica elegir dentro de una población N un número n de elementos a partir de un intervalo K. Este
último (K) es un intervalo de selección sistemática que se va a determinar por el tamaño de la población
y el tamaño de la muestra: K = N/n. Así por ejemplo para seleccionar los n = elementos de la población
N = 270; K = 270/49 = 5.5 El intervalo a utilizar puede ser 5 o 6 (si es 5 no completará un giro completo
de los elementos de la población N; y, si es 6 dará más de la vuelta), el elegir uno u otro es criterio del
investigador. Lo que sí es importante, es elegir al primer elemento que esto se hace al azar por
cualquier método conocido (dados, bolillos, etc.) y a partir de este primer elemento de la muestra
saldrán los demás saltando cada 5 o cada 6 hasta completar los 49 necesarios.

Listados y otros marcos muestrales. - Es un marco de referencia que nos permite identificar
físicamente los elementos de la población, así como la posibilidad de enumerarlos y seleccionar los
elementos muestrales (los casos de la muestra). Normalmente se trata de un listado existente o una
lista que es necesario confeccionar, con los casos de la población.

Los listados existentes sobre una población son variados: guías telefónicas, listas de miembros de las
asociaciones, directorios especializados, listas oficiales de escuelas de la zona, base de datos de los
alumnos de una universidad, o de los clientes de una empresa, registros médicos, catastros, nóminas
de una organización, etc. En todo caso hay que tomar en cuenta lo completo de la lista, su exactitud, su
veracidad, su calidad, y su nivel de cobertura en relación con el problema a investigar y la población que
va a medirse, ya que todos estos aspectos influyen en la selección de la muestra.

No siempre existen listas que permitan identificar a nuestra población. Entonces será necesario recurrir
a otros marcos de referencia que contengas descripciones del material, las organizaciones o los casos
que serán seleccionados como unidades de análisis. Ejemplos de cada uno de estos marcos de
referencia son los archivos, los mapas y los volúmenes de periódicos empastados en una biblioteca.

¿Cómo y cuáles son las muestras no probabilísticas? - Son también llamadas muestras dirigidas,
suponen un procedimiento de selección informal. Se utilizan en muchas investigaciones cuantitativas y
cualitativas.

La “muestra dirigida” selecciona sujetos “típicos” con la vaga esperanza que sean casos representativos
de una población determinada. Por ello, para fines deductivos-cuantitativos, donde la generalización o
extrapolación de resultados hacia la población es una finalidad en sí misma, las muestras dirigidas en
este sentido implican muchas desventajas. La primera es que, al no ser probabilística, no es posible
calcular con precisión el error estándar, es decir, no podemos calcular con qué nivel de confianza
hacemos una estimación. Esto es un grave inconveniente si consideramos que la estadística inferencial
se basa en la teoría de la probabilidad, por lo que las pruebas estadísticas en muestras dirigidas tienen
un valor limitado a la muestra en sí, más no a la población y su resultado no puede generalizarse. La
única ventaja de una muestra no probabilística (dese la visión cuantitativa) es su utilidad para
determinado diseño de estudio que requiere no tanto una representatividad de elementos de una
población, sino una cuidadosa y controlada elección de sujetos con ciertas características especificadas
previamente en el planteamiento del problema.
17

Muestra multietapas o polimetálica. - Significa que para obtener la muestra se utilizan diversas
etapas o procedimientos. Por ejemplo, en un estudio sobre preferencias electorales a nivel nacional,
primero se eligen las ciudades, luego de cada ciudad se eligen los barrios, posteriormente de cada
barrio las calles, luego las viviendas para llegar finalmente a las personas. En cada una de estas etapas
el procedimiento es aleatorio. Desde luego que la elección de ciudades, y barrios de esta también está
marcada por el criterio de los investigadores y en base a estudios anteriores y la experiencia de estos
equipos de investigadores.

TÉCNICAS DE LA INVESTIGACIÓN

TEMA 3: RECOLECCIÓN DE DATOS CUANTITATIVOS

Introducción.
Recolectar los datos cuantitativos implica obtener la información pertinente sobre los atributos,
conceptos, cualidades o variables de los participantes, casos, sucesos, comunidades, u objetos
involucrados en la investigación.
Comprende, además elaborar un plan detallado de procedimientos que nos conduzcan a reunir
datos con el propósito señalado en la investigación, y que debe determinar:
¿Cuáles son las fuentes de donde vamos a obtener los datos? Es decir, los datos van a ser
proporcionados por personas, se producirán de observaciones, o se encuentran en documentos,
archivos, base de datos, etc.
¿En dónde se localizan tales fuentes? Regularmente en la muestra seleccionada, pero es
indispensable definir con precisión.
¿A través de qué medio o método vamos a recolectar los datos? Esta fase implica elegir uno o varios
medios y definir los procedimientos que utilizaremos en la recolección de los datos
Una vez recolectados, ¿de qué forma vamos a prepararlos para que puedan analizarse y responder al
planteamiento del problema?

Medición.
De acuerdo a la definición clásica, medir significa “asignar números, símbolos o valores a las
propiedades de objetos o eventos de acuerdo con reglas”. Para el caso de la investigación
científica, se define la medición como “el proceso de vincular conceptos abstractos con
indicadores empíricos” el cual se realiza mediante un plan explícito y organizado para clasificar
(y con frecuencia cuantificar) los datos disponibles (los indicadores), en términos del concepto
que el investigador tiene en mente.

Requisitos que debe cumplir un instrumento de medición.


Debe cumplir tres requisitos esenciales que son: confiabilidad, validez y objetividad. 

La confiabilidad de un instrumento de medición se refiere al grado en que su aplicación repetida al


mismo sujeto u objeto produce resultados iguales. Es decir que el instrumento deba producir
resultados consistentes y coherentes.

La validez, en términos generales, se refiere al grado en que un instrumento en verdad mide la variable
que pretende medir. Así por ejemplo un instrumento tiene validez, si al medir la inteligencia, mide
realmente la inteligencia y no la memoria.

Validez de contenido, de criterio y de constructos. -


La validez de contenido se refiere al grado en que un instrumento refleja un dominio específico
de contenido de lo que se mide. Es el grado en el que la medición representa al concepto o
variable medida. Por ejemplo, una prueba de operaciones aritméticas no tendrá validez de
contenido si incluye solamente problemas de resta y excluye problemas de las otras operaciones
aritméticas.
18

La validez de criterio establece la validez de un instrumento de medición al compararlo con algún


criterio externo que pretende medir lo mismo. La pregunta que responde con la validez de criterio
es: ¿en qué grado el instrumento comparado con otros criterios externos mide lo mismo?, o
¿Qué tan cercanamente las puntuaciones del instrumento se relacionan con otro(s) resultado(s)
sobre el mismo concepto?
La validez de constructo, se refiere a qué tan exitosamente un instrumento representa y mide un
concepto teórico. A esta validez le concierne en particular el significado del instrumento, esto
es, qué está midiendo y cómo opera para medirlo. Integra la evidencia que soporta la
interpretación del sentido que poseen las puntuaciones del instrumento. Es un atributo que no
existe aislado sino en relación con otros.
Parte del grado en que las mediciones del concepto proporcionadas por el instrumento se
relacionan de manera consistente con otras mediciones de otros conceptos, de acuerdo con
modelos e hipótesis derivadas teóricamente (que conciernen a los conceptos que se están
midiendo). A tales conceptos se les denomina constructos. Un constructo es una variable medida
y que tiene lugar dentro de una hipótesis, teoría o esquema teórico.
La validez de constructo incluye tres etapas:
› Se establece y especifica la relación teórica entre los conceptos (sobre la base del
marco teórico)
› Se correlacionan los conceptos y se analiza cuidadosamente la correlación.
› Se interpreta la evidencia empírica de acuerdo con el nivel en que se clarifica la validez
de constructo de una medición particular.
Su importancia radica en que sin él no hay observaciones clasificadas. Un instrumento de
medición adecuado es aquel que registra datos observables que representan verdaderamente
los conceptos o las variables que el investigador tiene en mente. En términos
cuantitativos: capturo verdaderamente la realidad que deseo capturar.

Relación entre la confiabilidad y la validez. La confiabilidad y la validez no se asumen, se prueban. Un


instrumento de medición puede ser preciso, pero no necesariamente válido (un aparato, por
ejemplo, quizás sea consistente en los resultados que produce, pero no mida lo que pretenda).
Si relacionamos con exactitud y precisión, diremos que la confiabilidad es sinónimo de precisión
y la validez, sinónimo de exactitud. Las gráficas de tiro al blanco (con las tres alternativas)
visualizan mejor estos conceptos (ver el libro de H. Sampieri fig. 9-5 pág. 285).

Factores que afectan a la confiablidad y validez.


Hay diversos factores, entre los más comunes se tiene:
› La improvisación.
› La utilización de instrumentos desarrollados en el extranjero que no han sido validados
para nuestro contexto: cultura y tiempo.
› Que el instrumento resulte inadecuado para las personas a quienes se les aplica.
› Diversas cuestiones vinculadas con los estilos personales de los sujetos participantes.
› Las condiciones en la que se aplica el instrumento de medición.
› La falta de estandarización.
› Aspectos mecánicos.
› Con respecto a la validez de constructo dos factores pueden afectarla negativamente:
 La estrechez del contenido, es decir, que se excluyan dimensiones importantes de
la variable o las variables medidas.
 La amplitud exagerada, donde el riesgo es que el instrumento contenga excesiva
intrusión de otros constructos.

Cálculo de la confiablidad y la validez

Existen diversos procedimientos para calcular la confiabilidad de un instrumento de medición.


Todos utilizan fórmulas que producen coeficientes de confiabilidad, la mayoría de los cuales
pueden oscilar entre cero y uno: 0 (cero) = confiabilidad nula y 1 (uno)= confiabilidad total
19

a) Confiabilidad inicial
b) Validez inicial
c) Entrevistas a los participantes para evaluar
d) Ensayo.

Los procedimientos más utilizados para determinar la confiabilidad son:


 Medida de estabilidad (confiabilidad por test-re test).
 Método de formas alternativas o paralelas.
 Método de mitades partidas (split-halves).
 Medidas de consistencia interna.

Para calcular la validez, primero es necesario revisar cómo ha sido medida la variable por otros
investigadores. Y, con base en dicha revisión, elaborar un universo de ítems o reactivos posibles
para medir la variable y sus dimensiones (el universo debe ser lo más exhaustivo posible).
Después, se consulta a investigadores familiarizados con la variable para ver si el universo es
verdaderamente exhaustivo. Se seleccionan los ítems bajo una cuidadosa evaluación uno por
uno. Y si la variable está compuesta por diversas dimensiones o facetas, se extrae una muestra
probabilística de reactivos, ya sea al azar o estratificada (cada dimensión constituirá un estrato).
Se administran los ítems, se correlacionan las puntuaciones de estos entre sí (tienen que haber
correlaciones altas, en especial entre ítems que miden una misma dimensión).

Para calcular la validez de contenido son necesarios varios coeficientes. Este sería un
procedimiento ideal, pero, a veces no se calculan estos coeficientes, sino que se seleccionan los
ítems mediante un proceso que asegura la representatividad (pero no de manera estadística
sino conceptual).

La validez de criterio se estima al correlacionar la medición con el criterio externo (puntuaciones


de su instrumento frente a las puntuaciones en el criterio).

Este coeficiente se toma como coeficiente de validez, el que podría representarse de la siguiente
forma:

Medición Criterio

Instrumento para Persistencia en la tarea


medir la motivación (horas extra sin recompensa
intrínseca extrínseca)

La validez de constructo suele determinarse mediante procedimientos de análisis estadístico


multivariado (“análisis de factores”, “análisis discriminante”, “regresiones múltiples”, etc.).

La objetividad. Cualidad difícil de lograr, particularmente en el caso de las ciencias sociales, tales como
tópicos que tienen que ver con la conducta humana como son valores, atribuciones y emociones. La
objetividad se refiere al grado en que el instrumento es permeable a la influencia de los sesgos y
tendencias de los investigadores que lo administran, califican e interpretan.

Procedimiento para construir un instrumento de medición. El procedimiento general para construir un


instrumento de medición, a pesar de que las características de estos pueden diferir, en general siguen
ciertas fases o pasos, que corresponden a la parte del plan de recolección, y que responde a la
pregunta ¿a través de qué método vamos a recolectar los datos? Estos se agrupan en diez fases que
son:
20

1. Redefiniciones fundamentales sobre propósitos, definiciones operacionales y


participantes.
2. Revisión de la literatura enfocándose en los instrumentos utilizados para medir las
variables de interés.
3. Identificar el conjunto o dominio de conceptos o variables a medir. Identificar los
indicadores de cada variable.
4. Decisiones:
a) Tipo y formato
b) Utilizar uno existente, adaptarlo o construir uno nuevo
c) Contexto de administración.
5. Construcción del instrumento, en función de las decisiones tomadas (incluye la
generación de todos los ítems y categorías, así como la codificación y los niveles de
medición de los reactivos).
6. Prueba piloto:
a) Confiabilidad inicial
b) Validez inicial
c) Entrevistas a los participantes para evaluar
d) Ensayo.
7. Versión final:
a) Revisar el instrumento y hacer cambios
b) Construir la versión definitiva.
8. Entrenamiento del personal que va a administrarlo y calificarlo:
a) Capacitación b) Ensayos.
9. Obtener autorizaciones para aplicar el instrumento.
10. Administración del instrumento.

TÉCNICAS DE LA INVESTIGACIÓN

TEMA 4: INSTRUMENTOS DE MEDICIÓN O RECOLECCIÓN DE DATOS CUANTITATIVOS

Tipos de instrumentos.
En este enfoque de investigación se disponen de varios instrumentos, entre los que se pueden
señalar: los cuestionarios, escalas de actitudes (tipo Likert, diferencial semántico, escalograma
de Gutman), registros de contenido (análisis de contenido) y observación, además de otros como
las pruebas estandarizadas, datos secundarios, instrumentos mecánicos o electrónicos, e
instrumentos específicos de cada disciplina.

El cuestionario.
Un cuestionario es quizás el instrumento más utilizado. Consiste en un conjunto de preguntas
respecto a una o más variables a medir. El contenido de preguntas de un cuestionario es tan
variado como los aspectos que mide. Básicamente se consideran dos tipos de preguntas:
cerradas y abiertas.

Formato y tamaño de un cuestionario


Además de las preguntas y categorías de respuestas, un cuestionario está formado básicamente
por: portada, introducción, instrucciones insertas a lo largo del mismo y agradecimiento final.
La portada incluye la carátula, la cual debe ser atractiva gráficamente para favorecer las
respuestas. Debe incluir el nombre del cuestionario y el logotipo de la institución que lo
patrocina.
La introducción debe incluir:
› Propósito general del estudio.
21

› Motivaciones para el sujeto encuestado (importancia de su participación).


› Agradecimiento.
› Tiempo aproximado de respuesta (un promedio o rango). Lo suficientemente abierto para
no presionar al sujeto, pero tranquilizarlo.
› Espacio para que firme o indique su consentimiento (a veces se incluye al final o en
ocasiones es innecesario).
› Identificación de quien o quienes lo aplican.
› Explicar brevemente cómo se procesarán los cuestionarios y una cláusula de
confidencialidad de manejo de la información individual.
› Instrucciones iniciales claras y sencillas (como responder en general, con ejemplos si se
requiere).
Para el tamaño, no existe una regla al respecto, pero si es muy corto se pierde información y si
resulta largo llega a ser tedioso. En este último caso, las personas se negarían a responder o,
al menos, lo contestarían en forma incompleta
El tamaño depende del número de variables y dimensiones a medir, el interés de los participantes y la
manera como se administre. Una recomendación que ayuda a evitar un cuestionario más largo
de lo requerido es: no hacer preguntas innecesarias e injustificadas.

Tipos de preguntas.
Básicamente se consideran dos tipos de preguntas: cerradas y abiertas.
Las preguntas cerradas son aquellas que contienen categorías u opciones de respuesta previamente
delimitadas. Es decir, se presentan a los participantes las posibilidades de respuesta, quienes
deben acotarse a estas. Pueden ser de dos o más posibilidades de respuesta o incluir una o
varias opciones de respuesta.
Ejemplo:
Habla usted inglés: sí ( ) no ( ).
La misma pregunta podría tener más posibilidades de respuesta:
Nada………. Poco…..…. Regular…….... Bien……….. Perfectamente…….….
Como se puede ver, en las preguntas cerradas las categorías de respuesta son definidas a priori
por el investigador y se le muestran al sujeto encuestado, quien debe elegir la opción que
describa más adecuadamente su respuesta
Las preguntas abiertas no delimitan de antemano las alternativas de respuesta, por lo cual el número
de categorías de respuesta es muy elevado; en teoría es infinito, y puede variar de población en
población. Ejemplo. ¿Por qué asiste a psicoterapia?........................................................................
¿Qué opina de las políticas económicas del gobierno actual?..........................................................

Ventajas y desventajas de las preguntas abiertas y cerradas


Las preguntas cerradas tienen como ventajas.
› Son más fáciles de codificar y preparar para su análisis.
› Requieren menor esfuerzo por parte de los encuestados.
› Toma menos tiempo en su contestación.
› Reduce la ambigüedad de las respuestas.
› Favorece las comparaciones entre respuestas.
Entre las desventajas se tiene:
› Limitan las respuestas de la muestra.
› En ocasiones ninguna de las categorías describe con exactitud lo que las personas
tienen en mente.
› No siempre se captura lo que pasa por la cabeza de los sujetos.
› Su redacción exige mayor laboriosidad y un profundo conocimiento del planteamiento por
parte del investigador.
Las preguntas abiertas son ventajosas porque:
› Proporcionan una información más amplia
› Son útiles cuando no tenemos información sobre las posibles respuestas o cuando esta
es insuficiente.
22

› Cuando se desea profundizar una opinión o los motivos de un comportamiento.


Sus desventajas son:
› Son más difíciles de codificar, clasificar y preparar para el análisis.
› Presentan sesgos derivados de distintas fuentes. Por ejemplo, quienes enfrentan
dificultades para expresarse en forma oral y por escrito quizás no respondan con
precisión a lo que en realidad desean, o generan confusión en sus respuestas.
› La calidad de las respuestas puede verse afectadas por el nivel educativo, la capacidad
de manejo del leguaje y otros factores.
› Requieren de un mayor esfuerzo y más tiempo para las respuestas.

Características que debe tener una pregunta.


Ya sea que las preguntas sean abiertas o cerradas, pre codificadas o no, estas deben tener
ciertas características, entre ellas:
› Las preguntas tienen que ser claras precisas y comprensibles para los sujetos
encuestados. Deben evitarse términos confusos, ambiguos y de doble sentido.
› Es aconsejable que las preguntas sean lo más breve posible, porque las preguntas
largas suelen ser tediosas, toman más tiempo y pueden distraer al participante, aunque
en algunos casos, cuando se trata de asuntos complicados es mejor una pregunta más
larga, debido a que facilita el recuerdo, proporciona al sujeto más tiempo para pensar y
favorece una respuesta más articulada.
› Deben formularse con un vocabulario simple, directo y familiar para los participantes. El
lenguaje debe adaptarse al habla de la población a la que van dirigidas las preguntas.
› No pueden incomodar al sujeto encuestado, ni ser percibidas como amenazantes y
nunca este debe sentir que se le enjuicia.
› Las preguntas deben referirse preferentemente a un solo aspecto o una relación lógica.
› Las preguntas no habrán de inducir las respuestas. Se tienen que evitar preguntas
tendenciosas o que dan pie a elegir un tipo de respuesta (directivas).
› Las preguntas no pueden apoyarse ven instituciones, ideas respaldadas socialmente ni
evidencia comprobada. Es también una manera de inducir respuestas.
› Es aconsejable evitar preguntas que nieguen el asunto que se interroga.
› No deben hacerse preguntas racistas o sexistas, ni que ofendan a los participantes. Se
recomienda también sortear las preguntas con fuerte carga emocional o muy complejas.
› En las preguntas con varias categorías de respuestas, y donde el sujeto tenga que
escoger solo una, llega a ocurrir que el orden en que se presentan dichas opciones
afecta las respuestas de los participantes.

Entre otras consideraciones de importancia de las preguntas del cuestionario


señalaremos que:

1. Con relación al número de preguntas que puede medir una variable diremos que, en
algunos casos basta una para recolectar la información necesaria. Por ejemplo, para
medir el nivel de escolaridad de una muestra basta con preguntar
 ¿hasta qué año escolar cursó? o
 ¿cuál es su grado de instrucción?
En otras ocasiones se requiere elaborar varias preguntas para verificar la consistencia de
las respuestas.
Por ejemplo, el nivel de ingresos familiar se mide preguntando a los miembros de la
familia ¿aproximadamente cuál es su nivel de ingresos mensual? Y preguntando a la
“cabeza o jefe de familia” ¿cuántos focos eléctricos tiene aproximadamente en su casa?;
además de, preguntar sobre propiedades e inversiones, etc.
2. Referente a ¿qué son las preguntas obligatorias, y cuáles son estas? Son las preguntas
llamadas demográficas o de ubicación del sujeto encuestado: género, edad, nivel
23

socioeconómico, estado civil, escolaridad, colonia, zona o barrio donde vive, ocupación,
años de vivir en el lugar de residencia, etc.
En las empresas: puesto de trabajo, antigüedad, área funcional donde trabaja, planta u
oficinas donde se desempeña, etc. En cada investigación es necesario analizar cuáles
serán pertinentes y nos serán útiles.
3. En lo que respecta a ¿Cómo deben ser las primeras preguntas de un cuestionario? En
algunos casos es conveniente iniciar con preguntas neutrales o fáciles de contestar, para
que el sujeto participante se adentre en la situación. No se recomienda comenzar con
preguntas difíciles o muy directas. A veces los cuestionarios comienzan con preguntas
demográficas, pero en otras ocasiones es mucho mejor hacer este tipo de preguntas al
final del cuestionario, particularmente cuando los participantes pueden sentir que se
comprometen si responden al cuestionario.

Contextos de aplicación.
› Los cuestionarios se aplican de dos maneras fundamentales: auto administrado y por entrevista
(personal o telefónica).
› Auto administrado significa que el cuestionario se proporciona directamente a los participantes,
quienes lo contestan. No hay intermediarios y las respuestas las marcan ellos. Esta forma de
autoadministración puede tener distintos contextos: individual, grupal o por envío (correo
tradicional, mensajería, correo electrónico y página web).
› Por entrevista personal, implica que una persona calificada (entrevistador) aplica el cuestionario
a los sujetos participantes, el primero hace las preguntas a cada sujeto y anota las respuestas.
Su papel es crucial, ya que es una especie de filtro.
Y finalmente Por entrevista telefónica, la diferencia con el anterior tipo de entrevista es el medio
de comunicación, que en este caso es el teléfono: estas entrevistas son las más rápidas de
aplicar. Las habilidades del entrevistador son similares a las del tipo anterior, solo que esta vez
no tendrá que verse cara a cara con el entrevistado.

Escalas para medir actitudes.


Son los diversos valores o grados con los que podemos calificar nuestra actitud hacia ciertas
situaciones o vivencias que se nos presentan cotidianamente. Una actitud es una predisposición
aprendida para responder coherentemente de una manera favorable o desfavorable ante un
objeto, ser vivo, actividad, concepto, persona o sus símbolos, etc. Las más conocidas son: El
escalamiento Likert, el diferencial semántico y la escala de Guttman.

El escalamiento tipo Likert


Consiste en un conjunto de ítems presentados en forma de afirmaciones o juicios, ante los
cuales se pide la reacción de los participantes. Es decir, se presenta cada afirmación y se solicita
al sujeto que externe su reacción eligiendo uno de los cinco puntos o categorías de la escala. A
cada punto se le asigna un valor numérico.
Así el participante obtiene una puntuación respecto de la afirmación y al final su puntuación total,
sumando las puntuaciones obtenidas en relación con todas las afirmaciones. Las afirmaciones
califican al objeto de actitud que se está midiendo
El objeto de actitud puede ser cualquier “cosa física” (un vestido, un automóvil…), un individuo
(el presidente, un líder histórico, un candidato a una elección…), una actividad (comer, beber
café…), una profesión, un edificio, etc.

Ejemplo. Objeto de actitud medido: el voto; Afirmación: “Votar es una obligación de todo
ciudadano responsable”. En este caso, la afirmación incluye ocho palabras y expresa una
relación lógica (X – Y).
Las opciones de respuesta o puntos de la escala son cinco e indican cuánto se está de acuerdo
con la afirmación correspondiente. Debe recordarse que a cada una de ellas se le asigna un
valor numérico y solo puede marcarse una respuesta. Las opciones más comunes se muestran
como alternativas a continuación:
24

 Muy de acuerdo De acuerdo Ni en acuerdo En desacuerdo Muy en


Ni en desacuerdo desacuerdo
 Totalmente De acuerdo Neutral En desacuerdo Totalmente en
de acuerdo desacuerdo
 Siempre La mayoría de Algunas veces sí, La mayoría de Nunca
las veces si algunas veces no las veces no
 Completamente Verdadero Ni falso, ni Falso Completamente
Verdadero verdadero falso

Puntuaciones de la Escala Likert.


Las puntuaciones de las escalas Likert se obtienen sumando los valores alcanzados respecto de
cada frase. Por ello se denomina escala aditiva. Las afirmaciones pueden tener dirección:
favorable o positiva y desfavorable o negativa. Y esta dirección es muy importante para saber
cómo se codifican las alternativas de respuestas.
Si la afirmación es positiva, significa que califica favorablemente al objeto de actitud; de este modo,
cuanto más de acuerdo con la afirmación estén los participantes, su actitud será igualmente
favorable.

Ejemplo. El Ministerio de Hacienda ayuda al contribuyente a resolver sus problemas en el pago de


impuestos.
En este ejemplo, si estamos “muy de acuerdo” con la afirmación implica una actitud más favorable
hacia el Ministerio de Hacienda que si estamos solamente “de acuerdo”
En cambio, si estamos “muy en desacuerdo” implica una actitud muy desfavorable. Por lo tanto,
cuando las afirmaciones son positivas se califican comúnmente de la siguiente manera:
(5) Muy de acuerdo (4) De acuerdo (3) Ni de acuerdo, ni en desacuerdo
(2) En desacuerdo (1) Muy en desacuerdo.

Construcción de una Escala Likert


Una escala Likert se construye con un elevado número de afirmaciones que califiquen al objeto
de actitud y se administran a un grupo piloto para obtener las puntuaciones de grupo en cada
afirmación.
Estas puntuaciones se correlacionan con las del grupo a toda la escala (la suma de las
puntuaciones de todas las afirmaciones), y las afirmaciones, cuyas puntuaciones se
correlacionan significativamente con las puntuaciones de toda la escala, se seleccionan para
integrar el instrumento de medición. Asimismo, debe calcularse la confiabilidad y la validez de la
escala.
Ejemplo. De la escala Likert aplicada a varias preguntas
 
Para elegir a sus Indispensable Sumamente Medianamente Poco No se toma
proveedores que importante importante importante en cuenta
tan importante es (5) (4) (3) (2) (1)  
- el precio?
- la forma de pago?
- el tiempo de entrega?
- el lugar de entrega?
- la garantía del producto?
- el prestigio del producto?
- el prestigio de la
empresa proveedora?
- el cumplimiento del
proveedor con las
especificaciones?
- la información que sobre
el producto proporcione
el proveedor?
- el tiempo de trabajar con
el proveedor?
- la entrega del producto en
las condiciones acordadas?
- la calidad del producto?
25

Aplicación de la Escala Likert


Existen dos formas básicas de aplicar una escala Likert. La primera es de manera auto
administrado: se le entrega la escala al participante y, éste marca, respecto de cada afirmación,
la categoría que mejor describe su reacción. Es decir, marcan su respuesta.
La segunda forma es la entrevista, donde un entrevistador lee las afirmaciones y alternativas de
respuesta al sujeto, y anota lo que éste conteste. Cuando se aplica por medio de una entrevista,
es necesario que se le entregue al entrevistado una tarjeta donde se muestren

El diferencial semántico.
Consiste en una serie de pares de objetivos extremos que califican al objeto de actitud, ante los
cuales se solicita la reacción del participante. Es decir, éste debe calificar al objeto de actitud a
partir de un conjunto de adjetivos bipolares; entre cada par de adjetivos, se presentan varias
opciones y la persona selecciona aquella que en mayor medida refleje su actitud.
Ejemplo. Objeto de actitud: Candidato “A” Adjetivo bipolar: Justo-injusto. 

justo:......:…..:…..:..…:..…:..…:..….: injusto
Los puntos o las categorías de la escala pueden codificarse de diversos modos, tal como se
muestra a continuación.

Adjetivo favorable:...........:………:………:………:………:………:………: Adjetivo desfavorable


(por ej. fuerte, bonito 3 2 1 0 -1 -2 -3 (por ej. débil, feo,
activo, etc.) pasivo, etc.)
7 6 5 4 3 2 1

En los casos en que los respondientes tengan menor capacidad de discriminación, se pueden
reducir las categorías a 5 opciones, y aún a 3 

sabroso :...........:………:………:………:………: desabrido


5 4 3 2 1
2 1 0 -1 -2

Codificación de las escalas.


Codificar de 1 a 7 o de -3 a 3 no tiene importancia, siempre y cuando estemos conscientes del
marco de interpretación. Por ejemplo si una persona califica al objeto de actitud: candidato “A”
en la escala justo-injusto, marcando la categoría más cercana al extremo injusto la calificación
seria “1” o “-3”
justo:...........:………:………:………:………:………:…X…: injusto
7 6 5 4 3 2 1
 
justo:...........:………:………:………:………:………:…X…: injusto
3 2 1 0 -1 -2 -3

Aplicación del diferencial semántico.


El diferencial semántico puede ser auto administrado (se le proporciona la escala al sujeto y este
marca la categoría que describe su mayor reacción o considera conveniente) o mediante
entrevista (el entrevistador marca la categoría que corresponda a la respuesta del sujeto). En
esta segunda situación es muy conveniente mostrar una tarjeta al respondiente, que incluya los
adjetivos bipolares y sus categorías respectivas. Así, por ejemplo, parte de los adjetivos
bipolares y sus categorías para evaluar la actitud hacia un producto serían:

barato:...........:………:………:………:………:………:………: caro
sabroso:........:………:………:………:………:………:………: insípido
dulce:........... :………:………:………:………:………:………: amargo
limpio:.......... :………:………:………:………:………:………: sucio
rico:.......... :………:………:………:………:………:………: pobre
26

suave:...........:………:………:………:………:………:………: áspero
propio:...........:………:………:………:………:………:………: ajeno
completo:......:………:………:………:………:………:………: incompleto

Pasos para integrar la version final de la escala.


Para integrar la versión final de la escala se deben llevar a cabo los siguientes pasos:
1. Generamos una lista de adjetivos bipolares exhaustiva y aplicable al objeto de actitud a
medir. De ser posible, resulta conveniente seleccionar adjetivos utilizados en
investigaciones similares.
2. Construimos una versión preliminar de la escala y la administramos a un grupo de
sujetos a manera de prueba piloto.
3. Correlacionamos las respuestas de los sujetos para cada par de adjetivos o ítems. Así
correlacionamos un ítem con todos los demás (cada par de adjetivos frente al resto).
4. Calculamos la confiabilidad y la validez de la escala total (todos los pares de adjetivos).
5. Seleccionamos los ítems que presenten correlaciones significativas con los demás ítems.
Naturalmente si hay confiabilidad y validez, estas correlaciones serán significativas.
6. Desarrollamos la versión final de la escala.
La versión final se califica de igual manera que la de Likert: sumando las puntuaciones
obtenidas respecto de cada ítem o par de adjetivos.

El escalograma de Gutmann.
Método para medir actitudes, se basa en el principio de que algunos ítems indican en mayor
medida la fuerza o la intensidad de la actitud. La escala está constituida por afirmaciones y,
cada una de estas mide la misma dimensión de la misma variable. Para esto es necesario
desarrollar un conjunto de afirmaciones pertinentes al objeto de actitud. Estas deben variar en
intensidad.

Análisis de contenido. Es una técnica para estudiar la comunicación de una manera objetiva,
sistemática y que cuantifica los contenidos en categorías. Resulta una técnica muy útil para
analizar los procesos de comunicación en muy diversos contextos.

Usos del análisis de contenido. Berelson destaca entre los usos:

› Describir tendencias en el contenido de la comunicación.


› Develar diferencias en el contenido de la comunicación.
› Comparar mensajes, niveles y medios de comunicación.
› Auditar el contenido de la comunicación y compararlo con estándares u objetivos.
› Construir y aplicar estándares de comunicación.
› Exponer técnicas publicitarias y de propaganda.
› Medir la claridad de los mensajes.
› Describir estilos de comunicación.
› Identificar intenciones, apelaciones y características de comunicadores.
› Descifrar mensajes ocultos y otras aplicaciones a la inteligencia militar y a la seguridad
política.
› Revelar “centros” de interés y atención para una persona, un grupo o una comunidad.
› Determinar el estado psicológico de personas o grupos.
› Obtener indicios del desarrollo verbal.
› Anticipar respuestas a comunicaciones.
› Reflejar actitudes, valores y creencias de personas, grupos o comunidades.
› Cerrar preguntas abiertas
El análisis de contenido entre otras, además se utiliza para evaluar:
27

› si varias series televisivas difieren entre sí en cuanto a su carga de contenido sexual;


› para conocer las discrepancias ideológicas entre varios periódicos o diarios (en términos
generales o en referencia a un tema en particular).
› Determinar el estado psicológico de personas o grupos.
› Obtener indicios del desarrollo verbal.
› Anticipar respuestas a comunicaciones.
› Reflejar actitudes, valores y creencias de personas, grupos o comunidades.
› Cerrar preguntas abiertas.

Realización del análisis de contenido.


Se lo efectúa por medio de la codificación, es decir, el proceso en virtud del cual las
características relevantes del contenido de un mensaje se transforman a unidades que permitan
su descripción y análisis precisos. Lo importante del mensaje se convierte en algo susceptible
de describir y analizar. Para codificar es necesario definir el universo, las unidades de análisis
y las categorías de análisis.

Pasos a seguir para realizar el análisis de contenido.

› Definir con precisión el universo y extraer una muestra representativa.


› Establecer y definir las unidades de análisis.
› Establecer y definir las categorías y sub categorías que representan a las variables de la
investigación.
› Seleccionar los codificadores (personas que habrán de asignar las unidades de análisis a
las categorías).
› Elaborar las hojas de codificación, que contienen las categorías y sub categorías.
› Proporcionar entrenamiento a codificadores.
› Calcular la confiabilidad de los codificadores
› Efectuar la codificación. Lo que implica asignar las unidades al sistema de categorías y
contar las frecuencias de repetición de las unidades en las categorías (número de
unidades que se seleccionan para cada categoría).
› Vaciar los datos de la hoja de codificación y obtener totales de cada categoría.
› Realizar los análisis estadísticos apropiados.

La observación cuantitativa.

Consiste en el registro sistemático válido y confiable de comportamientos o conductas


que se manifiestan. Se recolecta información sobre la conducta más que de percepciones.
En la observación cuantitativa las variables a observar son especificadas y definidas antes de
comenzar la recolección de los datos. Se enfoca la información que pueda ser evaluada por
medio de los sentidos (datos visuales, auditivos, productos del tacto y del olfato). Asimismo, los
observadores registran lo que perciben siguiendo reglas que se aplican invariablemente y deben
minimizar su efecto sobre los registros e interacciones con los participantes observados.

Pasos a seguir para construir un sistema de observación. Los pasos a seguir son:

› Definir con precisión el universo de aspectos, eventos o conductas a observar. ¿Qué y


quién o quiénes se van a observar y por cuánto tiempo?
› Especificar las circunstancias de la observación. ¿Dónde y cuándo se conducirán las
observaciones? (Lugar y ubicación temporal).
› Incluir todo el universo o extraer una muestra representativa de aspectos, eventos o
conductas a observar.
28

› Establecer y definir las unidades de observación.


› Establecer y definir las categorías y sub categorías de observación.
› Diseñar la manera de registrar las observaciones (mediante un formulario, hoja de
codificación o guía de observación).
› Determinar el papel de los observadores. ¿Qué tan cercanos deben estar el observador y
los observados?
› Seleccionar a los observadores-codificadores.
› Proporcionar entrenamiento a los anteriormente seleccionados.
› Efectuar la prueba piloto y calcular la confiabilidad de los observadores.

Otras formas de recolección de datos cuantitativos.


Entre otras tenemos:
› Las pruebas estandarizadas, que miden variables específicas como la inteligencia, la
personalidad en general, la personalidad autoritaria, el razonamiento matemático, el
sentido de vida, la satisfacción laboral, el tipo de cultura organizacional, el estrés
preoperatorio, la depresión posparto, la adaptación al colegio, intereses vocacionales, la
jerarquía de valores, el amor romántico, calidad de vida, diferenciación de marcas, etc.
› Datos secundarios (recolectados por otros investigadores). Implica la revisión de
documentos, registros públicos, y archivos.
› Instrumentos mecánicos o electrónicos, son sistemas de medición por aparatos como por
ejemplo el detector de mentiras o polígrafo, la pistola láser que mide la velocidad con que
circula un automóvil, instrumentos que captan la actividad cerebral, la medición
electrónica de distancias, etc.
› Instrumentos específicos propios de cada disciplina. Por ej. Para el análisis de grupos se
utilizan los sistemas socio métricos y el análisis de redes entre otros.

Codificación de las respuestas de un instrumento de medición. -

La codificación de las respuestas implica cuatro pasos:

1. Establecer los códigos de las categorías o alternativas de respuesta a los ítems o preguntas y
las categorías y subcategorías de contenido u observación no precodificadas.
2. Elaborar el libro de códigos
3. Efectuar físicamente la codificación
4. Gravar y guardar los datos y su codificación en un archivo permanente

1. Establecer códigos.- Si todas las categorías y sub categorías fueron pre codificadas y no se tienen
preguntas abiertas esto no es necesario. Si no fueron pre codificadas hay que asignar códigos.
Ejemplos:

Pregunta no precodificada ¿Practica usted algún deporte?

Si, se codifica 1 No, se codifica 0

Frase no precodificada Creo que estoy recibiendo un salario justo por mi trabajo

Totalmente de acuerdo Se codifica 5


De acuerdo Se codifica 4
Ni de acuerdo ni en descuerdo Se codifica 3
En desacuerdo Se codifica 2
En total desacuerdo Se codifica 1

2. Elaborar el libro de códigos.-


29

Este describe la localización de las variables y los códigos asignados a los atributos que las componen:
categorías o sub categorías.
Sus elementos son: variable, pregunta, item, tema, categoría general, categorías y subcategorías,
códigos (números o símbolos utilizados para asignarse a las categorías.

Ejemplo: Supongamos que tenemos una escala Likert con tres items (frases)

1. La Oficina de Impuestos Nacionales informa oportunamente sobre cómo, dónde y cuándo pagar
los impuestos
(5) Muy de acuerdo (4) De acuerdo (3) Ni de acuerdo, ni es desacuerdo
(2) En desacuerdo (1) En total desacuerdo

2. Los servicios que presta Impuestos Nacionales son habitualmente muy buenos
(5) Muy de acuerdo (4) De acuerdo (3) Ni de acuerdo, ni es desacuerdo
(2) En desacuerdo (1) En total desacuerdo

3.- Impuestos Nacionales se caracteriza por la deshonestidad de sus funcionarios


(5) Muy de acuerdo (4) De acuerdo (3) Ni de acuerdo, ni es desacuerdo
(2) En desacuerdo (1) En total desacuerdo

El libro de códigos para este caso sería:

Variable Item Categorías Códigos Columnas

Actitud hacia Frase 1 Muy de acuerdo 5 1


Oficina de (informa) De acuerdo 4
Impuestos Ni de acuerdo ni desac. 3
Nacionales En desacuerdo 2
En total desacuerdo 1
Frase 2 Muy de acuerdo 5 2
(servicios) De acuerdo 4……………..
Frase 3 Muy de acuerdo 5 3
(deshonestidad) De acuerdo 4………………

3.- Codificación física. - Consiste en llenar la matriz de datos con los valores por los codificadores a
los que se les proporciona el libro de códigos, el que puede hacerse en “hojas de tabulación” las que
tienen sus filas (casos) y columnas (variables)

Actualmente poco se usan las hojas de codificación. Se transfieren los datos o valores directamente a la
matriz de datos creada como archivo en la computadora (vista de datos en SPSS, hoja de cálculo como
Excel que después se copia en SPSS, matriz de entrada en Minitab y similares)

4. Generación de archivos. - Generar archivos no es más que crear la matriz de datos al que se
nómina y este debe contener los datos codificados en valores numéricos.

Es muy importante revisar la matriz para limpiarla de errores. Verificar que no haya errores de
codificación, como valores que no correspondan, respuestas duplicadas, etc.

Se puede limpiar:
a) revisándola físicamente,
b) en SPSS con la función “ordenar casos” (en “Datos”) para visualizar valores que no
correspondan a cada ítem o variable en la matriz,
c) ejecutando el “análisis de frecuencia” en el menú “Analizar” y “estadísticos descriptivos”, una
vez obtenidos los resultados, se observará en qué variables de la matriz hay valores que
deberían estar, para efectuar las correcciones necesarias.
30

TÉCNICAS DE LA INVESTIGACIÓN

TEMA 5: ANÁLISIS DE LOS DATOS OBTENIDOS BAJO EL ENFOQUE CUANTITATIVO

ANALISIS DE LOS DATOS CUANTITATIVOS


Luego de la codificación, transferencia a una matriz y, guardada en un archivo los datos limpios de
errores, se proceden a analizarlos.

Procedimientos que se siguen. - El análisis de los datos se efectúa sobre la matriz de datos utilizando
un programa computacional. El proceso de análisis sigue los siguientes pasos:

1. Selección de un programa estadístico en computadora para el análisis


2. Ejecutar el programa: SPSS, Minitab, Stats, SAS u otro equivalente.
3. Explorar los datos:
a) Analizar descriptivamente los datos por variable
b) Visualizar los datos por variable
4. Evaluar la confiabilidad y validez logradas por el instrumento de medición.
5. Analizar mediante pruebas estadísticas las hipótesis planteadas (Análisis estadístico inferencial)
6. Realizar análisis adicionales.
7. Prepara los resultados para presentarlos (tablas, gráficas, cuadros, etc.)

Paso 1: Seleccionar un programa de análisis


Existen diversos programas para analizar datos. Incluyen dos partes o segmentos: Una parte de
definición de las variables, que a su vez explican los datos (los elementos de la codificación ítem por
ítem) y la otra parte, la matriz de datos. La primera parte es para que se entienda la segunda. Las
definiciones, desde luego, son efectuadas por el investigador.
Lo que hace este, una vez recolectados los datos es:

 Definir los parámetros de la matriz de datos en el programa (nombre de cada variable en la


matriz -que equivale a un ítem, reactivo, categoría o subcategoría de contenido u observación-,
tipo de variable o ítem, ancho en dígitos, etc.)
 Introducir los datos en la matriz, la cual es como cualquier hoja de cálculo, la cual tiene
columnas (variables o ítems), filas o renglones (casos) y celdas (intersección de una columna y
una fila)

Cada celda contiene un dato (un valor de un caso en una variable)


Supongamos que tenemos cuatro casos o personas y tres variables: género, color de cabello y edad.
Las codificaciones serían:

Género: 1= masculino y 2 = femenino


Color de cabello: 1 = negro, 2 = castaño, 3 = pelirrojo, 4 = rubio
Edad: Dato “bruto o crudo” en años

Caso Género Color de pelo Edad


1 1 1 35
2 1 1 29
3 2 1 28
4 2 4 33
Una vez que estamos seguros que no hay errores en la matriz, procedemos a realizar el análisis
estadístico que corresponda.

Paso 2: Ejecutar el programa


En el caso de SPSS y Minitab, ambos paquetes son fáciles de usar, pues lo único que hay que hacer es
solicitar los análisis requeridos seleccionando las opciones apropiadas.
31

Paso 3: Explorar los datos: Para el caso de SPSS

 Paso 1: En “Analizar” se solicitan para todos los ítems (variable de la matriz por variable de
la matriz):
 Informes de la matriz (resúmenes de casos, informes estadísticos en filas o
columnas). Con objeto de visualizar resultados ítem por ítem y fila por fila.
 Estadísticos descriptivos
a) Descriptivos (una tabla con las estadísticas fundamentales de todas las
variables de la matriz, columnas o ítems).
b) Frecuencias (tabla de frecuencias, estadísticas básicas y gráficas)
c) Explorar (relaciones causales entre variables de la matriz)
d) Generar tablas de contingencia-
e) Generar razones.

 Paso 2 (analítica): El investigador


 Evalúa las distribuciones y estadística de los ítems
 Observa que ítems tienen una distribución lógica e ilógica.
 Agrupa a los ítems en las variables de investigación (variables compuestas), de
acuerdo con sus definiciones operacionales
 Forma como desarrollo su instrumento o instrumentos de medición.

 Paso 3:(en SPSS). En “Transformar” y “Calcular”, indica al programa cómo debe agrupar los
ítems en las variables de su estudio.

 Paso 4: (en SPSS). En “Analizar”, se solicitan para todas las variables del estudio:
a) Estadísticas descriptivas (una tabla con los estadísticos fundamentales de
todas las variables de su estudio)
b) b) Un análisis de frecuencia con estadísticas y gráficas. A veces se pide
únicamente lo segundo, porque abarca lo primero. Debe notarse que estos
análisis ya no son con ítems, sino con las variables de investigación.

Nota 1: Las variables de la matriz de datos son columnas o ítems. Las variables de la investigación son
las propiedades medidas y que forman parte de las hipótesis o que se pretenden describir (género,
edad, inteligencia, duración de un material, etc.). A veces, las variables de la investigación pueden ser
medidas con un solo ítem y, por lo tanto, ocupan una sola columna en la matriz. Si están compuestas
por varios ítems, cada ítem ocupará una columna y su puntuación total es el resultado de adicionar los
valores de los reactivos que la conforman. A veces esta adición es una sumatoria y, en otras
ocasiones combinada con multiplicación o de otras formas según se haya desarrollado el instrumento.
Al ejecutar el programa y durante la fase exploratoria, se toma en cuenta a todas las variables de la
investigación e ítems y se considera a las variables compuestas (se indica cómo están constituidas,
mediante algunas instrucciones). Ver Programa SPSS

Nota 2: Los análisis de los datos depende de:


1. El nivel de medición de las variables.
2. La manera como se hayan formulado las hipótesis.
3. El interés del investigador

Los análisis que se aplican a una variable nominal son distintos a una variable por intervalos. El
investigador debe realizar análisis estadístico descriptivo para cada una de los ítems o variables de la
matriz y luego para cada una de las variables del estudio. Finalmente aplica estadística para probar
sus hipótesis.

Estadística descriptiva para cada variable


32

Trata de describir los datos, los valores o las puntuaciones obtenidas para cada variable. Esto se logra
al describir la distribución de las puntuaciones o frecuencias de cada variable.

Una distribución de frecuencias es un conjunto de puntuaciones ordenadas en sus respectivas


categorías. Así por ejemplo en nuestra encuesta realizada “Hábitos de lectura en la Facultad de
Ciencias del Hábitat”; en la respuesta a la pregunta
1.- Si tienes el hábito de leer vemos que las puntuaciones de acuerdo a la edad serán:
a) 15 a 19 años …….
b) 20 a 24 años …….
c) 25 a 29 años …….
d) 30 o más años …….

Las distribuciones de frecuencias pueden completarse agregando los porcentajes de casos en cada
categoría, los porcentajes válidos (excluyendo los valores perdidos) y los porcentajes acumulados
(porcentaje de lo que se va acumulando en cada categoría, desde la más baja hasta la más alta)
Las distribuciones o frecuencias además de las tablas o cuadros pueden presentarse cuando se utilizan
porcentajes en forma de diagramas de barra (histogramas) o en forma de diagramas circulares.
También se pueden graficar como polígonos de frecuencias, los que son más apropiados para una
medición por intervalos o razón. Se construyen sobre los puntos medios de los intervalos. Así por
ejemplo para la distribución edades: 15 a 19, 20 a 24, 25 a 29 tomaremos los puntos medios: 17, 22 y
27 respectivamente.

Medidas de tendencia central, son los valores medios o centrales en una distribución y nos ayudan a
ubicarla dentro de la escala de medición. Las principales son: la moda, la mediana y la media.

La moda es la categoría o puntuación que ocurre con mayor frecuencia.

La mediana es el valor que divide la distribución por la mitad. Esto es, la mitad de los casos caen por
debajo de la mediana y la otra mitad por encima. La mediana refleja la posición intermedia de la
distribución.

La media es la medida de tendencia central más utilizada y es el promedio aritmético de una


distribución.
Es una medida aplicable a mediciones por intervalo o de razón. Si X 1, X2, X3,….Xn son los valores de n
mediciones; la media se expresa:

X = (X1 + X2 + X3 +…. + Xn) / n

Ejemplo 1: Si se tienen los siguientes datos: 18, 23, 25, 25, 25, 30, 33, 33, 37, 41, 47:
La moda es 25 por ser el valor que más veces se repite; la mediana es 30 por ser valor ubicado al
centro de las mediciones y la media es 30.6 que resulta de sumar:

18+23+25+25+25+30+33+33+37+41+47 = 337 / 11 = 30,6

Otra medida de tendencia central de importancia es la media ponderada en la cual las medidas
obtenidas pueden tomar diferentes valores y por lo tanto es necesaria tomar en cuenta estos valores
para su ponderación.
Un ejemplo es el PPA de los estudiantes donde el puntaje además de la nota toma en cuenta el valor en
créditos de cada asignatura

Asignatura 1 Nota: 65 Créditos: 4 Puntaje: 260


2 51 6 306
3 58 4 232
Total 14 798
33

PPA = 798 ÷ 14 = 57,7 = 58

Medidas de la variabilidad. Indican la dispersión de los datos en la escala de medición. Las más
utilizadas son el rango, la desviación estándar y la varianza.

El rango o recorrido es la diferencia entre la puntuación mayor y la puntuación menor e indica el


número de unidades de medición que se necesitan para incluir los valores máximo y mínimo. Así en el
ejemplo 1 visto anteriormente, su rango es 29 obtenido de: 47 – 18 = 29.
Cuanto más grande sea el rango, mayor será la dispersión de los datos de una distribución.

La desviación estándar (s) o (σ) es el promedio de desviación de las puntuaciones con respecto a la
media que se expresa en las unidades originales de medición de la distribución.

s = √ Σ(X – X)2 / n
La desviación estándar se interpreta como cuánto se desvía, en promedio, de la media un conjunto de
puntuaciones.

La varianza es la desviación estándar elevada al cuadrado y se simboliza s2

Interpretación de las medidas de tendencia central y de la variabilidad


Al describir los datos respecto de cada variable del estudio, las medidas de tendencia central y de la
variabilidad deben interpretarse en conjunto y no aisladamente.
Para interpretarlos, lo primero que hacemos es tomar en cuenta el rango potencial de la escala.
Supongamos que aplicamos una escala de actitudes del tipo Likert para medir la “actitud hacia el
presidente”
Si esta medición tuviera 18 ítems cuyos valores se promedian obteniendo los resultados:
Variable: Actitud hacia…. (ver pág. 429 a 432 del libro)

La asimetría se usa para conocer cuánto se parece una distribución a la distribución teórica llamada
curva normal y que constituye un indicador del lado de la curva en el que las frecuencias se agrupan
más. Si la asimetría es igual a cero, la curva o distribución es simétrica.
Cuando es positiva es porque hay más valores agrupados a la izquierda de la curva (por debajo de la
media) y cuando es negativa los valores se agrupan a la derecha de la curva (por encima de la media).

La curtosis es un indicador de lo plana o picuda que es una curva. Cuando su valor es cero, se trata de
una curva normal. Si es positiva la curva es picuda o elevada y, si es negativa la curva es más plana.
(Ver gráficas de pág. 433 del libro)

Las puntuaciones z son transformaciones que se pueden hacer a las puntuaciones o valores
obtenidos, con el propósito de analizar su distancia respecto a la media, en unidades de desviación
estándar
z = (X – X) / s

Razones y tasas. - Una razón es la relación entre dos categorías. Ejemplo: Para la variable Género con
sus dos categorías Masculino = 60 y Femenino = 20; la razón de hombres a mujeres es 60/20 = 3 Es
decir que existen 3 hombres por cada mujer,

Una tasa es la relación entre el número de casos, frecuencias o eventos de una categoría dividido entre
el número total de observaciones multiplicado por un múltiplo de 10, generalmente 100 o 1000.
Ejemplo: Tasa de natalidad TN = (N° de nacimientos/N° de habitantes) x 1000

Análisis estadístico inferencial. - Pretende generalizar los resultados obtenidos en la muestra a la


población. Los datos casi siempre se recolectan de una muestra y sus resultados estadísticos se llaman
estadígrafos (la media, la desviación estándar, etc.).
34

A las estadísticas de la población se les conoce como parámetros. Los parámetros no son
calculados, porque no se recolectan datos de toda la población, pero pueden ser inferidos de los
estadígrafos. De ahí el nombre de estadística inferencial.
La inferencia de los parámetros se lleva a cabo mediante técnicas estadísticas apropiadas.
Utilidad. La estadística inferencial se utiliza para dos procedimientos:

1. Probar hipótesis
2. Estimar parámetros

Una hipótesis es el contexto de la estadística inferencial es una proposición respecto a uno o varios
parámetros y, lo que el investigador hace es probar si la hipótesis es congruente con los datos
obtenidos en la muestra.

La hipótesis se retiene como un valor aceptable del parámetro, si es congruente con los datos. Si no lo
es se rechaza (pero los datos no se descartan). Para comprender lo que es prueba de hipótesis es
necesario revisar los conceptos de:

Distribución muestral, que es un conjunto de valores sobre una estadística calculada de todas
las muestras posibles de determinado tamaño de la población. Las distribuciones muestrales de medias
son probablemente las más conocidas. (ver ej. 445 y 445 del libro)

El nivel de significancia es un nivel de la probabilidad de equivocarse y que fija de manera a priori el


investigador. La probabilidad de que un evento ocurra oscila entre:

(0) = imposibilidad de ocurrencia y (1) = certeza de que ocurra

Así, al lanzar un dado, la probabilidad de que salga cualquiera de sus caras es de 1/6 = 0,1667Y la
suma de posibilidades es siempre igual a 1

Aplicando el concepto de probabilidad a la distribución muestral, tomaremos el área de esta


como 1,00; en consecuencia, cualquier área comprendida entre dos puntos de la distribución
corresponderá a la probabilidad de distribución

Para probar hipótesis inferenciales respecto a la media, se debe evaluar si es alta o baja la
probabilidad de que la media de la muestra esté cerca de la media de la distribución muestral. Si es
baja, el investigador dudará de generalizar a la población. Si es alta podrá hacer generalizaciones. Es
aquí donde entra el nivel de significancia o nivel alfa (α ), el cual es un nivel de la probabilidad de
equivocarse y se fija antes de probar hipótesis inferenciales.

El nivel de significancia no debe ser mayor a 0.05, lo que implica que el error sea ≤ al 5%

Relación entre la distribución muestral y el nivel de significancia. El nivel de significancia se


expresa en términos de probabilidad (0,05 y 0,01) y la distribución muestral también como probabilidad
(el área total de esta como 1,00). Ahora bien, para ver si existe o no confianza al generalizar acudimos
a la distribución muestral, con una probabilidad adecuada para la investigación.

El nivel de significancia lo tomamos como un área bajo la distribución muestral, tal como se observa en
las gráficas de la pág. 448 del libro.

Prueba de hipótesis. Hay dos tipos de análisis que se pueden realizar para probar hipótesis: los análisis
paramétricos y los no paramétricos.

Los análisis paramétricos se realizan a partir de los siguientes supuestos:


 La distribución poblacional de la variable dependiente es normal.
 El nivel de medición de la variable dependiente es por intervalos y por razón.
35

 Cuando dos o más poblaciones son estudiadas, tienen una varianza homogénea

Las pruebas estadísticas paramétricas más utilizadas son:


 Coeficiente de correlación de Pearson y regresión lineal.
 Prueba t (Consiste en evaluar la diferencia de dos grupos respecto de sus medias)
 Prueba de contraste de la diferencia de proporciones.
 Análisis de varianza unidireccional (ANOVA Oneway).
 Análisis de varianza factorial (ANOVA)
 Análisis de covarianza (ANOVA)

Para realizar los análisis no paramétricos debe considerarse que:


 La mayoría de estos análisis no requieren de presupuestos acerca de la forma de la
distribución poblacional (aceptan distribuciones no normales.
 Las variables no necesariamente tienen que estar medidas en un nivel por intervalos o de
razón; pueden analizar datos nominales u ordinales. Si se quiere aplicar análisis no
paramétrico a datos por intervalo o por razón estos se resumen a categorías discretas.

Las pruebas estadísticas no paramétricas más utilizadas son:


 La chi cuadrada Χ 2, prueba estadística para evaluar hipótesis acerca de la relación de
dos variables categóricas.
 Los coeficientes de correlación e independencia para tabulaciones cruzadas.
 Los coeficientes de correlación por rangos ordenados de Spearman y Kenda

TÉCNICAS DE LA INVESTIGACIÓN

Tema 6: EL MUESTREO CUALITATIVO

1. ¿Qué es una muestra cualitativa?


Es un grupo de personas, eventos, sucesos, comunidades, etc., sobre el cual habrán de
recolectar los datos, sin que necesariamente sea representativo del universo o población que
se estudia, la cual se define tentativamente a veces al iniciar la inmersión o en cualquier
momento de la evolución del proceso investigativo. En los estudios cualitativos, el tamaño de
la muestra no es importante desde una perspectiva probabilística, pues el interés del
investigador no es generalizar los resultados de su estudio a una población más amplia. Lo
que se busca en la indagación cualitativa es la profundidad. Por lo tanto, se pretende calidad
en la muestra, más que cantidad. Nos conciernen casos (participantes, personas,
organizaciones, eventos, animales, hechos, etc.) que nos ayuden a entender el fenómeno de
estudio y a responder a las preguntas de investigación.

2. ¿Cuáles son los factores que intervienen para determinar o sugerir el número de
casos o elementos de la muestra? Son tres:
 La capacidad operativa de recolección o análisis, es decir el número de casos que
podemos manejar de manera realista y de acuerdo a nuestra disponibilidad de
recursos.
 El entendimiento del fenómeno (el número de casos que nos permitan responder a
las preguntas de investigación.
 La naturaleza del fenómeno bajo análisis (si los casos son frecuentes y accesibles o
no, si el recolectar información sobre estos llevará poco o mucho tiempo)

3. ¿Qué significa e implica la reformulación de la muestra? Significa que la muestra puede


contener cierto tipo definido de unidades iniciales, pero conforme avanza el estudio se puede
ir agregando otros tipos de unidades, y aún, desechar las primeras. Por lo tanto, implica que
la muestra planteada inicialmente puede ser distinta a la muestra final. Mertens (2005)
señala que en muestreo cualitativo es usual comenzar con la identificación de ambientes
propicios, luego de grupos y, finalmente, de individuos. Incluso la muestra puede ser una
36

sola unidad de análisis (estudio de caso) comenzamos con una muestra (predeterminada o
no, como punto de inicio, al menos): una muestra de sangre, de escuelas, de procedimientos
administrativos, de trabajadores, de episodios de interacción familiar, de materiales rocosos,
de actos de atención a los clientes, una familia o una persona, pero en la indagación
inductiva, la muestra se va evaluando y redefiniendo permanentemente.

4. ¿A qué se llama muestra de participantes voluntarios? Como su nombre lo indica es


aquella que se obtiene de individuos que voluntariamente acceden a participar en el estudio,
ya sea por interés propio o simplemente por deseo de colaboración. Estas muestras son
frecuentes en ciencias sociales y en ciencias de la conducta, se trata de muestras fortuitas,
donde el investigador elabora conclusiones sobre casos que llegan a sus manos en forma
casual.

5. ¿Qué es la muestra de expertos? Es aquella que se aplica en estudios donde es


necesaria la opinión de individuos expertos en la temática que se está investigando. Estas
muestras son frecuentes en estudios cualitativos y exploratorios para generar hipótesis más
precisas o la materia prima del diseño de cuestionarios. Tales muestras son válidas y útiles
cuando los objetivos del estudio así lo requieren.

6. ¿Qué son las muestras de casos tipo? Se aplica cuando el objetivo es la riqueza,
profundidad y calidad de la información, no la cantidad ni la estandarización, se aplica en
estudios con perspectiva fenomenológica, donde el objetivo es analizar los valores, ritos y
significados de un determinado grupo social, también se aplican en estudios motivacionales
para analizar las actitudes y conductas del consumidor. Aquí se definen los segmentos a los
que va dirigido un determinado producto y se construyen grupos de ocho a diez personas
cuyos integrantes tengan las características sociales y demográficas de dicho segmento; a
estos grupos, se denominan “grupos de enfoque”

7. ¿A qué se llama muestra por cuotas?


Son aquellas que se realizan llenando o conformando cuotas de acuerdo con la proporción
de ciertas variables demográficas en la población, como sexo, edad, nivel educativo, etc.
Estos cupos o cuotas se construyen de acuerdo al juicio del entrevistador, y, suelen ser
comunes en encuestas (surveys) e indagaciones cualitativas. Se utilizan mucho en estudios
de opinión y marketing.

8. Indique que otras muestras de orientación hacia la investigación cualitativa se


conocen. Según Miles y Huberman, además de Creswell, se tienen:
 Muestras diversas o de máxima variación . Son utilizadas cuando se busca mostrar
distintas perspectivas y representar la complejidad del fenómeno estudiado, o bien,
documentar diversidad para localizar diferencias y coincidencias, patrones y
particularidades.
 Muestras homogéneas. En estas, las unidades a seleccionar poseen un mismo perfil o
característica, o bien, comparten rasgos similares. Su propósito es centrarse en el tema a
investigar o resaltar situaciones, procesos o episodios en un grupo social
 Muestras en cadena o por redes. (“bola de nieve”). Se identifican participantes clave y se
agregan a la muestra, se les pregunta si conocen a otras personas que puedan
proporcionar datos más amplios, y una vez obtenidos sus datos, los incluimos también.
 Muestra de casos extremos. Útiles cuando nos interesa evaluar características,
situaciones o fenómenos especiales, alejados de la “normalidad”
 Muestras por oportunidad. Casos que de manera fortuita se presentan ante el
investigador, justo cuando este los necesita. O bien, individuos que requerimos y que se
reúnen por algún motivo ajeno a la investigación, que nos proporcionan una
extraordinaria oportunidad para reclutarlos.
37

 Muestras teóricas o conceptuales. Cuando el investigador necesita entender un concepto


o teoría, puede mostrar casos que le ayuden a tal comprensión. Es decir, se eligen a las
unidades que poseen uno o varios atributos que contribuyen a desarrollar la teoría.
 Muestras confirmativas. La finalidad es adicionar nuevos casos cuando en los ya
analizados se suscita alguna controversia o surge información que apunta en diferentes
direcciones. Puede suceder que algunos de los primeros casos sugieran hipótesis de
trabajo y casos posteriores las contradigan. Entonces seleccionamos casos similares
donde emergieron las hipótesis, pero también casos similares en donde las hipótesis no
se aplican o no se prueban.
 Muestras de casos sumamente importantes para el problema analizado . Casos del
ambiente que no podemos dejar fuera y que necesariamente deben ser incluidos.
 Muestras por conveniencia. Simplemente se trata de casos disponibles a los cuales
tenemos acceso, en otro contexto y aprovechamos para obtener la información
requerida.

TÉCNICAS DE LA INVESTIGACIÓN

Tema 7: RECOLECCIÓN DE LOS DATOS CUALITATIVOS

1. ¿Qué es la recolección de datos desde el enfoque cualitativo? Es obtener los datos (que se
convertirán en información) en los ambientes naturales o cotidianos de los participantes o
unidades de análisis (personas, seres vivos, comunidades, contextos o situaciones en
profundidad; en las propias formas de expresión de cada uno de ellos, se recolectan con el fin de
analizarlos y comprenderlos, y así responder a las preguntas de nuestro estudio de
investigación. Al tratarse de seres humanos los datos que interesan son conceptos,
percepciones, imágenes mentales, creencias, emociones, interacciones, pensamientos,
experiencias, procesos y vivencias manifestadas en el lenguaje de los participantes, ya sea de
manera individual, grupal o colectiva. Esta clase de datos es muy útil para capturar de manera
completa (lo más que sea posible) y sobre todo, entender los motivos subyacentes, los
significados y las razones internas del comportamiento humano. Asimismo, no se reducen a
números para ser analizados estadísticamente.

2. ¿Cuál es el instrumento de recolección de los datos en el proceso cualitativo? El


instrumento de recolección de datos en este enfoque es el investigador o grupo de
investigadores, ya que el investigador es quien -mediante diversos métodos o técnicas- recoge
los datos (él es quien observa, entrevista, revisa documentos, conduce sesiones, etc.). No solo
analiza, sino que es el medio de obtención de los datos. El genera las respuestas de los
participantes al utilizar una o varias herramientas, además recolecta datos de diferentes tipos:
lenguaje escrito, verbal y no verbal, conductas observables e imágenes. Su reto mayor consiste
en introducirse al ambiente y mimetizarse con este, pero también en lograr capturar lo que las
unidades y casos expresan y adquirir un profundo sentido de entendimiento del fenómeno
estudiado.

3. ¿Qué tipos de unidades de análisis pueden incluirse en el proceso cualitativo, además de


las personas o casos? Lofland y Lofland (1995) sugieren varias unidades de análisis, las
cuales van de lo micro a lo macroscópico, es decir del nivel individual al nivel social, y ellos son:
a) Significados. Son los referentes lingüísticos que utilizan los actores humanos para aludir a
la vida social como definiciones, ideologías o estereotipos.
b) Prácticas. Se refiere a una actividad continua, definida por los miembros de un sistema
social como rutinaria.
c) Episodios. Son sucesos dramáticos y sobresalientes, pues no se trata de conductas
rutinarias sino de eventos traumáticos que afectan a las personas, involucrando a una pareja,
una familia o a un grupo grande de personas.
38

d) Encuentros. Es una unidad dinámica y pequeña que se da entre dos o más personas de
manera presencial. Generalmente sirve para completar una tarea o intercambiar información,
y que termina cuando las personas se separan.
e) Papeles. Son unidades conscientemente articuladas que definen en lo social a las personas.
El papel sirve para que la gente organice y proporcione sentido o significado a sus prácticas.
f) Relaciones. Constituyen díadas que interactúan por un periodo prolongado o que se
consideran conectadas por algún motivo y forman una vinculación social.
g) Grupos. Representan conjunto de personas que interactúan por un periodo extendido, que
están ligadas entre sí por una meta y que se consideran a sí mismos como una entidad.
h) Organizaciones. Son unidades formadas con fines colectivos. Su análisis casi siempre se
centra en el origen, el control, la jerarquía y la cultura (valores, ritos y mitos).
i) Comunidades. Se trata de asentamientos humanos en un territorio definido socialmente
done surgen organizaciones, grupos, relaciones, papeles, encuentros, episodios y
actividades. Es el caso de un pequeño pueblo o una gran ciudad.
j) Subcultura. Son manifestaciones que se expresan en la vida tradicional de grupos de
personas o poblaciones grandes y prácticamente ilimitadas, por lo que sus fronteras no
siempre quedan completamente definidas. Ej. La cibercultura, la cultura de la belleza física,
etc.
k) Estilos de vida. Son ajustes o conductas adaptativas que realiza un gran número de
personas en una situación similar.

4. ¿Cuál es el papel del investigador en la recolección de los datos cualitativos? Los


investigadores cualitativos deben construir formas inclusivas para descubrir las visiones
múltiples de los participantes y adoptar papeles más personales e interactivos con ellos. El
investigador debe ante todo respetar a los participantes y nunca despreciarlos; debe ser una
persona sensible y abierta. Mertens (2005) sugiere tres papeles fundamentales que puede
desempeñar un investigador en el ambiente o escenario:
 Supervisor, como figura autoritaria que revisa lo que ocurre en el contexto
 Líder, además de la autoridad, se agrega una dimensión de coordinación.
 Amigo; el investigador no asume una autoridad específica, sino que trata de establecer
una relación positiva y cercana a los participantes.
Un buen observador cualitativo necesita saber escuchar y utilizar todos los sentidos, poner
atención a los detalles, poseer habilidades para descifrar y comprender conductas no verbales,
ser reflexivo y disciplinado para escribir anotaciones, así como flexible para cambiar el centro de
atención, si es necesario.

5. ¿Qué es la observación cualitativa? Los seres humanos observamos todo el tiempo que
estamos despiertos y conscientes, pero la mayoría de lo que observamos lo olvidamos. En la
investigación cualitativa necesitamos estar entrenados para observar, lo cual es diferente del
simplemente ver (lo que hacemos diariamente). Es una cuestión de grado. Y la “observación
investigativa” no se limita al sentido de la vista, implica el emplear todos los sentidos
No es la mera contemplación, es decir “sentarse a ver el mundo y tomar notas”; nada de eso,
implica adentrarnos en profundidad a situaciones sociales y mantener un papel activo, así como
una reflexión permanente. Estar atento a los detalles, sucesos, eventos e interacciones. Los
buenos observadores necesitan utilizar todos sus sentidos para captar los ambientes y a sus
actores. Todo puede ser relevante: clima físico, colores, aromas, espacios, iluminación, etc.

6. ¿Cuáles son los propósitos esenciales de la observación cualitativa? Son:


 Explorar ambientes, contextos, subcultura y la mayoría de los aspectos de la vida social.
 Describir comunidades, contextos o ambientes; asimismo las actividades que se
desarrollan en estos, las personas que participan en tales actividades y los significados
de las mismas.
 Comprender procesos, vinculaciones entre personas y sus situaciones o circunstancias,
los eventos que suceden a través del tiempo, los patrones que se desarrollan, así como
los contextos sociales y culturas en los cuales ocurren las experiencias humanas.
39

 Identificar problemas y generar hipótesis para futuros estudios.


7. ¿Qué cuestiones son importantes para la observación? Aunque cada investigación es
distinta; Anastas (2005) y otros señalan algunos elementos más específicos que podemos
observar:
 Ambiente físico (entorno): tamaño, arreglo espacial o distribución, señales, accesos,
sitios con funciones centrales.
 Ambiente social y humano (generado en el ambiente físico): formas de organización en
grupo y subgrupos, patrones de interacción o vinculación, características de los grupos,
subgrupos y participantes, actores clave, líderes y quienes toman decisiones,
costumbres, etc.
 Actividades (acciones) individuales y colectivas: ¿qué hacen los participantes?, ¿a qué se
dedican?, ¿cuándo y cómo lo hacen? (desde el trabajo hasta el esparcimiento, el
consumo, el uso de medios de comunicación, el castigo social, la religión, la migración,
los ritos y rituales, etc.), propósitos y funciones de cada una.
 Artefactos que utilizan los participantes y funciones que cubren.
 Hechos relevantes, eventos e historias. Se pueden presentar en una cronología de
sucesos o, en otro caso, ordenados por su importancia.
 Retratos humanos de los participantes.

8. ¿Cuáles son los formatos de la investigación cualitativa? En el enfoque cualitativo


regularmente no se utilizan registros estándar. El formato es el propio juicio del investigador. Es
por ello que es necesario observar todo lo que se considere pertinente. Esta es una de las
razones por las cuales la observación no se delega; por tal motivo, el investigador cualitativo
debe entrenarse en áreas psicológicas, antropológicas, sociológicas, comunicacionales,
educativas y otras similares. Tal vez lo único que puede incluirse como “estándar” en la
observación durante la inmersión en el contexto son los tipos de anotaciones, de ahí su
importancia. Conforme avanza la inducción, podemos ir generando listados de elementos que
podemos dejar fuera y unidades que deben analizarse.

9. ¿Cuál es el papel del observador cualitativo? Los papeles que permiten un mayor
entendimiento del punto de vista interno son la participación activa y la completa, pero también
puede generar que se pierda el enfoque como observador. Es un balance muy difícil de lograr y
las circunstancias nos indicarán cual es papel más apropiado en cada estudio.
Un buen observador cualitativo necesita para serlo, saber escuchar y utilizar todos los sentidos,
poner atención a los detalles, poseer habilidades para descifrar y comprender conductas no
verbales, ser reflexivo y disciplinado para escribir anotaciones, así como flexible para cambiar el
centro de atención si es necesario.

10. ¿A qué se llama la entrevista cualitativa? Es una reunión para intercambiar información entre
una persona (el entrevistador) y otra (el entrevistado) u otras (entrevistados). En este último caso
podría ser tal vez una pareja, un grupo pequeño como una familia (claro está, que se puede
entrevistar a cada miembro del grupo individualmente o en conjunto; esto sin intentar llevar a
cabo una dinámica grupal, lo que sería un grupo de enfoque), es más íntima, flexible y abierta
que la de tipo cuantitativo. En la entrevista a través de las preguntas y respuestas, se logra una
comunicación y la construcción conjunta de significados respecto a un tema. Las entrevistas
como herramientas para recolectar datos cualitativos, se emplean cuando el problema de
estudio no se puede observar o es muy difícil hacerlo por ética o complejidad.
11. ¿Cómo se dividen las entrevistas? Se dividen en estructuradas, semiestructuradas y no
estructuradas o abiertas. En las entrevistas estructuradas el entrevistador realiza su labor con
base en una guía de preguntas específicas y se sujeta exclusivamente a esta (el instrumento
prescribe que ítems se preguntan y en qué orden). Las semiestructuradas, se basan en guía de
asuntos o preguntas y el entrevistador tiene la libertad de introducir preguntas adicionales para
precisar conceptos u obtener mayor información sobre los temas deseados. Las entrevistas
abiertas se fundamentan en una guía general de contenido y el entrevistador posee toda la
flexibilidad para manejarla.
40

12. ¿Cuáles son las características esenciales de las entrevistas cualitativas? De acuerdo con
Rogers y Bouey (2005) estas son.
 El principio y el final de la entrevista no se predeterminan ni se definen con claridad,
incluso esta puede realizarse en varias etapas. Es flexible.
 Las preguntas y el orden en que se hacen se adecuan a los participantes.
 La entrevista cualitativa es en buena medida anecdótica.
 El entrevistador comparte con el entrevistado el ritmo y dirección de la entrevista.
 El contexto social es considerado y resulta fundamental para la interpretación de
significados.
 El entrevistador ajusta su comunicación a las normas y lenguaje del entrevistado.
 La entrevista cualitativa tiene un carácter más amistoso.

13. ¿Qué tipos de preguntas se aplican en las entrevistas cualitativas? Grinnell (1997)
considera cuatro clases de preguntas:
 Preguntas generales (gran tour). Parten de planteamientos globales (disparadores) para
dirigirse al tema que interesa al entrevistador. Son propias de las entrevistas abiertas. Ej.
¿qué opina de la violencia entre parejas de matrimonios?, ¿cómo ve la economía del
país?
 Preguntas para ejemplificar. Sirven como disparadores para exploraciones más
profundas, en las cuales se le solicita al entrevistado que proporcione un ejemplo de un
evento, un suceso o una categoría.
 Preguntas de estructura o estructurales. El entrevistador solicita al entrevistado una lista
de conceptos a manera de conjunto o categorías. Ej ¿qué tipos de drogas se venden más
en un barrio determinado de cierto lugar? ¿qué clase de problemas tubo al construir este
edificio?
 Preguntas de contraste. Al entrevistado se le cuestiona sobre similitudes y diferencias
respecto a símbolos o tópicos, y se le pide que clasifique símbolos en categorías. Ej.
¿cómo es el trato que recibe de las enfermeras del turno matutino, en comparación con
las enfermeras del turno vespertino o nocturno? ¿qué semejanzas y diferencias
encuentra?

14. Según Mertens (2005) ¿cómo clasifica los tipos de preguntas en las entrevistas
cualitativas? Las clasifica en seis tipos, las cuales se ejemplifican a continuación:
 De opinión: ¿cree usted que haya corrupción en el actual gobierno de…?, desde su
punto de vista, ¿cuál cree usted que es el problema en este caso…?, ¿qué piensa de
esto…?
 De expresión de sentimientos: ¿cómo se siente con respecto al alcoholismo de su
esposo?, ¿cómo describiría lo que siente sobre…?
 De conocimientos: ¿cuáles son los candidatos a ocupar la alcaldía de…?, ¿qué sabe
usted de las causas que provoca el mayor número de accidentes de tránsito en la
ciudad?
 Sensitivas (relativas a los sentidos): ¿qué género de música le gusta escuchar más
cuando se siente estresado?, ¿qué vio en la escena del crimen?
 De antecedentes: ¿ha sufrido antes estos dolores de cabeza?, ¿después de su
primer alumbramiento sufrió depresión posparto?
 De simulación: Suponga que usted es el alcalde de… ¿cuál sería el principal
problema que intentaría resolver?

15. ¿Qué recomendaciones se sugieren para realizar las entrevistas? Se sugieren las
siguientes:
 El entrevistador debe escuchar con atención y cuidado las respuestas. Interesa el
contenido y la narrativa de cada respuesta, ya que el experto es el mismo
entrevistado.
41

 Lograr naturalidad, espontaneidad y amplitud de respuestas.


 Generar un clima de confianza con el entrevistado y desarrollar empatía con él. Cada
situación es diferente y el entrevistador debe adaptarse a ella. Es importante que el
entrevistador hable de sí mismo para lograr confianza.
 Debe buscarse identificación con el entrevistado, compartir conocimientos y
experiencias y responder dudas, pero manteniendo su papel como investigador, y no
intentar convertirse en psicólogos o asesores personales.
 Se debe evitar elementos que obstruyan la conversación, tales como el timbre de
algún teléfono, el ruido de la calle, el humo de un cigarro, las interrupciones de
terceros, el sonido de un aparato o cualquier otra distracción. También es importante
que el entrevistado se relaje y mantenga un comportamiento natural. Nunca hay que
interrumpirlo, sino guiarlo con discreción.
 Es recomendable no brincar “abruptamente” de un tema a otro, aún en las entrevistas
no estructuradas ya que, si el entrevistado se enfocó en un tema, no hay que
perderlo, sino profundizar en el asunto.
 Es conveniente informar al entrevistado sobre el propósito de la entrevista y el uso
que se le dará a esta; algunas veces ello ocurre antes de la misma, y otras, después.
 La entrevista debe ser un diálogo y resulta importante dejar que fluya en el punto de
vista único y profundo del entrevistado. El tono tiene que ser espontáneo, tentativo,
cuidadoso y con cierto aire de “curiosidad2 por parte del entrevistador. Nunca
incomodar al entrevistado o invadir su privacidad. Evite sarcasmos; y si se equivoca,
admítalo.
 Es indispensable no preguntar de manera tendenciosa o induciendo la respuesta.
 No debe usar calificativos. Por ejemplo ¿piensa usted que el proceso de su divorcio
produce efectos negativos en sus hijos? Mejor sería preguntar ¿cómo cree que su
divorcio le va a afectar a sus hijos?
 Escuchar activamente, pedir ejemplos y hacer una sola pregunta a la vez
 Normalmente se efectúan primero las preguntas generales y luego las específicas.
Un orden que se sugiere es el siguiente: Preguntas generales y fáciles > Preguntas
complejas > Preguntas sensibles >Preguntas de cierre.
 El entrevistador tiene que demostrar interés en las reacciones del entrevistado al
proceso y a las preguntas, igualmente debe solicitar al entrevistado que señale
ambigüedades, confusiones y opiniones no incluidas.
 Cuando al entrevistado no le quede clara una pregunta, es recomendable repetirla;
del mismo modo, en el caso de que una respuesta no le resulte entendible o diáfana
al entrevistador, es conveniente solicitar que se le repita la respuesta para verificar
errores de comprensión.
 El entrevistador debe estar preparado para lidiar con emociones y exabruptos. Si
expresamos comentarios solidarios, debemos hacerlo de manera auténtica, ya que la
hipocresía o la manipulación de sentimientos no tienen cabida en la investigación.
 Cada entrevista es única y crucial, y su duración debe mantener un equilibrio entre
obtener la información de interés y no cansar al entrevistado.
 Siempre es necesario demostrarle al entrevistado la legitimidad, seriedad e
importancia del estudio y la entrevista.
 El entrevistado debe tener siempre la posibilidad de hacer preguntas y disipar sus
dudas. Es importante hacérselo saber.

16. ¿A qué se llaman sesiones en profundidad o grupos de enfoque?


Es un método de recolección de datos, que algunos autores la consideran como una especie
de entrevistas grupales, que consisten en reuniones de grupos pequeños o medianos (tres a
diez personas), en las cuales los participantes conversan en torno a uno o varios temas en
un ambiente relajado e informal, bajo la conducción de un especialista en dinámica de
grupos. El formato y la naturaleza de la sesión o sesiones dependen del objetivo y las
características de los participantes y el planteamiento del problema.
42

En esta técnica de recolección de datos, la unidad de análisis es el grupo (lo que expresa y
construye) y tiene su origen en las dinámicas grupales (lo que expresa y construye). Se
trabaja con estos grupos con relación a los conceptos, las experiencias, emociones,
creencias, categorías, sucesos o los temas que interesan en el planteamiento de la
investigación.

17. Señale los pasos a seguir para realizar las sesiones de grupo. Los autores del libro señalan
los siguientes pasos:
 Determinar un número provisional de grupos y sesiones que habrán de realizarse, el
mismo que se puede acortar o alargar de acuerdo con el desarrollo del estudio.
 Definir el tipo tentativo de personas (perfiles) que habrán de participar en la(s)
sesión(es). Regularmente durante la inmersión en el campo el investigador se va
percatando del tipo de personas adecuadas para los grupos; pero el perfil también
puede modificarse si la investigación así lo requiere.
 Detectar personas del tipo elegido.
 Invitar a estas personas a la sesión o las sesiones.
 Organizar la(s) sesión(es). Cada una debe efectuarse en un lugar confortable,
silencioso y aislado. Los participantes deben sentirse “a gusto”, tranquilos,
despreocupados y relajados. Asimismo, es importante planear cuidadosamente lo
que se va a tratar en la sesión o las sesiones (desarrollar una agenda) y asegurar los
detalles.
 Llevar a cabo cada sesión. El conductor debe ser una persona entrenada en el
manejo o la conducción de grupos, y tiene que crear un clima de confianza entre los
participantes. Debe ser un individuo que no sea percibido como “distante” por los
participantes de la sesión y que propicie la intervención ordenada de todos. Durante
la sesión se pueden solicitar opiniones, hacer preguntas, administrar cuestionarios,
discutir casos, intercambiar puntos de vista y valorar diversos aspectos. Es
importante que la sesión se grave en audio o video, para después realizar un análisis
de contenido y observación.
 Elaborar el reporte de sesión, el cual incluye principalmente:
o Datos sobre los participantes (edad, género, nivel educativo, y todo lo que se
considere relevante para el estudio)
o Fecha y duración de la sesión (hora de inicio y terminación)
o Información completa del desarrollo de la sesión, actitud y comportamiento de
los participantes hacia el conductor, y la sesión en sí, resultados de la sesión.
o Observaciones del conductor, así como la bitácora de la sesión. Es
prácticamente imposible que el guía tome notas durante la sesión, por lo que
estas pueden ser elaboradas por un investigador.

18. ¿A qué se llaman documentos, registros, materiales y artefactos utilizados para la


recolección de los datos cualitativos? Los documentos son registros escritos, algunos de
ellos privados, otros de dominio público. Los materiales se refieren a materiales audiovisuales
como fotografías, dibujos, cintas de audio, videos o combinados, etc. Los artefactos son artículos
creados o utilizados con ciertos fines.
Nos pueden ayudar a entender el fenómeno central de estudio. Le sirven al investigador
cualitativo para conocer los antecedentes de un ambiente, las experiencias, vivencias o
situaciones y su funcionamiento cotidiano.

19. ¿Cómo se utilizan como datos cualitativos estos documentos, registros, materiales y
artefactos? .- Individuales. Se utilizan los siguientes:
 Documentos escritos personales, los cuales son de tres tipos: 1) documentos o
registros preparados por razones oficiales, tales como certificado de nacimiento o de
matrimonio, licencias de conducir, cédulas profesionales, escrituras de propiedad,
estados de cuentas bancarias, etc. 2) documentos preparados por razones
43

personales, a veces íntimas, por ejemplo: cartas, diarios, manuscritos y notas; y 3)


documentos preparados por razones profesionales (reportes, libros, artículos
periodísticos, correos electrónicos, etc.) cuya difusión es generalmente pública..
 Materiales audiovisuales. Consistente en imágenes (fotografías, dibujos, tatuajes,
pinturas y otros), así como cintas de audio o video generadas por un individuo con un
propósito definido. Su difusión puede ser desde personal hasta masiva.
 Artefactos individuales. Artículos creados o utilizados con ciertos fines por una
persona, vasijas, ropa, herramientas, mobiliario, juguetes, armas, computadoras, etc.
 Archivos personales. Colecciones o registros privados de un individuo.

20. ¿Cómo se utilizan como datos cualitativos estos documentos, registros, materiales y
artefactos? .- Grupales. Se utilizan los siguientes:
 Documentos grupales. Documentos generados con cierta finalidad oficial por un
grupo de personas (como el acta constitutiva de una empresa para cubrir un requisito
gubernamental), profesional (una ponencia de un congreso), ideológica (una
declaración de independencia) u otros motivos.
 Materiales audiovisuales grupales. Imágenes, grafiti, cintas de audio o video, páginas
web, etc. Producidas por un grupo con objetivos oficiales, profesionales u otras
razones.
 Artefactos y construcciones grupales o comunitarias. Creados por un grupo para
determinados propósitos (desde una tumba egipcia, hasta una pirámide, un castillo,
un museo o una escultura colectiva).
 Documentos y materiales organizacionales. Memos, reporte, planes, evaluaciones,
cartas, mensajes en los medios de comunicación colectivas (comunicados de prensa,
anuncios, etc.), fotografías, publicaciones internas (boletines, revistas, etc.), avisos y
otros. Aunque algunos son producidos por una sola persona, incumben o afectan a
toda la institución.
 Registros en archivos públicos. En estos podemos encontrar muchos de los
documentos, materiales y artefactos mencionados en las otras categorías y otros
generados para fines públicos (catastros, registros de propiedad intelectual…). Los
archivos pueden ser gubernamentales (nacionales o locales) o privados (por ejemplo,
de fundaciones)
 Huellas, rastros, vestigios, medidas de erosión, o desgaste y de acumulación.

21. ¿Cómo se obtienen los datos provenientes de documentos, registros, materiales y


artefactos? Los diferentes tipos de materiales, documentos, registros y objetos pueden ser
obtenidos como fuente de datos cualitativos, bajo tres circunstancias:
 Solicitar a los participantes de un estudio que proporciones muestras de tales
elementos
 Solicitar a los participantes que los elaboren a los propósitos del estudio.
 Obtener los elementos para análisis, sin solicitarlos directamente a los participantes
(como datos no obstructivos)

22. ¿Qué debe hacer el investigador cualitativo con los documentos, registros, materiales y
artefactos? Depende en gran medida de cada estudio en particular. Pero hay cuestiones que
son necesarias. Lo primero es registrar la información de cada documento, artefacto, registro,
material u objeto (fecha y lugar de obtención, tipo de elemento, uso aparente que le dará en el
estudio, quién o quiénes lo produjeron –si hay forma de saberlo-). También integrarlo al material
que se analizará –si es eso posible- o bien, fotografiarlo o escanearlo, además de tomar notas
sobre éste. Por otro lado, es necesario cuestionar: ¿cómo se vincula el material o elemento con
el planteamiento del problema?
44

23. Sobre las biografías e historias de vida ¿qué cuestiones son importantes sobre esta
forma de recolección de datos? Algunas cuestiones que son importantes sobre esta forma de
recolección de datos son las siguientes:
 Las historias o biografías se construyen por lo regular mediante: a) la obtención de
documentos, registros, materiales y artefactos comentados anteriormente (en cualquiera
de sus modalidades: solicitud de muestras, petición de elaboración u obtención por
cuenta del investigador) y b) por medio de entrevistas en las cuales se pide a uno o
varios participantes que narren sus experiencias de manera cronológica, en términos
generales o sobre uno o más aspectos específicos (laboral, educativo, sexual, de relación
marital, etc.)
 El entrevistador solicita al participante una reflexión retrospectiva sobre sus experiencias
en torno a un tema o aspecto (o de varios). Durante la narración del individuo se le
solicita que se explaye sobre los significados, las vivencias, los sentimientos, y las
emociones que percibió y vivió en cada experiencia; asimismo, se le pide que realice un
análisis personal de las secuencias, las secuelas, los efectos o las situaciones que
siguieron a dichas experiencias.
 El entrevistador –de acuerdo con su criterio- solicita detalles y circunstancias de las
experiencias, para vincularla con la vida del sujeto. Las influencias, interrelaciones con
otras personas y el contexto de cada experiencia, ofrecen una gran riqueza de
información.
 Este método requiere que el entrevistador sea un hábil conversador y que sepa llegar a
los aspectos más profundos de las personas. Los conceptos vertidos sobre la entrevista
se aplican a este método.
 El investigador pone atención al lenguaje y estructura de cada historia y la analiza tanto
de manera holística (como un “todo”) como por sus partes constitutivas.
 Asimismo, se considera lo que permanece del pasado (secuelas y alcance actual de la
historia).
 Es importante describir los hechos que ocurrieron y entender a las personas que los
vivieron, así como los contextos en los cuales estuvieron inmersos.
 Si la historia está vinculada con un hecho específico (una guerra, una catástrofe, un
triunfo) Y cuanto más cerca haya estado el participante de los eventos, entonces más
información aportará sobre estos.
 Debemos tratar de establecer (en relación con el punto anterior) cuanto tiempo pasó
entre el evento o suceso descrito y el momento de rememoración o recreación, o bien,
cuando lo escribió.
 El investigador debe tener cuidado con algo que suele suceder en as historias: los
participantes tienden a magnificar sus papeles en ciertos sucesos, así como a tratar de
distinguir lo que es ficción de lo que es real (Stuart, 2005).
 El significado de cada vivencia o experiencia resulta central.
 Recordar que la historia puede ser de vida (todas las experiencias de una persona a lo
largo de su existencia, por ejemplo, la vida completa de un sacerdote cristero hasta su
fusilamiento o de una mujer exitosa en el campo profesional) o de experiencia (uno o
varios episodios, por ejemplo, la experiencia vivida por una o varias víctimas de
secuestro o la de una profesora que ha trabajado con diferentes sistemas educativos).
 El o los participantes son el centro del estudio.
 Obtener la cronología de sucesos es importante.
 Las historias son los datos y se les denomina “textos de campo” (Creswell, 2005).
 Las historias son contadas por el participante, pero la estructuración y narración final
corresponden al investigador.
 Es muy necesario que el investigador vaya más allá de lo anecdótico.
 Cuando se revisen documentos traducidos transcritos resulta fundamental evaluar quién
realizó tal labor.
 En las biografías y las historias de vida, el investigador debe obtener datos completos y
profundos sobre cómo ven los individuos los acontecimientos de sus vidas y a sí mismos:
45

En las historias de vida y biografías es esencial tener fuentes múltiples de datos (si son
más, mucho mejor).
 La tarea final en la recolección de datos por medio de las historias y biografías es
“ensamblar” los datos provenientes de diferentes fuentes.
 Para construir tal ensamblaje, un esquema pude ser el siguiente: Contexto > Secuencia
de hechos > Actores > Causas > Efectos > Conclusiones y aprendizajes.

TÉCNICAS DE LA INVESTIGACIÓN

TEMA 8: ANÁLISIS DE LOS DATOS CUALITATIVOS

1. ¿En qué consiste el análisis de los datos cualitativos?

En el proceso cualitativo el análisis y la recolección ocurren prácticamente en paralelo. La


característica de este tipo de análisis, es que no es estándar, ya que cada estudio requiere de un
esquema propio de análisis, por lo tanto, no se sigue un patrón definido para su análisis, y lo
más que se hace es sugerir un proceso de análisis, que más bien son directrices y
recomendaciones, que cada investigador podrá adoptar o no de acuerdo con las circunstancias y
naturaleza del estudio en particular, y que poseen características propias.

2. ¿Qué características definen la naturaleza del análisis cualitativo?

Algunas características son las siguientes:

a. El proceso esencial del análisis consiste en que recibimos datos no estructurados y los
estructuramos.
b. Los propósitos centrales del análisis cualitativo son:
i. Darles estructura a los datos (Patton, 2002), lo cual implica organizar las
unidades, las categorías, los temas y los patrones (Grinnell, 1997)
ii. Describir las experiencias de las personas estudiadas bajo su óptica, en su
lenguaje y con sus expresiones.
iii. Comprender en profundidad el contexto que rodea los datos.
iv. Interpretar y evaluar unidades, categorías, temas y patrones.
v. Explicar ambientes, situaciones, hechos, fenómenos.
vi. Reconstruir historias.
vii. Encontrar sentido a los datos en el marco del planteamiento del problema.
viii. Relacionar los resultados del análisis con la teoría fundamentada o construir
teorías
c. El logro de tales propuestas es una labor paulatina. Para cumplirlos debemos organizar y
evaluar grandes volúmenes de datos recolectados (generados), de tal manera que las
interpretaciones surgidas en el proceso se dirijan al planteamiento del problema.
d. Una fuente importantísima que se agrega al análisis la constituyen las impresiones,
percepciones, sentimientos y experiencias del investigador (en forma de anotaciones o
registradas por un medio electrónico).
e. La interpretación que se haga de los datos diferirá de la que podían realizar otros
investigadores; lo cual no significa que una interpretación sea mejor que otra, sino que
cada quien posee su propia perspectiva.
f. El análisis es un proceso ecléctico (que concilia diversas perspectivas) y sistemático,
mas no rígido ni mecánico.
g. Como cualquier tipo de análisis, el cualitativo es contextual.
h. No es un análisis “paso a paso”, sino que involucra estudiar cada “pieza” de los datos en
sí misma y en relación con las demás.
i. Es un camino con rumbo, pero no en “línea recta”, continuamente nos movemos de “aquí
para allá", vamos y regresamos entre los primeros daos recolectados y los últimos, los
46

interpretamos y les encontramos significado, lo cual permite ampliar la base de datos


conforme es necesario, hasta que construimos un significado para el conjunto de los
datos.
j. Más que seguir una serie de reglas y procedimientos concretos sobre cómo analizar los
dato, el investigador construye su propio análisis. La interacción entre la recolección y el
análisis nos permite mayor flexibilidad en la interpretación de los datos y adaptabilidad
cuando elaboramos las conclusiones.
k. El investigador analiza cada dato (que por sí mismo tiene un valor), deduce similitudes y
diferencias con otros datos.
l. Los segmentos de datos son organizados en un sistema de categorías.
m. Los resultados del análisis son síntesis de “alto orden” que emergen en la forma de
descripciones, expresiones, temas, patrones, hipótesis y teoría.
Cuando después de analizar múltiples casos ya no encontramos información novedosa
(“saturación), el análisis concluye. En cambio, si se encuentran inconsistencias o falta de
claridad en el entendimiento del problema planteado, se regresa al campo o contexto para
recolectar más datos.

3. ¿Qué reflexiones e impresiones se realizan durante la inmersión inicial


Durante la inmersión el investigador realiza diversas observaciones del ambiente, las cuales,
junto con sus impresiones, las anota en la bitácora de campo. Asimismo, el investigador platica
con integrantes del ambiente (algunos de ellos potenciales participantes), recaba documentos y
otros materiales y -en fin- realiza diversas actividades para comenzar a responder al
planteamiento de su problema de investigación. Con base en estos primeros datos, el
investigador -diariamente- reflexiona y evalúa su planteamiento (se hace preguntas, tales como:
¿es lo que tengo en mente?, ¿el planteamiento refleja el fenómeno que quiero estudiar?, ¿el
planteamiento es adecuado?, ¿debo mantenerlo o modificarlo?) y lo ajusta de acuerdo con sus
propias consideraciones. También analiza si el ambiente y la muestra son pertinentes en
relación con su planteamiento y hace los cambios que crea necesarios. Como producto de las
reflexiones empieza a esbozar conceptos clave que ayudan a responder al planteamiento y
entender los datos (que se relaciona con qué, qué es importante, qué se parece a qué, etc.).

4. ¿Qué reflexiones e impresiones se realizan durante la inmersión profunda


Este proceso reflexivo se mantiene conforme se recolectan más datos (¿qué me dice esto?,
¿qué significa esto otro?, ¿por qué ocurre aquello?). Las observaciones se van enfocando para
responder al planteamiento, las pláticas son cada vez más dirigidas y las anotaciones más
complejas. En ocasiones esto depende de la investigación en particular, se hacen las primeras
entrevistas, observaciones con una guía, sesiones de grupos y recolección de materiales y
objetos. Se reevalúa el planteamiento del problema, ambiente y muestra (unidades o casos). Se
comparan nuevos datos con los primeros (¿en qué son similares, en qué son diferentes?, ¿cómo
se vinculan? ¿qué conceptos clave se consolidan?, ¿qué otros nuevos conceptos aparecen?).
De manera inductiva y paulatina, emergen categorías iniciales, significados, patrones,
relaciones, hipótesis iniciales y principios de teoría.

5. ¿En qué consiste el análisis detallado de los datos


Una vez obtenidos los datos mediante al menos tres fuentes: observación del ambiente, bitácora
(anotaciones de distintas clases) y recolección enfocada (entrevistas, documentos, observación
más específica, sesiones, historias de vida, materiales diversos), y luego de haber realizado
reflexiones y análisis de datos tenemos un sentido de entendimiento, y seguimos generando
más datos (cuya recolección como se ha mencionado, es flexible, pero regularmente enfocada).
La mayoría de las veces contamos con grandes volúmenes de datos, y nos preguntamos ¿qué
hacer con estos datos?; es necesario realizar un análisis detallado de los datos. El
47

procedimiento más común de análisis específico es la parte de la denominada teoría


fundamentada, lo cual significa que la teoría (hallazgos) va emergiendo fundamentada en los
datos. El proceso no es lineal. Una vez más, sabemos dónde comenzamos (las primeras tareas),
pero no donde habremos de terminar (vamos y regresamos) y en ocasiones es necesario
regresar al campo por más datos enfocados (más entrevistas, documentos, sesiones y otros
tipos de datos)

6. ¿En qué consiste la organización de los datos y la información


Dado el amplio volumen de datos, estos deben encontrarse muy bien organizados. Asimismo,
debemos planear qué herramientas vamos a utilizar (hoy en día la gran mayoría de los análisis
se efectúa mediante la computadora, al menos un procesador de textos). Ambos aspectos
dependen del tipo de datos que hayamos generado. Pudiera ser que solamente tuviéramos
datos escritos, por ejemplo: anotaciones escritas a mano y documentos, en este caso podemos
copiar las anotaciones en un procesador de textos, escanear los documentos y archivarlos en el
mismo procesador. Si tenemos únicamente imágenes y anotaciones escritas, las primeras se
escanean o transmiten a la computadora y las segundas se copian o escanean.

Cuando se tiene grabaciones de audio y video producto de entrevistas y sesiones, debemos


transcribirlas para hacer un análisis exhaustivo del lenguaje (aunque algunos pueden decidir
analizar directamente los materiales), la mayoría de los autores sugieren trascribir y analizar las
transcripciones, además de analizar directamente los materiales visuales y auditivos (con la
ayuda de trascripciones). Todo depende de los recursos de que se dispongan y del equipo de
investigadores con el que se cuente.

7. ¿Qué actividades implica la organización de los datos y la información?


La primera actividad es volver a revisar todo el material (explorar el sentido general de los datos)
en su forma original (notas escritas, grabaciones en audio, fotografías, documentos, etc.). En
esta revisión comenzamos a escribir una segunda bitácora (distinta a la de campo), la cual suele
denominarse bitácora de análisis y cuya función es documentar paso a paso el proceso analítico.
Durante tal revisión debemos asegurar que el material esté completo y posea la calidad
necesaria para ser analizado; en caso de que no sea así (grabaciones que no se entienden,
documentos que puedan leerse), es preciso realizar las mejoras técnicas posibles.

La segunda es transcribir los materiales de entrevistas y sesiones (anotaciones y lo que haga


falta). Ciertamente esta es una tarea compleja que requiere de paciencia. Por ejemplo, una hora
de entrevista resulta aproximadamente de 30 a 50 páginas de texto. Y lleva más o menos 3 a 4
horas transcribir una hora de audio o video.

La tercera que ocurre luego de transcritos los materiales (mediante el debido equipo), es volver
a explorar el sentido general de los datos, revisar todos, ahora procesados (incluso
anotaciones), en particular si varios investigadores los recolectaron. De cualquier manera, ayuda
a recordar casos y vivencias en el campo.

La cuarta actividad es organizar los datos, mediante algún criterio o varios criterios que creamos
más convenientes (cuestión que es relativamente fácil si se recolectaron los datos, se reflexionó
sobre ellos y se han revisado en diversas ocasiones)

8. ¿Qué recomendaciones se tienen sobre las transcripciones?


Referente a las transcripciones se recomienda lo siguiente:
48

 Se sugiere por ética observar el principio de confidencialidad. Esto puede hacerse al


sustituir el nombre verdadero de los participantes por códigos, números, iniciales, apodos
u otros nombres. Lo mismo debe hacerse para el reporte de resultados.}
 Utilizar un formato con márgenes amplios (por si queremos hacer anotaciones o
comentarios).
 Separar las intervenciones (cuando menos con doble espacio). Por ejemplo, en
entrevistas, las intervenciones del entrevistador y del entrevistado; en sesiones, la
intervención del conductor y da cada participante (cada vez que alguien interviene),
además señalar quien realiza la participación, es decir cuando comienza y termina cada
pregunta y respuesta.
 Transcribir todas las palabras, sonidos y elementos paralingüísticos: muecas¸
interjecciones, expresiones propias de la cultura de las personas o del lugar (tales como
¡oh!, ¡mmm!, ¡eh!, y demás).
 Indicar pausas (pausa) o silencios (silencio); expresiones significativas (llanto, risa, golpe
en la mesa); sonidos ambientales (timbró el teléfono móvil, se azotó la puerta); hechos
que se deduzcan (entró alguien); cuando no se escucha (inaudible), etc. Se trata de
incluir el máximo de información posible.
 Si vamos a analizar línea por línea (cuando esta va a ser la unidad de análisis), numerar
todos los renglones (cuestión que pueden hacer automáticamente los procesadores de
texto y los programas de análisis cualitativo.

9. ¿Qué criterios son tomados en cuenta para organizar los datos?


Son tomados en cuenta los siguientes criterios:

1 Cronológico (por ejemplo, colocar el orden en que fueron recolectados: por día y bloque -día,
mañana y tarde-).
2 Por sucesión de eventos (antes, ese instante, después).
3 Por tipo de datos: entrevistas, observaciones, documentos, fotografías, artefactos.
4 Por grupo o participante (por ejemplo: Marcela, Lupe, Roberto, Paola, ….; mujeres y
hombres; médicos, enfermeras, paramédicos, pacientes).
5 Por ubicación del ambiente (centro, cercanía, lejanía, periferia)
6 Por tema (por ejemplo, si hubo sesiones donde la discusión se centró en el tema de la
seguridad en el hospital, mientras que en otras lo fue la calidad en la atención, en algunas
más la problemática emocional de los pacientes).
7 Importancia del participante (testimonios de actores clave, testimonios de actores
secundarios).
8 Otros que se crean convenientes.
A veces los datos se organizan mediante varios criterios progresivos; por ejemplo, primero por
tipo (transcripciones de entrevistas y anotaciones), y luego estas últimas por la clase de notas (la
de observación, interpretativas, temáticas, personales y de reactividad); o criterios cruzados
(combinaciones).

En el caso de documentos, materiales, artefactos, grabaciones, etc., es conveniente elaborar un


listado o relación que los contenga a todos (con número, fecha de realización, fecha de
transcripción y aquellos otros datos apropiados). Además no debemos olvidar respaldar todo
documento en al menos dos fuentes (de las fotografías y grabaciones tener una copia adicional).

10. ¿Cuál es la función y que contiene la bitácora de análisis


Tiene la función de documentar el procedimiento de análisis y las propias reacciones del
investigador al proceso. Resulta ser un instrumento invaluable para la validez y confiabilidad del
análisis y contiene fundamentalmente:
49

 Anotaciones sobre el método utilizado (se describe el proceso y cada actividad realizada,
por ejemplo: ajuste a las codificaciones, problemas y la forma cómo se resolvieron).
 Anotaciones respecto a las ideas, conceptos, significados, categorías e hipótesis que van
surgiendo del análisis.
 Anotaciones en relación con la credibilidad y verificación del estudio, para que cualquier
otro investigador pueda evaluar su trabajo (información contradictoria, razones por las
cuales se procede de una u otra forma).
Cuando se realiza la codificación o categorización de los datos, pueden surgir interrogantes,
ideas, hipótesis y conceptos que nos comiencen a ilustrar en torno al planteamiento del
problema, por lo que resulta indispensable escribirlos para que no olvidemos cuestiones
importantes. Las notas nos ayudan a identificar unidades y categorías de significado. Es una
estrategia útil para organizar los procedimientos analíticos.

Para las anotaciones, que suelen también llamarse “memos analíticos” que documenta
decisiones o definiciones hechas al momento de analizar los datos. Desde cómo surge
una categoría hasta el código que se le asigna o el establecimiento de una regla de
codificación, Strauss y Corbin (1998) sugieren:

 Registrar la fecha de anotación o “memo” (memorándum).


 Incluir cualquier referencia o fuente importante (por ejemplo, si consultamos con un
colega, quién es el, su afiliación institucional y su comentario).
 Marcar los memos con encabezados que sinteticen la idea, categoría o concepto
señalado.
 No restringir el contenido de los memos o anotaciones, permitirnos el libre flujo de ideas.
 Identificar el código en particular al cual pertenece el memo.
 Usar diagramas, esquemas y matrices (u otra clase de síntesis analítica) en los memos
para explicar ideas, hipótesis y conceptos.
 Cuando uno piense que una categoría o concepto haya sido lo suficientemente
definida(o), crear un memo (adicionalmente, distinguirlo y etiquetarlo con la palabra
“saturación”).
 Registrar las reflexiones en memos que ayuden a pasar de un nivel descriptivo a otro
interpretativo.
 Guardar una copia de todos los memos.
Los memos analíticos se elaboran con fines de triangulación o auditoría entre investigadores,
para que otras personas puedan ver lo que hicimos y cómo lo hicimos (Coleman y Unrau, 2005).

La bitácora se escribe diariamente (anotando la fecha) y cada investigador sigue su propio


sistema para llenarla. Grinnell (1997) siguiere el siguiente esquema:

1. Memos, anotaciones o comentarios acerca del método de análisis.


2. Memos sobre los problemas durante el proceso.
3. Memos en relación con la codificación.
4. Memos respecto a ideas y comentarios de los investigadores (incluyendo diagramas, mapas
conceptuales, dibujos, esquemas, matrices).
5. Memos sobre el material de apoyo localizado 8fotografías, videos, etc.).
6. Memos relacionados con significados, descripciones y conclusiones preliminares.

11. ¿Cuáles son los planos o niveles utilizados en la codificación


La codificación tiene dos planos o niveles: en el primero se codifican las unidades en categorías;
en el segundo, se comparan las categorías entre sí para agruparlas en temas y buscar posibles
vinculaciones.

12. ¿En qué consiste cada uno de estos niveles de codificación


50

El primer plano o nivel es una combinación de varias acciones: identificar unidades de


significado, categorizarlas y asignarles códigos a las categorías. A diferencia de la codificación
cuantitativa, donde una unidad constante era ubicada en un sistema de categorías, en la
codificación cualitativa el investigador considera un segmento de contenido (no siempre
estándar), lo analiza (se cuestiona: ¿qué significa este segmento?, ¿a qué se refiere?, ¿qué me
dice?); toma otro segmento, también lo analiza, compara ambos segmentos y los analiza en
términos de similitudes y diferencias (¿qué significado tiene cada uno?, ¿qué tienen en común?,
¿en qué difieren?, ¿me dicen lo mismo o no?). Si los segmentos son distintos en términos de
significado y concepto de cada uno induce una categoría (o bien, considera que no posee un
significado para el planteamiento), si son similares induce una categoría común. Considera un
tercer segmento, el investigador lo analiza conceptualmente y en términos de significado; del
mismo modo, lo contrasta con los dos anteriores, evalúa similitudes y diferencias, induce una
nueva categoría o lo agrupa con los otros. Considera un cuarto segmento, repite el proceso, y
así, sucesivamente (a este proceso se lo denomina “comparación constante”). El investigador va
otorgando significados a los segmentos y descubriendo categorías. A cada una de estas se le
asigna un código.

En la codificación cualitativa los códigos surgen de los datos (más precisamente de los
segmentos de datos). Como señala Esterberg (2002); los datos van mostrándose y los
“capturamos” en categorías. Usamos la codificación para comenzar a revelar significados
potenciales y desarrollar ideas, conceptos e hipótesis; vamos comprendiendo lo que sucede con
los datos (empezamos a generar un sentido de entendimiento respecto al planteamiento del
problema). Los códigos son etiquetas para identificar categorías, es decir, describen un
segmento de texto, imagen, artefacto u otro material.

Cuando consideramos que un segmento es relevante (en términos de planteamiento, de


representatividad de lo que expresan los participantes, de importancia a juicio del investigador)
podemos extraerlo como un potencial ejemplo de la categoría o de los datos.

Conforme el investigador revisa nuevos segmentos de datos y vuelve a revisar los anteriores
segmentos (comparación constante), continúa “conectando conceptualmente” unidades y genera
más categorías o consolida las anteriores.

El segundo plano es más abstracto y conceptual que el primero e involucra describir e


interpretar el significado de las categorías (en el primer plano interpretamos el significado de las
unidades). Para tal propósito, Berg (2004) recomienda recuperar al menos tres ejemplos de
unidades para soportar cada categoría. En un procesador de textos se recuperan los segmentos
con las funciones de “cortar” y “pegar” (los programas computacionales de análisis cualitativo
tienen una forma específica para hacerlo). Esta actividad nos conduce a examinar las unidades
dentro de las categorías, las cuales se disocian de los participantes que las expresaron o de los
materiales de donde surgieron. Cada categoría es descrita en términos de su significado (¿a qué
se refiere la categoría?, ¿cuál es su naturaleza y esencia?, ¿qué nos “dice” la categoría?, ¿cuál
es su significado?) y ejemplificada con segmentos.

Asimismo, comenzamos a comparar categorías (tal como lo hicimos con las unidades),
identificando similitudes y diferencias entre ellas y consideramos vínculos posibles entre
categorías. La recuperación de unidades, además de ayudar en la comprensión del significado
de la categoría, nos sirve para los contrastes entre categorías. El centro del análisis se mueve
del contexto del dato al contexto de la categoría (Coleman y Unrau, 2005).

13. ¿Qué es la confiabilidad cualitativa o dependencia


La confiabilidad cualitativa se denomina dependencia o consistencia lógica (Guba y Lincoln,
1989; Sandín, 2003); aunque Mertens (2005) considera más bien que equivale al concepto de
estabilidad. Franklin y Ballau (2005) la definen como el grado en que diferentes investigadores
51

que recolectan datos similares en el campo y efectúen los mismos análisis, generen resultados
equivalentes. Para estos autores, los datos deben ser revisados por distintos investigadores y
estos deben arribar a interpretaciones coherentes. De ahí surge la necesidad de gravar los datos
(entrevistas, sesiones, observaciones, etc.). La “dependencia” involucra los intentos de los
investigadores por capturar las condiciones cambiantes de sus observaciones y el diseño de
investigación (Franklin y Ballau, 2005). Ellos consideran dos clases de dependencia:

a) Interna (grado en el cual diversos investigadores, al menos dos, generan temas similares con
los mismos datos).
b) Externa (grado en que diversos investigadores generan temas similares en el mismo
ambiente y periodo, pero cada quien recaba sus propios datos).
En ambos casos ese grado no se expresa por medio de un coeficiente, simplemente se trata de
verificar la sistematización en la recolección y análisis cualitativo.

Las amenazas a la confiabilidad cualitativa pueden ser, básicamente los sesgos que pueda
introducir el investigador en la sistematización durante la tarea en el campo y el análisis

14. ¿Qué medidas puede adoptar el investigador para incrementar la dependencia


Según Franklin y Ballau (2005), algunas de estas son:

› Examinar las respuestas de los participantes a través de preguntas “paralelas” o


similares (preguntar lo mismo de dos formas distintas)
› Establecer procedimientos para registrar sistemáticamente las notas de campo y
mantener separadas las distintas clases de notas.
› Incluir chequeos cruzados (codificaciones del mismo material por dos investigadores)
para comparar las unidades, categorías y temas producidos por ambos de manera
independiente.
› Introducir auditoría externa (forma de triangulación entre investigadores y sistemas de
análisis.
› Demostrar coincidencia de los datos entre distintas fuentes.
› Chequeo con participantes: verificar con los participantes el proceso de recolección de
los datos y la codificación (unidades, categorías, temas, hipótesis y teoría emergentes).
› Establecer cadenas de evidencia (conectar los sucesos mediante diferentes fuentes de
datos).
› Duplicar muestras, es decir realizar el mismo estudio en dos o más ambientes o
muestras homogéneas y comparar resultados de la codificación y el estudio.
› Aplicar coherentemente un método (por ejemplo, teoría fundamentada).
› Utilizar un programa computacional de análisis que:
› Permita construir una base de datos que pueda ser analizada por otros
investigadores
› Nos auxilie al codificar y establecer reglas.
› Proporcione conteo de códigos.
› Nos ayude en la generación de hipótesis, mediante distintos sistemas lógicos.
› Provea de representaciones gráficas que no permitan entender relaciones entre
conceptos, categorías y temas, así como a generar teoría.
› Elaborar un listado de los prejuicios, creencias y concepciones del investigador respecto
al problema de estudio.

15. ¿En qué consiste la validez interna o credibilidad, y cómo se logra esta
Se refiere a si el investigador ha captado el significado completo y profundo de las experiencias
de los participantes, particularmente de aquellas vinculadas con el planteamiento del problema.
La pregunta a responder es: ¿Hemos recogido, comprendido y transmitido en profundidad y con
amplitud los significados, vivencias y conceptos de los participantes?
52

La credibilidad de estudio mejora con la revisión y discusión de los resultados con pares o
colegas. Según Franklin y Ballau (2005) la credibilidad se logra mediante:

a) Corroboración estructural: proceso mediante el cual varias partes de los datos


(categorías, por ejemplo), se “soportan conceptualmente” entre sí (mutuamente). Implica reunir
los datos e información emergentes para establecer conexiones o vínculos que eventualmente
crean un “todo” cuyo soporte son las propias piezas de evidencia que lo conforman.

b) Adecuación referencial: un estudio la posee cuando nos proporciona cierta habilidad


para visualizar características que se refieren a los datos y que no hemos notado por nosotros
mismos.

16. ¿Qué medidas puede adoptar el investigador para incrementar la credibilidad


Franklin y Ballau (2005) y Mertens (2005) señalan las siguientes medidas:

1. Estancias prolongadas en el ambiente o campo.


2. Muestreo dirigido intencional.
3. Triangulación: Primero triangulación de teorías o disciplinas y Segundo, triangulación de
métodos.
4. Auditorias de colegas o su asesoría (al igual que para la dependencia)
5. Comparar la teoría, para reflexionar más sobre el significado de los datos.
6. Chequeo con participantes: verificar con los participantes la riqueza de los datos y las
interpretaciones.
7. Utilizar la lógica para probar nuestras nociones mediante expresiones del tipo “Si….,
luego…” Esto ayuda a recordarnos lo que merece atención y formular proposiciones
causales.
8. Usar descripciones detalladas, profundas y completas; pero nítidas y sencillas. 9
Demostrar que cada caso fue reconstruido para su análisis. El listado de los prejuicios,
creencias y concepciones del investigador también ayuda en este caso.

17. ¿Qué es la transferencia


Llamada también validez externa cualitativa o aplicabilidad de resultados; este criterio no se
refiere a generalizar los resultados a una población más amplia, sino que parte de estos o su
esencia pueda aplicarse a otros contextos.

Sabemos que es muy difícil que el resultado de un estudio cualitativo en particular pueda
transferirse a otro contexto, pero en ciertos casos nos puede dar pautas para tener una idea en
general del problema estudiado y la posibilidad de aplicar ciertas soluciones a otro ambiente.

18. ¿Qué es la confirmabilidad


La confirmabilidad no es más que la objetividad de los estudios cuantitativos. Este criterio está
vinculado a la credibilidad y se refiere a demostrar que hemos minimizado los sesgos y
tendencias del investigador. Implica rastrear los datos en su fuente y la explicación de la lógica
utilizada para interpretarlos.

Las estancias prolongadas en el campo, la triangulación, la auditoría, el chequeo con


participantes y el listado de los prejuicios, creencias y concepciones del investigador, nos
ayudan a proveer información sobre la confirmabilidad.

Tema 9: Diseños de investigación cualitativa

1. ¿Cuáles son los diseños de investigación cualitativa?


2. ¿A qué se llaman diseños de teoría fundamentada; cuál es su propósito y qué procedimientos utiliza?
3. Explique en qué se basa el diseño sistemático
4. Describa todo lo referente a la teoría fundamentada
53

5. Explique todo lo referente al diseño emergente


6. ¿Qué son los diseños etnográficos; qué estudian y cuál es su propósito?
7. Enuncie las diversas clasificaciones de los diseños etnográficos
8. ¿A qué se llaman diseños narrativos?
9. ¿Cuáles son las principales acciones para llevar a cabo un estudio narrativo?
10. ¿A qué se llaman diseños de investigación acción?
11. ¿Cuáles son las principales acciones para llevar a cabo la investigación acción?
12. Indique qué otros diseños cualitativos se conocen

También podría gustarte