Está en la página 1de 99

OM

Metodología
general de la
.C
DD
investigación
LA
FI


Este archivo fue descargado de https://filadd.com


Índice

Módulo 1

Marradi- Metodología de las Ciencias Sociales. Cap. 3- método, metodología y técnica….pág3


Cap. 1 “Tres aproximaciones a la Ciencia”…………..pág. 5
Cap. 2 “Los debates metodológicos…. contemporáneos”...................pág. 7
Bourdieu- El oficio de sociólogo. “La construcción del objeto”....................pág. 11

Marradi- Metodología de las Ciencias Sociales. Cap. 5 “El diseño de la

OM
investigación”....................pág.14

Hernández Sampieri- Metodología de la Investigación. Cap. 2 "Nacimiento de un proyecto de


investigación cuantitativa, cualitativa o mixta: la idea"....................pág.17

.C
Módulo 2

Marradi- Metodología de las Ciencias Sociales. Cap. 6 “Concepto de objeto y de unidades de


análisis. Población y muestra”; Cap. 7 “Conceptos de propiedades. Variables, fidelidad y
DD
fiabilidad”...................pág. 28
Runyon- Estadística para las Ciencias Sociales. Cap 1 “Definición de análisis
estadístico”....................pág. 23
Hernández Sampieri- Metodología de la Investigación. Caps. 3,5,7,8,9....................pág. 24
LA

Briones, Guillermo- Cap. 3. Instituto Colombiano para el fomento de la Educación Superior,


ICFES....................pág. 59
Bibliografía ampliatoria:
FI

Marradi- Metodología de las Ciencias Sociales. Cap. 8 “Clasificación, conteo, medición,


construcción de escalas”; Cap. 9 “Indicadores, validez, construcción de índices”; Cap. 11 “El
sondeo”....................pág. 63


Módulo 2.1
Taylor, S. J.; Bogdan, R.- Introducción a los métodos cualitativos de investigación. Cap. 1:
“Introducción. Ir hacia la gente”....................pág. 77
Hernández Sampieri- Metodología de la Investigación. Caps. 12,15....................pág. 80
Bibliografía ampliatoria:

 Marradi- Metodología de las Ciencias Sociales. Cap. 10 “La observación”; Cap. 12 “La
entrevista en profundidad”; Cap. 13 “Focus Group y otras formas de entrevista grupal”; cap.
14 “Estudios de caso/s”....................pág. 85

Este archivo fue descargado de https://filadd.com


Módulo 1

Capítulo 3: Método, metodología, técnicas. Marradi

Al término método se le atribuyen significados diferentes. Una de ellas es que el método es


el camino para conseguir un fin. En el lenguaje científico encontramos método como
procedimiento, técnica.

OM
La visión científica del método. Descartes proclama el papel central del método en la actividad
intelectual, señalado también por Francis Bacon.

La idea de un programa que establece con anticipación una serie no modificable de operaciones
que, de ser practicadas, garantizan el conocimiento científico sobre cualquier argumento, es todavía
hoy uno de los significados que prevalece a la expresión “método científico”.

.C
Una descripción puntual del método hipotético deductivo es la siguiente:

1. Se define el problema
2. El problema se formula en los términos de un particular cuadro teórico
DD
3. Se imaginan una o más hipótesis, utilizando los principios teóricos ya aceptados
4. Se termina el procedimiento a utilizar en la recolección de datos para controlar la hipótesis
5. Se recolectan los datos
6. Se analizan los datos para averiguar si la hipótesis es verificada o rechazada
LA

Críticas a la visión clásica

No todos están de acuerdo. Dalton presume que el método científico es la única via hacia el
conocimiento; sin embargo Becker se pregunta si el método afronta realmente todo el espectro de
cuestiones metodológicas relevantes. Mokrzvcki sostiene que el método científico esta fuera de la
sociología. Las diferentes reacciones están relacionadas con un período, en donde la orientación
FI

científica dominaba en las ciencias sociales: se sostenía no solo que la ciencia tiene un solo método,
sino que se trata de un método santificado por los éxitos de las ciencias físicas. En los años
siguientes, esta idea de unidad del método ha sido criticada.


Una segunda línea crítica señala el peligro de que una particular serie de conocimientos,
identificada como el método científico, se reifique y se vuelva un fin en si. SI el criterio es el
respeto a un sistema de reglas, incluso una guía telefónica es una buena investigación científica.
Son muchos los que se refieren al método como una elección. Es en la toma de decisiones donde
consiste la investigación científica. El método es, por lo tanto, mucho más complejo que una simple
secuencia unidimensional de pasos.

Método y metodología.El uso de método/métodos en el sentido de técnica/técnicas ha sido y es


endémico en las disciplinas más orientadas a la investigación empírica, que están mas
frecuentemente en contacto con instrumentos operativos. Los métodos son “más nobles y
generales” que las técnicas.

Se ha hablado de la indebida expansión semántica del término método, pero un abuso todavía más
grave lo sufre el término “metodología”. El sufijo “logia” esta utilizado en el sentido de “discurso

Este archivo fue descargado de https://filadd.com


sobre”, por lo tanto, metodología debería ser el discurso, estudio, reflexión sobre el método. En la
investigación social norteamericana se ha generado la costumbre de llamar “methodology” a la
técnica.

Sobre la metodología se discute si ella debe ser una disciplina prescriptiva o descriptiva. La
contraposición descriptivo/prescriptivo encuentra un paralelo en la discusión entre los dos
significados que el término metodología tiene en el lenguaje corriente de la investigación social,
significado que corresponde a los dos roles del metodólogo profesional. Cuando estudia y enseña,
un metodólogo debe tener una orientación descriptiva, es decir, debe estar abierto a aprender de las
experiencias de otros investigadores evaluándolas sin preconceptos, y dispuesto a referir en modo
sistemático y sintético aquello que ha aprendido. Cuanto utiliza sus propias competencias,
capacidad y experiencia al servicio de una investigación, suya o de otros, el metodólogo no puede

OM
ser otra cosa que prescriptivo, en cuanto que debe elegir los instrumentos a utilizar y como
utilizarlos.

Las técnicas. También deriva del griego. Designa una capacidad artística, no aquella individual e
irrepetible, sino aquella más doméstica del artesano, transmisible de padre a hijo. En un segundo
significado, una técnica se sirve del conocimiento adquirido por las ciencias sobre la realidad para
modificar algunos aspectos de ésta. En un tercer significado, es una ciencia la que se sirve de

.C
técnicas para conocer mejor algún aspecto de su objeto.

Las técnicas de las que hablamos aquí son instrumentales a los fines cognoscitivos de diversas
ciencias. Son los procedimientos específicos empleados en una ciencia, o por un particular género
DD
de investigación. El adiestramiento científico tiene que ver en gran medida con la adquisición del
dominio de las técnicas.

La tarea del investigador/metodólogo consiste en escoger el camino, teniendo en cuenta la


naturaleza de los senderos presentes en el terreno, el tiempo y los recursos disponibles.
LA

Lo esencial del concepto del método está en lo siguiente: en la elección de las técnicas a aplicar, en
la capacidad de modificar técnicas existentes, adaptándolas a los problemas propios y de imaginar
técnicas nuevas. Una vez que un procedimiento nuevo, o una modificación de un procedimiento,
han sido ideados y son codificados y difundidos, estos se reifican y se convierten en una técnica a
disposición de la comunidad de investigadores: no ya en una capacidad privada sino en un objeto
FI

público.

Los resultados de una investigación dependen de las elecciones que el investigador/metodólogo ha


realizado. Es por este motivo que el informe de investigación debe tener dedicada una amplia
sección para comentar las elecciones realizadas, evaluando sus impactos sobre los resultados (lo


cual generalmente no ocurre).

Como determinantes de esta situación, convergen varios factores:


El objetivismo del investigador
El hecho de que buena parte del público se comporta como si estuviera leyendo una novela y no
se interesan por los detalles de la investigación
Las casas editoriales también se comportan como los lectores del punto anterior.
Los autores confinan el informe metodológico a un apéndice.

Epistemología y gnoseología- En lo que respecta a la relación entre metodología (y método) y


epistemología, existe un consenso general sobre el hecho de que la metodología ocupa la porción
central de un continuum analítico crítico entre el análisis de los postulados epistemológicos que
hacen posible el conocimiento social y la elaboración de técnicas de investigación. Ocuparse de
metodología es encontrarse en una continua tensión dialéctica entre los polos de este continuum,

Este archivo fue descargado de https://filadd.com


porque si la metodología abandona su laso epistemológico se reduce a una tecnología o una práctica
que ya no controla intelectualmente. Si abandona el lado técnico, se transforma en una pura
reflexión filosófica sobre las ciencias sociales, incapaz de incidir sobre las actividades de
investigación.

Resta agregar que en uno de los polos no se encuentra tan solo la epistemología, sino también la
gnoseología, la cual reflexiona sobre los fines, doncidiones y límites del conocimiento. Esta
gnoseología es frecuentemente olvidada, las razones pueden ser dos: una lingüística y otra
sustancial. El término “gnoseology” no existe en inglés, así que no aparece en la literatura
anglosajona, aquí se usa “epistemology” para designar la filosofía del conocimiento (gnoseología) y
“philosophy of science” para lo que nosotros llamamos epistemología.

OM
El segundo motivo puede derivar de que todos los intentos de dar un fundamento de certeza al
conocimiento científico ha fracaso frente a la constatación, inevitable en gnoseología, de que no
puede haber nexos rígidos entre la esfera de los referentes (la realidad), la esfera del pensamiento y
la esfera del lenguaje.

.C
Capítulo 1: Tres aproximaciones a la ciencia.
DD
Marradi
LA

Galileo y el método experimental- Muchos filósofos opinan que la ciencia moderna empieza a fines
del siglo XVI con Galileo.
FI

Según la visión Aristotélica, la tarea de la ciencia era identificar la naturaleza de cada especie
de objeto del conocimiento, separando lo que es esencial y fijo (la sustancia) de lo que es
accidental y variable.

Para Galileo la tarea de la ciencia es formular, controlar y decidir aserciones acerca de




relaciones entre las propiedades de los objetos. El científico tiene que hallar la forma
matemática que estas relaciones tienen en la naturaleza. El científico debe saber interrogar
hábilmente a la naturaleza y penetrar en sus secretos. Galileo sentó las bases del método
experimental.

En su forma ideal, un experimento se obtiene solo cuando se observan los efectos de


variaciones controladas de una propiedad llamada “operativa” en otras propiedades llamadas
“experimentales” mientras se mantienen constantes todas las otras propiedades que podrían
influir sobre la segunda. La sabiduría consiste no solo en elegir la propiedad operativa más
apropiada sino también en producir cambios perfectamente controlados en ésta, y en
bloquear todas las variaciones en las otras propiedades que se sabe o se supone puedan influir
sobre la experimental, manteniéndolas efectivamente constantes.

Los objetos de muchas ciencias físicas poseen una característica que no tienen los objetos de

Este archivo fue descargado de https://filadd.com


las ciencias sociales: son fungibles (intercambiables). Es decir, se puede dar por sentado que
los objetos del mismo tipo siempre reaccionan de la misma manera bajo las mismas
condiciones.

Límites del modo experimental

Un límite teórico consiste en el hecho que jamás se puede excluir con seguridad que otras
propiedades, no incluidas en el modelo, influyan en la propiedad experimental. Debido a la
presencia de estas innumerables propiedades, el modelo nunca se puede dar por “cerrado”.
Los límites prácticos consisten en que no siempre es técnicamente posible controlar a la
perfección las variaciones de la propiedad operativa, y todavía es menos posible neutralizar
perfectamente la influencia de las propiedades que se deberían mantener efectivamente

OM
constantes.

El método experimental es adecuado para investigar relaciones mono causales, típicamente


diacrónicas. No es adecuado investigar relaciones funcionales, típicamente sincrónicas.
Tampoco es adecuado para investigar sistemas complejos de relaciones causales, cuando hay
una tupida de red de interacciones entre muchas propiedades que ejercen influencias
diferentes en diferentes combinaciones.

.C
Estos límites tienen graves consecuencias en las ciencias sociales. La razón es que no se
pueden separar una pareja de propiedades bloqueando otras. En ciencias sociales no se puede pensar
que los objetos son fungibles y que se pueda estudiar un individuo y extrapolar el
DD
resultado al resto de la sociedad.

La matriz de datos y el supuesto atomista.


Es una herramienta elaborada por matemáticos del siglo XVI formado por un cruce entre un
haz de vectores paralelos horizontales y otros verticales. Tiene usos en variadas disciplinas.
LA

Permite tratar la variabilidad entre objetos del mismo tipo sin renunciar a formas de análisis
estadístico. Una vez que se ha registrado en una matriz el estado de n sujetos en p
propiedades, esta nos permite establecer cuáles son las relaciones entre las parejas de
propiedades.
FI

El método de la asociación- Se podría llamar método de asociación este que sustituye al método
experimental en las ciencias sociales siguiendo en el marco del enfoque estándar de la ciencia.

El enfoque que se contrapone a la visión estándar.


En la aproximación comúnmente llamada “cualitativa” conviven formas de investigación muy


diferenciadas: el único rasco seguramente común a todas es un rasgo negativo, y es la no


adopción de que en la mayoría de los casos es un rechazo a adoptar los supuestos
fundamentales de la visión estándar de la ciencia. Más allá del rechazo, estos investigadores
muy a menudo comparten un valor en positivo: la sensibilidad hacia el aporte cognoscitivo y
los derechos humanos de los sujetos conocidos, una sensibilidad que a veces se constituye en
una verdadera “epistemología del sujeto conocido”.

Se siguen unos caracteres comunes que se pueden identificar en la mayoría de los caminos no
estándar de investigación:

a) Orientación para reducir al mínimo la separación entre ciencia y vida cotidiana. Gran
atención por problemas de significado y una actitud de escucha frente a la realidad en
vez de una rígida limitación a modelos a priori.
b) fuerte dependencia del contexto

Este archivo fue descargado de https://filadd.com


c) preferencia por los problemas micro
d) orientación marcadamente ideográfica, descriptiva e inductiva
e) preferencia por la comprensión global de “provincias delimitadas de significado”
f) el hecho de que la causación, si es contemplada, es considerada un proceso que se
reconstruye por medio de narraciones y no por medio de relaciones estadísticas entre
instantáneas escalonadas en el tiempo o entre variables relevadas en el mismo momento
g) gran importancia de las cualidades y capacidades del investigador y de sus colaboradores
h) la dificultad para desarrollar este género de investigaciones sin caer en lo banal, en lo gratuito,
anecdótico, etc.

OM
Capítulo 2: Los debates metodológicos contemporáneos.
Marradi

.C
Durante el siglo XX, los debates se centraron en los conceptos cualidad y cantidad.
DD
Uno de los principales ejes de la controversia se estructuró alrededor del abordaje elegido
para dar cuenta de la relación individuo y sociedad, dando lugar a una perspectiva centrada en
el sujeto por un lado, y otra centrada en la estructura social.

La diversidad de estos enfoques y sus desacuerdos dieron lugar a debates epistemológicos


LA

sobre el estatus científico de las ciencias sociales, y metodológicos sobre los modelos de
producir y validar el conocimiento científico en estas disciplinas.

Al calor de estas controversias se definieron dos bandos: uno bajo la medición como mejor
medio para asegurar la cientificidad de las prácticas de investigación de las ciencias sociales, y
FI

otro comprometido con el rechazo radical de cualquier intento de cuantificación de la realidad


social.

Estos debates cobraron actualizada en la década del 60 cuando terminaron de popularizarse


las antinomias cualitativo vs cuantitativo; explicación vs comprensión, objetividad vs


subjetividad, neutralidad vs participación; en definitiva, descripción de la sociedad “tal cual es”


vs crítica y transformación de la sociedad actual.

A partir de los 80 esta controversia epistemológica comenzó a perder fuerza. Se fue


imponiendo lo que se llamó “argumento técnico”: los métodos cuantitativos y cualitativos son
apropiados para alcanzar distintos objetivos y tratar problemas de índole diferente, y la tarea
del investigador no es apegarse estrictamente a un modelo, sino tomar decisiones pertinentes
en base al problema que se va a investigar. También es posible pensar un problema cuyo
abordaje requiere la combinación de métodos, que fue llamado “triangulación metodológica”.
El debate intrapositivista

La perspectiva generalista encontró su versión metodológica más acabada con el positivismo.


Durkheim, a la luz del modelo de las ciencias naturales, estableció una analogía entre el objeto
de las ciencias sociales (el hecho social) y las cosas, y predicó la necesidad de tratar

Este archivo fue descargado de https://filadd.com


metodológicamente al primero igual que a la segunda. Esto venía de la mano de un monismo
metodológico, o sea, que existe un único modelo válido para todas las ciencias. La propuesta
de tomar como modelo a la física suponía que la realidad social también estaba regida por
leyes universales, susceptibles de ser descubiertas a partir de ese mismo método científico.
Se pretendía cuantificar aspectos de la realidad social para luego poder establecer
sistemáticamente relaciones entre ellos, con el objetivo final de postular leyes generales sobre
el funcionamiento de la sociedad y de los fenómenos sociales.

A la idea de generalización se sumaban las de objetividad y externalidad: el carácter externo y


autónomo de la realidad exigía la objetividad como requisito para alcanzar conocimiento
valido.

OM
El carácter empírico de la actividad científica, basada en la medición y el manejo de datos
como sustento de la explicación adquirió un carácter predominante a través de la técnica de
sondeo.

Popper propone una alternativa a lo antes planteado llamado falsacionismo. El habla de un


criterio de demarcación que distingue el conocimiento científico. No se interesaba tanto en la
distinción de ciencia y metafísica, su objetivo primordial era el de diferenciar la ciencia de la

.C
pseudociencia. La pseudociencia, para Popper, es el conocimiento que se presenta como
científico pero que en realidad tiene que ver con los mitos primitivos. La ciencia sigue un
camino hipotético-deductivo, y la característica singular del conocimiento científico es que
esta conjetura debe ser pasible de falsación, es decir, debe poder ser demostrada falsa.
DD
La consagración del método hipotético-deductivo como única vía válida para la producción de
conocimiento científico revitalizó la idea del monismo metodológico. Para Popper, la ciencia se
ocupa de explicaciones conformadas por sistemas de hipótesis que han resistido las pruebas
de falsación, y estas pruebas solo pueden hacerse a través de un único y mismo método.
LA

Estas ideas fueron tomadas como base epistemológica por parte de la sociología académica de
la época y ayudó a dar sustento al “consenso ortodoxo” de las ciencias sociales. Las
propuestas de Popper pasaron a formar parte de los manuales de metodología de la
investigación social, en donde se presentaba “el” método científico.
FI

Kuhn critica la visión de Popper y dice que la ciencia debe ser concebida como un proceso
histórico, no se trata de un producto lógico-racional que se produce en el vacío sino de un
conjunto de prácticas sociales que tienen lugar en el seno de una comunidad científica. Su
concepto clave es el paradigma. Kuhn distingue entre una etapa preparadigmática (no hay
acuerdos sobre el objeto de estudio y proliferan corrientes) y otra etapa paradigmática


(cuando un paradigma logra imponerse). Ocurrirán “crisis” (producto de anomalías) donde la


ciencia puede volver a una situación preparadigmática y eventualmente desembocar en una
revolución científica, donde se conformará un nuevo paradigma. Kuhn (y otros) han planteado
que las ciencias sociales nunca han pasado de la etapa preparadigmática.

Imre Lakatos apuesta por conciliar el falsacionismo con la perspectiva de Kuhn, es lo que se
conoce como programa de investigación. Estos programas de investigación incluyen un núcleo
duro (conjunto de hipótesis fundamentales) y un cinturón protector (construido por hipótesis
auxiliares).

Las críticas al positivismo y los enfoques no estándar. El término hermenéutica significa


interpretación, y en su sentido moderno hace referencia a una interpretación profunda que involucra
la relación compleja entre sujeto interpretador y objeto interpretado.
La tradición hermenéutica adquirió relevancia metodológica y epistemológica para las ciencias

Este archivo fue descargado de https://filadd.com


sociales en la medida que destacó la especificidad de su objeto de estudio, y la consecuente
necesidad de métodos propios para abordarlo, ligándolo al problema de la interpretación.
Giambattista Vico hablaba que el conocimiento era la sabiduría práctica, y que estos
fenómenos estaban gobernados por aspectos imponderables.

Se va a ir consolidando una distinción entre el conocimiento del mundo material, para el cual
las hermenéuticas no negaban los principios y metodologías generalizadoras de corte positiva,
y el conocimiento de los fenómenos espirituales (humanos) que requerían una interpretación
profunda y que no podían ser reducidos a leyes universales. Apareció la distinción entre
aproximaciones nomotéticas (típicas de las ciencias naturales) que tienen por objeto la
postulación de las leyes generales basadas en procesos causales uniformes, y aproximaciones
idiográficas (típicas de las ciencias humanas) cuyo objeto es el estudio de los fenómenos

OM
cambiantes que deben ser interpretados contextualmente.

Esta tradición maduró en las ciencias sociales empíricas de Weber, un antecedente de la


perspectiva no estándar. Webber define a la sociología como una ciencia que pretende
entender la acción social, interpretándola. Pero dado que para él la acción es un
comportamiento subjetivamente significativo, promueve la comprensión como el método
adecuado para investigarla.

.C
Desde un punto de vista instrumental y operativo, los denominados métodos cualitativos de
investigación, enmarcados en la corriente interpretativa weberiana, abrevan el método
etnográfico de la antropología clásica. Todo esto también se enmarcaba en la investigación
DD
social no estándar.

Znaniecki propone la distinción metodológica entre inducción enumerativa (en la que los casos
son tratados como ejemplos de colectivos) e inducción analítica (en la que cada caso ilumina
aspectos de una teoría general). La inducción analítica pasará a ser considerada como
LA

intrínsecamente etnográfica.

Con los trabajos de Park y Burgues la etnografía se reorienta hacia la propia sociedad. Su
mirada se encauza hacia la diversidad ciudadana a través del análisis de todas las otredades
urbanas. Blumer desarrolla el interaccionismo simbólico, orientado a comprender toda
FI

situación social desde la visión e interpretación del propio actor en interacción. El método
consiste en asumir el papel del actor y ver su mudno desde su punto de vista.

A partir de los 60, las críticas a la sociología convencional abrieron la puerta a la investigación
no estándar. Se resignificaron algunas prácticas metodológicas de la antropología clásica y de


la sociología, dándoles un fundamento teórico-epistemológico de corte interpretativista que


aparentemente no habían tenido en sus orígenes. Aquí jugaron un papel importante los
aportes de la hermenéutica, el constructivismo, la fenomenología, la teoría crítica y otros.
La traducción interpretativa intenta elucidar los procesos de construcción de sentido.

Shutz (1962) sostuvo que los individuos constituyen y reconstituyen su mundo de experiencia.
El focaliza sus estudios sobre los procesos a través de los cuales los sujetos producen
interpretaciones que dan forma a lo real en la vida cotidiana. Sostiene que las ciencias sociales
están conformadas por constructos de segundo orden, que le dan sentido a los constructos de
primer orden de los actores en la vida cotidiana.

Heredera de la fenomenología de Schutz es la etnometodología de Garfinkel. La preocupación


de este autor se orienta a la producción, legitimación, cuestionamiento y reproducción del
orden social por las actividades interpretativas de los sujetos. Desde esta perspectiva la

Este archivo fue descargado de https://filadd.com


conducta es descrita y explicada por su referencia a consensos socialmente compartidos. En
análisis se focaliza de otorgamiento de sentido a partir de normas sociales que dan como
resultado los criterios de normalidad.

La corriente constructivista predica también la imposibilidad del conocimiento objetivo,


fundamentado en la existencia de múltiples realidades, construidas desde diferentes
perspectivas.

Desde la antropología interpretativa se propone la interpretación como alternativa a las


explicaciones causales de la cultura. Para Levi-Strauss, la conducta era explicada a partir de la
estructura social y el significado era indagado en las reglas constitutivas del sistema
organizador de las acciones. Considera que la descripción densa constituye la forma adecuada

OM
para dar cuenta del proceso de formación de sentido del sujeto.

Otra vertiente es la teoría fundamental introducida por Glaser y Strauss, como un método para
generar teoría a partir de los datos empíricos. La relación entre teoría y datos se invierte: estos
pasan de ser la instancia verificadora/falseadora a ser la fuente de la teoría. Promueve una
metodología fundada en la inducción, en la que un muestreo estadístico es suplantado por el
muestreo teórico. Las unidades de observación se seleccionan según criterios formulados

.C
desde la perspectiva del investigador, y el tamaño de la muestra se alcanza por saturación, es
decir, cuando ninguna observación adicional agrega nada relevante.

Vinculada a la escuela de Frankfurt nace la teoría crítica, donde se incorpora la valoración


DD
política entre los elementos del proceso investigativo. Cuestionan la objetividad del
pensamiento moderno y lo interpretan en términos de su consecuencia política.

Existen muchas escuelas que se insertan en la teoría crítica sin tener un consenso único, como
es la crítica epistemológica y metodológica feminista, donde se cuestiona el esencialismo, en la
LA

medida en que este apunta a la legitimación de las relaciones de dominación entre los géneros
anclados en la biología. Esto dio lugar a nuevas categorías de análisis como el “género”.
La reactivación del interés por la investigación cualitativa a partir de la década del 60 también
implicó que gran parte del debate metodológico se trasladaría desde la oposición
cuantitativo/cualitativo hacia el interior de los métodos cualitativos. Schwandt identifica 4 ejes
FI

en el debate de lo intracualitativo:

a) Criterios y objetividad, centrado en cuál es el fundamento de las interpretaciones


b) El alcance crítico o compromiso político, que lleva a una distinción ente teórica descriptiva y
prescriptiva


c) La autoridad del investigador a partir de la legitimidad de la interpretación


d) Confusión de las demandas psicológicas y epistemológicas.

Una de las principales críticas a los métodos no estándar se ha dirigido a su supuesta falta de
rigor y precisión, asi como su incapacidad para generalizar los resultados. A partir de esto, se
instaló en la agenda cualitativa la búsqueda de instrumentos conceptuales y criterios
alternativos que fuesen más adecuados para juzgar sus procedimientos y sus productos. A
pesar de todo esto, no se ha establecido un consenso en los criterios de calidad en los estudios
cualitativos. Tal vez esto se deba a que en los 90 coexisten una multiplicidad de concepciones
que tienen en común la perspectiva del sujeto, lo cual responde a una realidad de un mundo
posmoderno, múltiple y fragmentado, donde no es posible ninguna generalización y donde
coexisten diversas perspectivas. Se da el contexto donde los límites entre los estilos
cualitativos y cuantitativos se han vuelto imprecisos.
Pierre Bordieu intentó superar el debate cualitativo/cuantitativo. Esta particularidad promovió

Este archivo fue descargado de https://filadd.com


la superación de las típicas antinomias epistemológicas y metodológicas de las ciencias
sociales: explicación/comprensión, subjetivo/objetivo, micro/macro, etc. Bordieu buscó
integrar prácticas habitualmente conocidas como cualitativas con otras cuantitativas.

En los últimos años se han propuesto diversas formas de articulación o integración entre las
diferentes perspectivas metodológicas, se conocen como triangulación metodológica.
Las propuestas de superación del debate cualitativo-cuantitativo: la triangulación
metodológica y sus límites.

Han surgido propuestas tendientes a integrar las estrategias cuali/cuanti, bajo la idea de que
ambos métodos son válidos y compatibles.

OM
Denzin fue uno de los primeros responsables de la difusión de la idea de triangulación,
distinguiendo cuatro formas: de datos, de investigadores, teórica y metodológica. A su vez,
promovió una diferenciación entre triangulación intramétodo e intermétodo.

Los principales objetivos de la triangulación en las ciencias sociales son la convergencia y la


completitud, como medio de validación convergente o como modo de alcanzar una
comprensión más acabada de un mismo fenómeno, desde distintos ángulos. Por supuesto, la

.C
idea de la triangulación también ha sido objetada.

De todos los tipos de triangulación, la metodología es probablemente la que ha adquirido


mayor difusión y popularidad, al punto de que se han acuñado nuevas expresiones para dar
DD
cuenta de ella. Esta implica el uso conjunto de dos o más métodos para abordar un mismo
problema o problemas diferentes pero estrechamente relacionados. El principal argumento a
su favor es que de este modo se aumenta la confianza en los resultados.
LA

La Construcción del Objeto- Bourdieu


FI


El hecho se construye: las reformas de la renuncia empirista. “El punto de vista crea el objeto” dice
Saussure. Es decir, una ciencia no podría definirse por un sector de lo real que le corresponda como
propio. El todo, tal como aparece en la mente, es un producto de ella misma que piensa y se apropia
del mundo. El sujeto, antes como después, mantiene su autonomía fuera de la mente.

La ciencia se organiza en torno a objetos constituidos que nada tienen en común con aquellas
unidades delimitadas de la percepción ingenua. La epistemología empirista concibe las
relaciones entre ciencias vecinas, como psicología y sociología, como conflictos de límites,
porque se imagina la división científica del trabajo como división real de lo real. El posible ver
en el principio Durkheimiano según el cual “hay que considerar los hechos sociales como
cosas” el equivalente a lo que dijo Galileo que habla de la física moderna como sistema de
relaciones cuantificables.

Hay una importante distinción entre objeto “real” pre construido por la percepción y objeto

Este archivo fue descargado de https://filadd.com


científico, como sistema de relaciones expresamente construido. Según lo ya dicho, si se
abandona la investigación científica, o solo se multiplican los criterios tomados de la
experiencia común, entonces el objeto permanece como “objeto común” y no adquiere la
dignidad de “objeto científico”.

Un objeto de investigación, por más parcial y parcelario que sea, no puede ser definido y
construido sino en función de una problemática teórica que permita someter a un sistemático
examen todos los aspectos de la realidad puestos en relación por los problemas que le son
planteados.

Las abdicaciones del empirismo- Se puede definir al proceso científico como diálogo entre hipótesis
y experiencia, donde ambos socios asumirán roles simétricos e intercambiables, sin olvidarse que lo

OM
real nunca tiene la iniciativa sino hasta cuando se lo interroga. Bachelard sostenía que el “vector
epistemológico” va de lo racional a lo real y no a la inversa. La teoría domina al trabajo
experimental, desde la partida hasta las últimas concepciones del laboratorio. Sin teoría no seríamos
capaz de realizar ningún tipo de comprobación.

La vigilancia epistemológica exige una explicitación metódica de las problemáticas y principios


de construcción del objeto que están comprendidas tanto en el material como en el nuevo

.C
tratamiento que se le aplica. Si no se tiene en cuenta esos preliminares epistemológicos, se
está expuesto a considerar de modo diferente lo idéntico y a la inversa, a comparar lo
incomparable, etc.
DD
Cualquier ciencia debería abstraerse de los hechos del empirismo, siempre recordando la frase
de “los hechos no hablan”, ya que corre el riesgo, de obtener los hechos de boca de sus
informantes, por lo tanto, podría ocurrir que sus prenociones se sustituyan con las
prenociones de los informantes. Obligarse a mantener aquellos elementos creados en realidad
por una indagación que se desconoce, es la manera más sencilla de negar que la comprobación
LA

supone construcción.

Hipótesis o supuestos- Cualquier práctica científica responde a supuestos teóricos, siempre con
miras a una prueba experimental. El negar la hipótesis de la teoría es adoptar supuestos tales como
las prenociones.
FI

Aun cuando se logre liberar de los supuestos, no podrá realizarse nunca el ideal empirista del
registro sin supuestos, aunque más no fuera por el hecho de que utiliza instrumentos y
técnicas de registro. La medida y los instrumentos de medición, y en general todas las
operaciones de la práctica de la ciencia que sea, son teorías en acto, en calidad de


procedimientos de construcción, conscientes o inconscientes, de los hechos yd e las relaciones


entre los hechos.

La falsa neutralidad de las técnicas: objeto construido o artefacto


La ilusión de que las operaciones axiológicamente neutras son también epistemológicamente
neutras limita la crítica del trabajo. Esta discusión sobre neutralidad sustituye la discusión
epistemológica sobre la “neutralidad metodológica” de las técnicas, y por esta razón,
proporciona una nueva garantía de la ilusión óptica positivista.

Si no hay registros neutrales, entonces no hay una pregunta neutral. El no someter las propias
interrogantes no permitirá hacer un análisis verdaderamente neutral de las respuestas que
provoca.

El cuestionario más cerrado no garantiza la univocidad de las respuestas solo por el hecho de

Este archivo fue descargado de https://filadd.com


que se someta todos los sujetos a preguntas formalmente idénticas. Suponer que una misma
pregunta tiene sentido para sujetos sociales distanciados por diferencias de cultura pero
unidos por pertenecer a una clase, es desconocer que las diferentes lenguas no difieren solo
por la extensión de su léxico o su grado de abstracción sino por la temática y problemática que
transmiten.

La analogía y la construcción de la hipótesis- Para poder construir un objeto, hay que ser consciente
de que todo objeto científico se construye deliberadamente y metódicamente y es precio saber todo
ello para preguntarse sobre las técnicas de construcción de problemas planteados al objeto. Una
metodología que no se plantee el problema de la construcción de las hipótesis que se deben
demostrar no puede dar ideas nuevas y fecundas.

OM
Contra el positivismo que pretende conducir a una formulación automática de hipótesis, una
hipótesis no puede ser conquistada ni construida sino a costa de un golpe de estado teórico
que, al no hallar ningún punto de apoyo en las sensaciones de la experiencia, no podía
legitimarse más que por la coherencia del desafío imaginativo lanzado a los hechos y a las
imágenes ingenuas o cultas de los hechos.

Tal exploración de los múltiples aspectos que supone un distanciamiento respecto de los

.C
hechos, queda expuesta a las facilidades del intuicionismo, del formalismo o de la pura
especulación, al mismo tiempo que solo puede evadirse ilusoriamente de los
condicionamientos del lenguaje o de los controles de la ideología. Weber solo buscaba
explicitar las reglas de funcionamiento y las condiciones de validez de un procedimiento que
DD
todo investigador utiliza consciente o inconscientemente, pero que no puede ser dominado más que
si se utiliza con conocimiento de causa. El tipo ideal como “guía para la construcción
de hipótesis”, según Weber, es una ficción coherente “en la cual la situación y la acción es
comparada y medida”, una construcción concebida para confrontarse con lo real. El tipo ideal
permite medir la realidad porque se mide con ella y se determina al determinar la distancia
LA

que lo separa de lo real.

El razonamiento como pasaje de los limites constituye una técnica irremplazable le de


construcción de hipótesis. El arte de la búsqueda debe limitarse a proporcionar las técnicas de
pensamiento que permitan conducir el trabajo de construcción de la hipótesis al mismo
FI

tiempo que disminuir los problemas inherentes

Modelo y teoría
Los dos son inseparables. Se reconoce el modelo teórico como depuración formal de las
relaciones entre aquellas que definen los objetos construidos. Por analogía inclusive pueden


provocar nuevas analogías, nuevos principios de construcción de objeto. Es este el


procedimiento que le confiere su fecundidad, es decir, su poder de generalización.

Capítulo 5: el diseño de la investigación. Marradi

Este archivo fue descargado de https://filadd.com


Introducción

Vamos a utilizar el término de investigación en un sentido realmente amplio. La investigación


es un proceso sistemático y organizado por medio del cual se busca descubrir, interpretar o
revisar ciertos hechos, y cuyo producto es un mayor conocimiento de éstos.

En este proceso se involucra una gran cantidad de decisiones y acciones articuladas y con
distintos niveles de complejidad. Desde un punto de vista restrictivo se considera en particular

OM
al conjunto de decisiones y actividades orientadas a establecer relaciones causales entre
distintos aspectos de la realidad bajo estudio o, al menos, al control empírico (e impersonal)
de la hipótesis, es decir, conjeturas acerca de la realidad que postulan cierto tipo de relación
entre determinados aspectos de ésta. La investigación es un proceso que involucra conjunto
de decisiones y prácticas por los cuales conocemos algunas situaciones de interés, cuya
definición y delimitación forma parte de las decisiones apenas aludidas. Debe quedar claro que
hablamos de investigaciones empíricas, o sea, aquellas que tienen algún tipo de relación

.C
observacional con la situación de interés.

La relación observacional puede reducirse únicamente al empleo de una técnica de


observación en particular. Entre las muchas decisiones que se toman en una investigación,
DD
también está la de definir cuáles son las mejores herramientas técnicas (por ejemplo, de
observación) de acuerdo con los objetivos cognitivos que se hayan planteado.

Que el proceso este atravesado por decisiones y operaciones que dependen en gran medida
del conocimiento tácito no significa que sea totalmente caótico, desordenado o imprevisible.
LA

Por el contrario, este proceso puede ser diseñado y planificado y, entre otras cosas, esto será
un modo de hacerlo más controlable en la medida que exigirá un esfuerzo por explicitar de
modo anticipado las distintas decisiones involucradas en el mismo. Según el diccionario, un
diseño es una descripción o bosquejo, un proyecto o plan.
FI

Características del diseño de la investigación


El diseño es una representación modélica y abstracta de cómo será, es esquemático. En la
investigación empírica, esta anticipación en abstracto de las decisiones que se van a tomar
durante su curso también puede variar, y tal variación se dará en función del grado de detalle y
explicitación que las decisiones teóricas y metodológicas adquieran antes de establecer algún


tipo de contacto observacional con los fenómenos de interés.

Esta concepción del diseño tiene dos consecuencias importantes. La primera es que por
definición no es posible una actividad de investigación no diseñada; lo que pueden existir son
dos actividades de investigación con distintos grados o niveles de diseño. La segunda es que
desde el punto de vista del grado de detalle del diseño de la investigación no se puede pensar
en tipos cerrados sino en un continuum de diseños posibles.

Podemos identificar dos polos en una investigación: por un lado una que está absolutamente
planificada de antemano y otro totalmente opuesto donde no está nada planificado. Estos dos
polos son los llamados “tipos ideales”, pero en la práctica se dan las situaciones entre esos dos
polos, lo que se plantea la idea del “diseño flexible”, los cuales pueden ser más o menos
estructurados según el grado de detalle que adquiera la planificación previa. Se asume que
existe un conjunto de decisiones en cualquier tipo de investigación, este “mínimo” de diseño

Este archivo fue descargado de https://filadd.com


implica decisiones que se pueden agrupar en cuatro grandes conjuntos:

Relativas a la construcción del objeto


Decisiones relativas a la selección
Relativas a la recolección
Relativas al análisis
Si bien todas están presentes de un modo u otro en el diseño de la investigación, adquirirán
diferentes características en cada caso particular.

Por lo general, las investigaciones llamadas cuantitativas requieren de diseños más


estructurados, mientras que las cualitativas se prestan a diseños más flexibles.

OM
La elección de un tema, delimitaciones del problema y su operativización
La primera y fundamental cuestión en un diseño de investigación es la delimitación de un
problema de investigación. Valles dice que la formulación del problema es un proceso de
elaboración que va desde la idea (propia o ajena) hasta la conversión de dicha idean en un
problema investigable. Esas ideas iniciales pueden concebirse como temas de investigación
que se relacionan con determinados recortes de la realidad propios de la estructura y del
estado de desarrollo de la disciplina científica dentro de la cual se inscribe el investigador y/o

.C
de lo que habitualmente se conoce como “agenda de investigación”.

Hay grandes temas que no son directamente investigables, entre otras cosas por su grado de
abstracción, complejidad y amplitud. Sin embargo, todo tema puede llevar a convertirse en un
DD
problema de investigación, o sea, dar lugar a preguntas específicas que se puedan abordar
empíricamente. Un problema se define y construye a partir de un tema más amplio. Esta
definición implica fundamentalmente un movimiento progresivo desde lo abstracto y general
del tema hacia lo concreto y especifico del problema. Pero el problema no surge
espontáneamente. El proceso de construcción, en cambio, puede ser extremadamente
LA

complejo y no linean, e implica la puesta en juego tanto de saberes tácitos como de la


experiencia; no hay una técnica para la formulación de problemas de investigación. Este
proceso es posible a partir de un conjunto de prácticas que se conocen como indagaciones
preliminares. Con esta expresión se suele aludir a las lecturas más bien generales que permiten
ir conquistando familiaridad con un tema, pero también se podría pensar en otras
FI

modalidades de indagación como por ejemplo entrevistas con referentes en la materia. Al


plantearlas, se empieza a dar forma al problema de investigación. Pero las indagaciones en
torno de este no cesan, sino que son cada vez más focalizadas, constituyendo lo que se define
como estado de la cuestión.


El investigador debe hacer un análisis de los antecedentes, generando un estado de


conocimiento sobre el problema en cuestión. No solo se deben conocer las investigaciones
previas que puedan existir, sino además generar un dialogo crítico hacia ellas.
La delimitación de un problema conlleva a la formulación de objetivos de la investigación.
Entre el problema y los objetivos existe una relación lógica de mutua implicación; solo que si los
problemas se plantean en una forma de interrogantes, los objetivos se expresan en cambio
por medio de proposiciones. Los objetivos son aquellos objetivos “cognitivos”, o sea, aquellos
orientados a acrecentar un conocimiento. Los objetivos se clasifican como generales y
específicos, siendo los últimos aquellos que se derivan lógicamente de los primeros y cuyo
cumplimiento concurre al logro de ellos.

Para decidir la estrategia metodológica y escoger los instrumentos adecuados a los objetivos,
resultará necesario desentrañar el problema de investigación y analizar todas sus
consecuencias en términos de una posible respuesta empíricamente construida. Desde cierto

Este archivo fue descargado de https://filadd.com


punto de vista, se puede afirmar que siempre existirá algún tipo de supuesto acerca de lo que
se investiga, son inherentes al planteo de la pregunta. Estos supuesto no siempre adquieren un
grado de articulación tal de poder plantarse como hipótesis. Autores afirman que las hipótesis
pueden ser el resultado de una investigación más que su disparador inicial. En tras ocasiones,
ellas no se hacen explicitas desde un principio e igualmente guían. Sin embargo, cuando el
objetivo del estudio implique la contratación de hipótesis, estas deberían estar precisamente
formuladas, especulando sobre la naturaleza y la forma de una relación. Hay autores que
sostienen que los modos más comunes en que aparecen las hipótesis en el trabajo científico
son cuatro:

1) Declaraciones condicionales

OM
2) Funciones matemáticas

3) Declaraciones continuas

4) Declaraciones diferenciales

Independientemente del grado de formulación de la hipótesis, se otorga al problema el lugar

.C
central y la función rectora de la investigación. No podemos no contar con preguntas.
Para hacer operativo un problema de investigación, se lo puede pensar como la explicitación
del interés del investigador por conocer algo de alguien. Ese “algo” o “que” que se quiere
conocer se expresa a través de las propiedades conceptuales (y sus relaciones) cristalizadas
DD
verbalmente en las preguntas que guían la investigación. Por otra parte, ese “algo” se refiere
siempre a “alguien”, un “quien” que esta temporal y especialmente situado y que
técnicamente se denomina unidad de análisis.

Con respecto al “algo” de interés deberemos comenzar por su conceptualización. Se trata de


LA

dar definiciones precisas de que se entiende en el contexto de la investigación por aquellos


términos clave que se expresan verbalmente en el foco de nuestra atención, definiciones que
en su conjunto conformarán un marco conceptual. El “estado de la cuestión” (que es lo que ya
se sabe del tema) que se nombró antes no es el marco teórico, es decir, el corpus de
conceptos de diferentes niveles de abstracción articulados entre si que orientan la forma de
FI

aprehender la realidad, y que en el nivel más concreto incluye el marco conceptual.


Habitualmente, las definiciones conceptuales son muy abstractas, las cuales se deberán
seleccionar a través de un proceso de operativización, o sea, debemos llevar al plano de lo
observable ese “algo” abstracto y luego elegir las herramientas adecuadas para observarlo.
Estas operaciones se basaran en un conjunto de decisiones que hemos denominado “de


recolección”.

También se deberá operativizar la unidad de análisis, el “alguien” de interés. En primer lugar,


dando una definición conceptual clara, esto implica dar criterios de inclusión y exclusión, estos
criterios serán categoriales, temporales y especiales (por ejemplo, si estudiamos adolescentes,
una definición de unidad de análisis podría determinar los límites de edad para considerar una
persona adolescente, etc.). Parte del diseño de investigación consistirá en la construcción de
una muestra, que según el tipo de estudio va a seguir distintos criterios y asumirá diferentes
características. Es crucial esta elección.

Solo cuando todas las decisiones hayan sido tomadas resultará posible realizar el trabajo de
campo.

Formalización del diseño: el proyecto de investigación- Como sostiene Samaja, el objetivo central

Este archivo fue descargado de https://filadd.com


de la fase formulativa es construir escrituralmente el objeto su versión global. Esta versión escrita y
formal deberá seguir las pautas implicadas en el proceso orientado a su gestión y control.

Hernández Sampieri- Capítulo 2.- Nacimiento de un proyecto


de Investigación cuantitativa, cualitativa o mixta: la idea.

OM
¿Cómo se originan las investigaciones cuantitativas, cualitativas o mixtas?
Las investigaciones se originan por ideas.
Las ideas constituyen el primer acercamiento a la realidad objetiva (desde la perspectiva

.C
cuantitativa), a la realidad subjetiva (desde la perspectiva cualitativa) o a la realidad intersubjetiva
(desde la óptica mixta) que habrá de investigarse.

Fuentes de ideas para una investigación.


DD
 Experiencias.
 Materiales escritos.
 Materiales audiovisuales.
 Teorías.
 Conversaciones.
LA

 Internet.

¿Cómo surgen las ideas de investigación?


Una idea puede surgir donde se congregan grupos, así mismo, es posible generar ideas al leer una
revista de divulgación, al estudiar en casa, ver la televisión o asistir al cine; al charlar con otras
FI

personas o al recordar alguna vivencia; mientras se "navega" por internet, o bien a raíz de algún
suceso que esté ocurriendo en el presente. A veces las ideas nos las proporcionan otras personas y
responden a determinadas necesidades.

Vaguedad de las ideas iniciales.




La mayoría de las ideas iniciales son vagas y requieren analizarse con cuidado para que se
transformen en planteamientos más precisos y estructurados, en particular en el proceso
cuantitativo. Cuando una persona desarrolla una idea de investigación debe familiarizarse con el
campo de conocimiento donde se ubica la idea.

Necesidad de conocer los antecedentes.


Para adentrarse en el tema es necesario conocer estudios, investigaciones y trabajos anteriores,
especialmente si uno no es experto en tal tema. Conocer lo que se ha hecho con respecto a un tema
ayuda en:
 No investigar sobre algún tema que ya se haya estudiado a fondo.
 Estructurar más formalmente la idea de investigación.
 Seleccionar la perspectiva principal desde la cual se abordará la idea de investigación.

Investigación previa de los temas.

Este archivo fue descargado de https://filadd.com


Hay temas que han sido más investigados que otros y, en consecuencia, su campo de conocimiento
se encuentra mejor estructurado. Estos casos requieren planteamientos más específicos. Podríamos
decir que hay:
 Temas ya investigados, estructurados y formalizados: sobre los cuales es posible encontrar
documentos escritos y otros materiales que reportan los resultados de investigaciones
anteriores.
 Temas ya investigados pero menos estructurados y formalizados: sobre los cuales se ha
investigado aunque existen sólo algunos documentos escritos y otros materiales que reporten
esta investigación; el conocimiento puede estar disperso o no ser accesible.
 Temas poco investigados y poco estructurados: requieren un esfuerzo para encontrar lo que
escasamente se ha investigado.
 Temas no investigados.

OM
Criterios para generar ideas.
 Las buenas ideas intrigan, alientan y excitan al investigador de manera personal.
 Las buenas ideas de investigación no son necesariamente nuevas pero sí novedosas.
 Las buenas ideas de investigación pueden servir para elaborar teorías y solucionar
problemas.
 Las buenas ideas pueden servir para generar nuevos interrogantes y cuestionamientos.

Conclusión. .C
DD
En este capítulo se define que toda investigación se inicia por medio de ideas. De igual manera se
enlistan diversas fuentes que inspiran dichas ideas de investigación y se habla de maneras de
desarrollarlas para formular planteamientos de investigación.
Las ideas deben ser afinadas mediante una investigación previa de los temas relacionados con
dichas ideas, esto con el fin de estructurar un mejor planteamiento.
LA

Módulo 2
FI


Capítulo 6: Conceptos de objeto y unidad de análisis.


Población y muestra. Marradi
Objeto y unidad de análisis

La matriz tiene una gran importancia en el “método de la asociación”, son las llamadas “matrices de
datos”, que es un cruce entre vectores horizontales y verticales, donde los horizontales son objetos y
los verticales son propiedades de estos objetos.

Este archivo fue descargado de https://filadd.com


El término se entiende en un sentido gnoseológico, como posible objeto del pensamiento (cualquier
cosa en la que se piense). Los objetos en una matriz de datos pueden ser los individuos.
El tipo de objeto acerca del cual se buscan informaciones en una investigación se llama “unidad de
análisis”. En una investigación se debe definir no solo la unidad, sino también el ámbito espacio-
temporal que interese.

Población y muestra- Una vez determinada la unidad de análisis y el ámbito espacio-temporal, el


conjunto de los ejemplares de esa unidad que se encuentran en dicho ámbito es llamado población.
Cada ejemplar de esta población puede devenir en un caso. Esto es una fila de la matriz.
Se presenta el problema de elegir un pequeño subconjunto de esta población para investigarlos, esto
se aborda con una herramienta clásica de las ciencias sociales: el muestreo.

OM
Un amuestra es cualquier subconjunto de miembros de una población que se investiga con el fin de
extender a toda la población las conclusiones resultantes del análisis de las informaciones relativas
al subconjunto. Esta extrapolación (de los resultados del análisis) de la muestra a la población
entera es llamada “inferencia estadística” y tiene reglas precisas que veremos pronto.

Muestras aleatorias y no aleatorias- Una muestra se dice aleatoria cuando todos los miembros de la

.C
población tienen la misma posibilidad de ser extraídos y entrar en la muestra. La naturaleza
aleatoria de una muestra depende integralmente del procedimiento de extracción y no tiene nada
que ver con el resultado.
DD
Algunos estadísticos hablan de “muestra aleatoria simple” cuando los miembros de una población
tienen la misma posibilidad de ser extraídos, y de “muestra aleatoria” cuando cada miembro de la
población tiene la misma probabilidad conocida y no nula de ser extraído. Pero esta distinción
ofrende una cobertura científica a procedimientos que tienen poco que ver con la ciencia y mucho
con los presupuestos de quien hace el sondeo.
LA

Después de ahorrar dinero con estos procedimientos, las empresas tratan de remediar su obvia
consecuencia (subrepresentación de todas las áreas periféricas) con otro procedimiento discutible: la
ponderación.
FI

Otro problema con los entrevistados, es que a veces simplemente no están en su casa, o se niegan a
ser entrevistados, esto también afecta el concepto de extracción aleatoria, haciendo que una muestra
perfectamente aleatoria se vuelva casi siempre no aleatoria, por ejemplo, seguro atenderán más el
teléfono las amas de casa, los desempleados y los jóvenes que otro tipo de sujetos.


¿Representativo de qué?

Para juzgar si una muestra es representativa debemos mirar el resultado, independientemente del
procedimiento con el que haya sido extraída.

Mientras que para juzgar si una muestra es aleatoria tenemos una pauta clara (misma probabilidad
de entrar en la muestra para todos los miembros de la población), para juzgar si es representativa
debemos recurrir a consideraciones difusas y subjetivas. La difusión y subjetividad caracterizan
todo el campo semántico de la representatividad.

1. La representatividad tiene que ser controlada y eventualmente afirmada por cada propiedad por
separado
2. Debido a que la representatividad se evalúa comparando la distribución de una propiedad en la
muestra con la distribución de la misma propiedad en la población, únicamente se puede evaluar

Este archivo fue descargado de https://filadd.com


para las propiedades cuya distribución en la población es conocida, es decir, solo para las
propiedades que se relevan con un censo poblacional
3. La frase “esta muestra es representativa” no tiene sentido si no se le agrega “en lo que concierne
a las propiedades x, y z”.

Se puede afirmar que la extracción aleatoria no da ninguna garantía absoluta de que la distribución
de una propiedad cualquiera en la muestra sea representativa de la distribución de la misma
propiedad en la población. Solo da:

Una garantía absoluta de los sesgos (en el sentido de diferencias entre estas dos distribuciones)
no sean introducidos por el investigador, sino producidos al azar.
Una garantía razonable de que estos sesgos sean de magnitud limitada.

OM
Como garantizar una (limitada) representatividad de una muestra aleatoria

¿No hay ninguna manera de asegurar algo más que esta garantía negativa con una muestra
aleatoria? Si la hay, pero con respecto a un número limitado de propiedades, bajo algunas
condiciones, y solo con un tipo particular de extracción dominada sistemática.

.C
DD
Capítulo 7: Conceptos de propiedades. Variables, fidelidad y
fiabilidad
LA

La definición operativa- En las columnas de una matriz de datos se encuentran las variables. Una
variable es un vector de signos que representan los estados de los casos en las propiedades que
FI

interesan. Habitualmente, pero no necesariamente, estos signos son números.

Solo se puede hablar de una matriz de datos si todos los números (y más generalmente, los signos)
que se ven son interpretativos, es decir, son datos.


Para poner información en celdas necesitamos una convención que relacione “algo” con un número.
Esto se llama “plan de codificación”. Por ejemplo, si alguien tiene un título de estudio, un plan de
codificación puede ser: 0 es sin título, 1 con primaria, 2 con secundaria, 3 licenciada, etc.

El plan de codificación es parte de un conjunto de reglas y convenciones que permiten convenir una
propiedad de los objetos o sujetos en la realidad en una variable en la matriz de datos. Este conjunto
se llama “definición operativa” y las partes que lo integran verían según la naturaleza de la
propiedad. La variación más considerable está vinculada al tipo de unidad de análisis, y por
consiguiente al tipo de técnica de recolección.

Si queremos recoger información del título de estudio, la definición operativa incluye

a) El texto de la pregunta relativa (¿Cuál es su título de estudio?)


b) Un plan de codificación como el ya visto

Este archivo fue descargado de https://filadd.com


c) El hecho de que este plan sea directamente planteado al entrevistado pidiendo que elija una
respuesta, o solo sea empleado como una lista de voces a las cuales atribuir las respuestas
espontaneas de cada entrevistado a la pregunta relativa.
d) La indicación del vector-columna en que se deben poner las informaciones acerca del título de
cada entrevistado-informaciones que se convirtieron en datos representando cada una de ellas con el
correspondiente número del plan de codificación.
e) Insertar un procedimiento con el que se controlará la sinceridad de las declaraciones de los
entrevistados.

Una definición operativa es el conjunto de todas las operaciones, intelectuales y materiales, que
permitan pasar de estados reales a números que representan esos estados en la matriz, debemos
concluir que, junto con las reglas y convenciones específicas de la propiedad en cuestión, una

OM
definición operativa incluye las reglas y convenciones más generales y comunes a todas las
propiedades que se indaguen en esa investigación específica y en todas aquellas análogas.

La fidelidad de los datos- Un dato tiene escasa fidelidad si no representa correctamente el


correspondiente estado en la propiedad según las convenciones de la definición operativa. Una
causa de esto, por ejemplo, son declaraciones mentirosas.

.C
Los investigadores saben que los entrevistados tienden a declarar como propias las opiniones que
creen ortodoxas y compartidas por la mayoría, este fenómeno es conocido como “deseabilidad
social”, y es tan difundido que hace poco fiables los resultados de encuestas sobre opiniones
realizadas con preguntas sencillas y directas, ya que es fácil para el entrevistado imaginar cual sea
DD
la respuesta convencional, y por lo tanto, socialmente deseable.

Además pueden dar involuntariamente informaciones que generan datos no fidedignos. Por ejemplo
que no entiendan bien la pregunta, mala memoria, etc.
LA

El entrevistado no es la única fuente no fidedigna de un sondeo. El entrevistador, por ejemplo,


puede leer mal alguna pregunta, o alguna respuesta del plan de codificación pueden influir en las
respuestas del entrevistado. Pueden haber faltas en la trascripción de lo que se dijo por el
entrevistado, etc.
FI

Para controlar la fidelidad- Dada que la escasez de fidelidad empeora la calidad y reduce la
credibilidad de una investigación, se debería dedicar mucha más atención al control de la fidelidad.
El más simple es una inspección de las distribuciones de frecuencia de cada variable, o sea, cuantos
datos tiene cada uno de los códigos numéricos posibles en esa variable. Esto nos permite tomar
contacto con los datos que hemos recogido, además, nos permite descubrir si algunos datos tienen


códigos que no estaban previstos en la codificación.

Este análisis de distribuciones se llama “control de códigos locos”.

Otro dato es corroborar si las combinaciones de categorías son social o jurídicamente imposibles en
una sociedad dada. Esto se llama control de coherencia.
Todas las otras formas de control se aplican confrontando los datos con informaciones que se
encuentran fuera de la matriz.

Los coeficientes de fiabilidad: una crítica

Se describe el destalle de su aplicación


a) Para medir la fiabilidad de un test se aplica en una cierto día a una muestra de sujetos
b) Se registran las respuestas a las preguntas y se le atribuye un puntaje a cada respuesta

Este archivo fue descargado de https://filadd.com


c) A cada sujeto se le atribuye la suma o el promedio de sus puntajes, y esa cifra, siendo el resultado
global de cada individuo en el test, se pone en un vector-columna
d) Después de algún tiempo se repite la fase a con los mismos sujetos, mismas preguntas.
e) Se repite la atribución de puntaje y se ponen las cifras en otro vector-columna
f) Se calcula el coeficiente de correlación entre ambos vectores
g) Esta cifra es llamada “coeficiente de correlación test-retest”. Se considera una medida de
fiabilidad

Muchos psicólogos han expresado varias críticas a esto

a) En el intervalo de tiempo entre test y retest, el estado de algunos sujetos en la propiedad


investigada puede cambiar, o cambiar la conducta del investigador al aplicar el test

OM
b) La primera suministración puede cambiar artificialmente el estado del sujeto en la propiedad, y
esto en varias formas
a) El sujeto puede recordar las respuesta que dio antes y repetirlas para ser coherente
b) Si el test concierne a cualquier forma de habilidad, la primera suministración puede actuar como
entrenamiento, entonces la prestación de algunos sujetos mejora en el retest.
c) La primera puede acrecentar el interés de algunos sujetos hacia los problemas investigados y eso
los hace investigar, reflexionar, etc.

.C
d) Pueden haber otros efectos como acostumbramiento, desencanto, etc.
Por estos motivos se aconseja señalar el intervalo entre ambos test, lo cual sería determinante si
ambos resultados cambiasen.
DD
Una solución fue la de realizar dos tests sobre el mismo tema, con las mismas preguntas o pruebas,
formuladas de manera análoga, que se bautizaban como “paralelos”. Los dos vectores deseados se
producían sumando ambos puntajes. SI la correlación resultaba alta, eso confirmaba el supuesto de
equivalencia de los dos tests y simultáneamente la fiabilidad de uno con el otro.
Se propuso otra técnica más sencilla: hace un solo test y luego crear los dos vectores deseados
LA

simplemente sumando por separado los puntajes conseguidos por un sujeto en las preguntas que
tienen un numero par en la secuencia del test y en los que tienen un número impar. El coeficiente de
correlación así producido fue bautizado “subdivisión a la mitad”

Quien tiene experiencia con los sujetos investigados sabe que muchos tienden a acordar con las
FI

respuestas sin reflexionar sobre ellas, por prisa o por malentendido, o solo por quitarse un peso de
encima. Esto se conoce como “respuesta self”.

Un progreso técnico se produjo a finales de los 30 que se propuso el “coeficiente alfa” aplicable a
toda batería.


Un punto a destacar es que la línea de herramientas para controlar la fiabilidad está vinculada a los
test en sus laboratorios, es decir, baterías de preguntas o pruebas de formato igual. No es aplicable a
ninguna de las otras herramientas que se usan en un sondeo. Además, asignar un coeficiente de
fiabilidad de un test como si fuera un atributo permanente lleva a una falla de conceptos y además
roza un problema de generalizabilidad.

No es bueno generalizar a todas las poblaciones en todos los tiempos y situaciones. Esto parece
obvio, pero la realidad es que los coeficientes de fiabilidad encontrados en un grupo son
transferidos a todos los otros grupos sin cuestionamiento.

La generalización es ilegítima, incluso entre el mismo grupo de sujetos a los que se le aplica el test
para calcular su coeficiente de fiabilidad:

Este archivo fue descargado de https://filadd.com


a) Cada sujeto tiene una manera particular de reaccionar ante las preguntas
b) Cada pregunta o prueba tiene su particular nivel de inteligencia, agrado y aceptabilidad
c) La reacción de cada sujeto no es estable, puede variar con cada situación

Reducir todo esto a un coeficiente universal y definitivo es incorrecto. Los controles se siguen
volviendo más técnicos con los años y más alejados de la realidad.

¿Las definiciones operativas registran o manipulan opiniones y actitudes?

Hemos visto que limitándose al análisis de datos de la matriz y olvidando mirar afuera, se pueden
lograr coeficientes de fiabilidad tranquilizadores que, sin embargo, no tienen ninguna relación con
las situaciones reales.

OM
Esta manera de proceder no es problema de la matriz, sino de quienes la usan. La matriz es un
instrumento neutro, que se puede usar para descubrir indicaciones significativas sobre situaciones
reales.

.C
Definición de análisis estadístico. Runyon
¿Qué es la estadística?
DD
LA

Se la considera frecuentemente como una colección de hechos números expresado en términos de


proposiciones concisas, y que han sido recopiladas durante varias observaciones, o a partir de datos
numéricos.
FI

También puede ser considerada como un método para manejar los datos. Esto destaca de que la
estadística es una herramienta para la recopilación, organización y análisis de hechos números o de
observaciones. Esta definición es la más acertada para el tratamiento que le daremos.

Se pueden diferenciar entre las técnicas estadísticas descriptivas y las inferenciales o inductivas. La


descriptiva presenta la información en una forma cómoda, utilizable y comprensible. La inferencia


se ocupa de las generalizaciones de esta información o de hacer deducciones basándose en muestras
tomadas.

Definiciones de términos comúnmente utilizados en estadística

Variable: cualquier característica de una persona, medioambiente o situación experimental y que


puede variar.
Datos: Número o medidas obtenidos como resultado de observaciones
Población o universo: conjunto completo de individuos, objetos o medidas que tienen algunas
características comunes observables.
Parámetro: característica medible de una población
Muestra: subconjunto de una población o universo
Muestra aleatoria: subconjunto de población o universo seleccionado en forma tal que cada

Este archivo fue descargado de https://filadd.com


miembro de la población tenga igual oportunidad de ser elegido
Estadígrafo: numero resultante de la manipulación de datos de la muestra de acuerdo con ciertos
procedimientos específico. Para cada estadígrafo que describe algún aspecto de una muestra existe
un parámetro correspondiente que describe el mismo aspecto de una población.

Estadística descriptiva- Un científico recolecta mucha información numérica o datos acerca del
problema en cuestión. Los datos pueden tomar diversas formas. Al realizar la función descriptiva el
estadístico formula reglas y procedimientos para la presentación de los datos en una forma más útil
y significativa. Así, establece la representación gráfica, también formula reglas para el cálculo de
diversos estadígrafos a partir de datos en bruto.

De esta forma se podría:

OM
Reordenar los punteos y agruparlos para tener una imagen global de los datos
Construir tablas, graficas, etc.
Puede convertir los datos originales de forma que sean más útiles, como pasar los números a
porcentajes, etc.
Calcular promedios
Puede calcular dispersión a partir del promedio
Se pueden obtener relaciones entre dos instrumentos de medida diferentes.

.C
Estadística inferencial- Para muchos, el trabajo comienza al haber completado la función
descriptiva, ya que el propósito es explorar hipótesis de naturaleza general y no simplemente
comparar algunas muestras limitadas.
DD
A partir de las dudas que surgen, se ingresa en el análisis estadístico conocido como estadística
inductiva o inferencial, lo que permite lograr conclusiones que se extiendan más allá de las muestras
estadísticas mismas.
LA

Roberto Hernandez Sampieri.


FI

Capítulo 3.- Planteamiento del problema


cuantitativo. ¿Qué es plantear el problema de


investigación cuantitativa?

Desarrollo de la idea a través de 5 elementos: 1) objetivos de investigación, 2) preguntas de


investigación, 3) justificación de la investigación, 4) viabilidad de la investigación, 5) evaluación de
las deficiencias en el conocimiento del problema.

Criterios para plantear el problema.


 El problema debe expresar una relación entre dos o más conceptos o variables.

Este archivo fue descargado de https://filadd.com


 El problema debe estar formulado como pregunta, claramente y sin ambigüedad.
 El planteamiento debe implicar la posibilidad de realizar una prueba empírica, es decir, la
factibilidad de observarse en la realidad única y objetiva.

¿Qué elementos contiene el planteamiento del problema de investigación en el proceso


cuantitativo?

Los elementos para plantear un problema son cinco y están relacionados entre sí:
Objetivos que persigue la investigación.- Señalan a lo que se aspira en la investigación y deben
expresarse con claridad, pues son las guías del estudio.

Las preguntas de investigación.- Orientan hacia las respuestas que se buscan con la investigación.

OM
Las preguntas no deben utilizar términos ambiguos ni abstractos.

La justificación.- Indica el porqué de la investigación exponiendo sus razones. Por medio de la


justificación debemos demostrar que el estudio es necesario e importante.

Viabilidad del estudio.- Tomar en cuenta la disponibilidad de recursos financieros, humanos y


materiales que determinarán, en última instancia los alcances de la investigación. Asimismo,

.C
resulta indispensable que rengamos acceso al lugar o contexto donde se realizará la investigación.
Evaluación de las deficiencias en el conocimiento del problema.

Consecuencias de la investigación. Aunque no sea con fines científicos, pero sí éticos, es


DD
necesario que el investigador se cuestione acerca de las consecuencias del estudio. Desde el punto
de vista de los autores, también es un aspecto del planteamiento del problema que debe ventilarse, y
la responsabilidad es algo muy digno de tomarse cuenta siempre que se va a realizar un estudio.
LA

Conclusión. En este capítulo se explica cómo plantear un problema de investigación.


Se revisan criterios fundamentales en este proceso: delimitar el problema, relación entre variables,
formular como pregunta, tratar un problema medible u observable.

Se enlistan los elementos principales del planteamiento del problema: objetivos, preguntas de
FI

investigación, justificación del estudio, viabilidad del estudio, evaluación de deficiencias en el


conocimiento del problema.


Capítulo 5. Definición del alcance de la investigación a


realizar: exploratoria, descriptiva, correlacional o
explicativa. Sampieri

Después de definir que nuestra investigación vale la pena realizarla, el siguiente paso consistirá en
visualizar el alcance que tendrá.
El alcance depende de la estrategia de investigación. Así, el diseño, los procedimientos y otros

Este archivo fue descargado de https://filadd.com


componentes del proceso serán distintos en estudios de alcance exploratorio, descriptivo,
correlacional o explicativo. En la práctica, cualquier investigación puede incluir elementos de más
de uno de estos cuatro alcances.

¿En qué consisten los estudios exploratorios?

Se realizan cuando el objetivo es examinar un tema o problema de investigación poco estudiado, del
cual se tienen muchas dudas o no se ha abordado antes.

Valor- Los estudios exploratorios sirven para familiarizarnos con fenómenos relativamente
desconocidos, obtener información sobre la posibilidad de llevar a cabo una investigación más
completa respecto de un contexto particular, investigar nuevos problemas, identificar conceptos o

OM
variables promisorias, establecer prioridades para investigaciones futuras, o sugerir afirmaciones y
postulados.

Estos estudios, en pocas ocasiones, constituyen un fin en sí mismo, generalmente determinan


tendencias, identifican áreas, ambientes, contextos, etc. Estos estudios se caracterizan por ser más
flexibles en su método en comparación con los descriptivos, los correlaciónales o los explicativos, y
son más amplios y dispersos. Implican un mayor riesgo y requieren mayor paciencia y receptividad.

.C ¿En qué consisten los estudios descriptivos?

Con frecuencia, la meta del investigador consiste en describir fenómenos, situaciones, contextos y
DD
eventos; esto es detallar como y son y se manifiestan. Los estudios descriptivos buscan especificar
las propiedades, características y los perfiles de personas, grupos, comunidades, procesos, objetos o
cualquier otro fenómeno que se someta a un análisis. Se seleccionan una serie de cuestiones y se
mide o recolecta información sobre cada una de ellas.
LA

Los estudios descriptivos miden conceptos o recolectan información

Pretenden medir o recoger información de manera independiente o conjunta sobre los conceptos o
variables que se prefieran, esto es, su objetivo no es indicar como se relacionan las variables
medidas.
FI

Valor
Los estudios descriptivos son útiles para mostrar con precisión los ángulos o dimensiones de un
fenómeno, suceso, comunidad, contexto o situación. En esta clase de estudios, el investigador debe
ser capaz de definir, o al menos visualizar, que se medirá y sobre que o quienes se recolectarán los
datos.


Estos estudios ofrecen la posibilidad de hacer predicciones aunque sean incipientes.

¿En qué consisten los estudios correlaciónales?

Pretenden responder a preguntas de investigación como las siguientes: ¿aumenta la autoestima del
paciente conforme transcurre una psicoterapia orientada a él? ¿ a mayor variedad y autonomía del
trabajo corresponde mayor motivación intrínseca respecto de las tareas laborales?, entre otras. Este
tipo de estudios tiene como propósito conocer la relación que exista entre dos o más conceptos,
categorías o variables en un contexto particular.

Miden el grado de asociación entre dos o más variables. Es decir, miden cada variable
presuntamente relacionada, y después, miden y analizan su correlación. Tales correlaciones se
sustentan en hipótesis sometidas a prueba. Es importante recalcar que en la mayoría de los casos, las

Este archivo fue descargado de https://filadd.com


mediciones a correlacionar provienen de los mismos sujetos.

Utilidad
La principal es saber cómo se puede comportar un concepto o una variable al conocer el
comportamiento de otras variables relacionadas. Es decir, intentar predecir el valor aproximado que
tendrá un grupo de individuos o casos en una variable, a partir del valor que poseen en la o las
variables relacionadas.

Valor
Tiene en alguna medida un valor explicativo, aunque parcial, ya que el hecho de saber que dos
conceptos o variables se relacionan aporta cierta información explicativa.
La explicación es parcial porque hay otros factores vinculados con la adquisición de conceptos.

OM
Cuando mayor sea el número de variables que se asocien en el estudio y mayor la fuerza de las
relaciones, más completa será la explicación.

Riesgo: correlaciones espurias


Puede darse el caso de que creemos que dos variables están relacionadas, pero al final descubrimos
que no es así, esto es lo que se conoce como “correlación espuria”

.C ¿En qué consisten los estudios explicativos?

Estos van más allá de la descripción de conceptos o fenómenos, o del establecimiento de relaciones
entre conceptos; están dirigidos a responder por las causas de los eventos y fenómenos físicos o
DD
sociales. Su interés se centra en explicar porque ocurre un fenómeno y en qué condiciones se
manifiesta, o por qué se relacionan dos o más variables.

Grado de estructuración de los estudios explicativos


LA

Son más estructuradas que los estudios con los demás alcances, y de hecho, implican los propósitos
de éstos (exploración, descripción y correlación); además se proporcionan un sentido de
entendimiento a los fenómenos a que se hacen referencia.
¿Una misma investigación puede incluir diferentes alcances?
FI

Algunas veces una investigación puede caracterizarse como cualquiera de las anteriores, pero no
situarse únicamente como tal, esto es, aunque un estudio sea en esencia de un tipo, puede tener
elementos de otro. Además, una investigación puede iniciarse como “de un tipo” y terminar de
“otro”.


¿De qué depende el inicio de una investigación?

Los factores que influyen en que una investigación se inicie en alguno de los tipos son
a. El conocimiento actual que nos revele la investigación literaria
b. La perspectiva que el investigador pretende dar a su estudio

El conocimiento actual- Este factor nos enseña cuatro posibilidades de influencia. En principio, la
literatura puede revelar que no hay antecedentes sobre el tema o que no son aplicables al contexto
en el que se desarrollará el estudio, en este caso, la investigación deberá iniciarse como
exploratoria. Si se nos revelan guías aún no estudiadas e ideas vagamente vinculadas con el
problema, la situación resulta ser similar, es decir, será exploratorio.

En segundo término, la literatura nos puede revelar que hay piezas y trozos de teorías con apoyo
empírico moderado, esto es, estudios descriptivos que han detectado y definido ciertas variables y

Este archivo fue descargado de https://filadd.com


generalizaciones. En estos casos, puede iniciarse como descriptiva o correlacional. Además,
podemos agregar variables a medir.

Finalmente, la literatura puede revelar que existe una o varias teorías que se aplican a nuestro
problema de investigación, en estos casos, el estudio pueden iniciarse como explicativo.

¿Cuál de los cuatro alcances de estudio es mejor?

Los 4 son igualmente validos e importantes, y han contribuido al avance de las diferentes ciencias.
Cuando uno tiene sus objetivos y su razón de ser.

Al definirse el alcance, ¿Qué ocurre con el planteamiento del problema?

OM
Después de la revisión de la literatura, el planteamiento del problema puede permanecer sin
cambios, modificarse radicalmente o experimentar algunos ajustes. Lo mismo ocurre una vez que
hemos definido el alcance o los alcances de nuestra investigación. En esta etapa, recomendamos que
el planteamiento sea visualizado gráficamente de acuerdo con el alcance.

En el caso del alcance exploratorio, podemos visualizar el planteamiento al escribir los conceptos

.C
clave. Los conceptos son tentativos, puesto que estamos trabajando dentro de un tema o área no
estudiada o con antecedentes mínimos. Lo primero a considerar es si los conceptos clave reflejan mi
problema específico que deseo investigar. Si la respuesta es positiva, confirmo mi planteamiento y
me aboco a tales conceptos, si es negativa, cambio mis conceptos clave.
DD
Puedo limitar mi exploración a tales conceptos generales o agregar otros conceptos.
LA

Capítulo 7- Concepción o elección del diseño de


investigación
FI

Con el propósito de responder a las preguntas de investigación planteadas y cumplir con los
objetivos del estudio, el investigador debe seleccionar o desarrollar un diseño de investigación


especifico.

Como parte de lo que es el proceso de investigar el investigador tiene que tener clara idea de lo que
es elaborar un diseño de investigación. Una vez que se precisó el planteamiento del problema, se
definió el alcance inicial de la investigación y se formularon las hipótesis (o no se establecieron
debido a la naturaleza del estudio). El investigador debe visualizar la manera práctica y concreta de
responder a las preguntas de investigación, además de cubrir los objetivos fijados. Esto implica
seleccionar o desarrollar uno o más diseños de investigación y aplicarlos al contexto particular de su
estudio. EI termino diseño se refiere al plan o estrategia concebida para obtener la información que
se desea.

¿Cómo debemos aplicar el diseño elegido o desarrollado?

Dentro del enfoque cuantitativo, la calidad de una investigación se encuentra relacionada con el

Este archivo fue descargado de https://filadd.com


grade en que apliquemos el diseño tal como fue preconcebido (particularmente en el caso de los
experimentos). Desde luego, en cualquier tipo de investigación el diseño se debe ajustar ante
posibles contingencias o cambios en la situación (por ejemplo, un experimento en el cual no
funciona el estímulo experimental, este tendrá que modificarse o adecuarse).

¿En el proceso cuantitativo, de que tipos de diseños disponemos para investigar?

En este proceso se tienen dos tipos de diseño para investigar que son la investigación experimental
y la no experimental, la primera puede dividirse en experimentos "puros" y cuasiexperimentos. La
investigación no experimental la subdividimos en diseños transversales y diseños longitudinales.
Diseños experimentales
¿Qué es un experimento?

OM
EI termino experimento tiene al menos dos acepciones, una general y otra particular. La general se
refiere a "elegir o realizar una acción" y después observar las consecuencias (Babbie, 2001). Este
uso del término es bastante coloquial; así, hablamos de "experimentar" cuando mezclamos
sustancias químicas y vemos la reacción provocada, 0 cuando nos cambiamos de peinado y
observamos el efecto que suscita en nuestras amistades dicha transformación. La esencia de esta
concepción de experimento es que requiere la manipulación intencional de una acción para analizar

.C
sus posibles resultados.
DD
LA

Creswell (2005) denomina a los experimentos como estudios de intervención, porque un


investigador genera una situación para tratar de explicar cómo afecta a quienes participan en ella en
comparación con quienes no lo hacen. Es posible experimentar con seres humanos, seres vivos y
ciertos objetos.
FI

Los experimentos manipulan tratamientos, estímulos, influencias o intervenciones (denominadas


variables independientes) para observar sus efectos sobre otras variables (las dependientes) en una
situación de control., Es decir, los diseños experimentales se utilizan cuando el investigador
pretende establecer el posible efecto de una causa que se manipula. Pero, para establecer influencias


(por ejemplo, decir que el tratamiento psicológico reduce la depresión), se deben cubrir varios
requisitos que a continuación se expondrán.

Este archivo fue descargado de https://filadd.com


OM
¿Cuál es el primer requisito de un experimento?

Es la manipulación intencional de una o más variables independientes.


Experimento

.C
Situacion de control en la cual se manipulan, de manera intencional, una o más variables
independientes (causas) para analizar las consecuencias de tal manipulación sobre una o más
variables dependientes (efectos).
DD
La variable dependiente se mide
La variable dependiente no se manipula, sino que se mide para ver el efecto que la manipulación de
la variable independiente tiene en ella. Esto se esquematiza de la siguiente manera:
LA
FI

La letra "X" suele utilizarse para simbolizar una variable independiente o tratamiento experimental,
las letras o subíndices "A, B " indican distintos niveles de variación de la independiente y la letra "r
se utiliza para representar una variable dependiente.


Grados de manipulación de la variable independiente

La manipulación o variación de una variable independiente puede realizarse en dos o más grados.
EI nivel mínimo de manipulación es de dos grados: presencia ausencia de la variable independiente.
Cada nivel o grado de manipulación involucra un grupo en el experimento.

Presencia-ausencia

Este nivel o grado implica que un grupo se expone a la presencia de la variable independiente y el
otro no. Posteriormente, los dos grupos se comparan para saber si el grupo expuesto a la variable
independiente difiere del grupo que no fue expuesto.

Grupa de control
Se Ie conoce también como grupo testigo

Este archivo fue descargado de https://filadd.com


Más de dos grados

También es posible hacer variar 0 manipular la variable independiente en cantidades o grados.


Manipular la variable independiente en varios niveles tiene la ventaja de que no solo se puede
determinar si la presencia de la variable independiente 0 tratamiento experimental tiene un efecto,
sino también si distintos niveles de la variable independiente producen diferentes efectos. Es decir,
si la magnitud del efecto (Y] depende de la intensidad del estímulo (XI, X" X" etcétera).

¿Cómo se define la manera de manipular las variables independientes?

OM
Trasladar el concepto teórico a un estímulo experimental (una serie de operaciones y actividades
concretas a realizar).
Por ejemplo, si la variable independiente a manipular es la exposición a la violencia televisada (en
adultos). El investigador debe pensar cómo va a transformar ese concepto en una serie de
operaciones experimentales.

Dificultades para definir como se manipularan las variables independientes

.C
En ocasiones no resulta tan difícil trasladar el concepto teórico (variable independiente) en
operaciones prácticas de manipulación (tratamientos 0 estímulos experimentales).
DD
Guía para sortear dificultades

Para definir como se va a manipular una variable es necesario:


1.- Consultar experimentos antecedentes para ver si en estos resulto exitosa la forma de manipular
la variable independiente. AI respecto, resulta imprescindible analizar si la manipulación de esos
LA

experimentos puede aplicarse al contexto especifico del nuestro, o como se extrapolaría


2.- Evaluar la manipulación antes de que se conduzca el experimento. Hay varias preguntas que el
experimentador debe hacerse para evaluar su manipulación antes de llevarla a cabo:
¿Las operaciones experimentales representan la variable conceptual que se tiene en mente?,
¿Los diferentes niveles de variación de la variable independiente harán que los sujetos se comporten
FI

de diferente forma?
¿Qué variables es la mejor?

3. Incluir verificadores para la manipulación. Cuando se utilizan seres humanos hay varias formas
de verificar si realmente funciono la manipulación. La primera consiste en entrevistas a los sujetos.


Supongamos que, por medio de la manipulación, pretendemos generar que un grupo este muy
motivado hacia una tarea 0 actividad y el otro no, después del experimento entrevistaríamos a los
participantes para ver si el grupo que debía estar muy motivado en realidad lo estuvo, y el grupo
que no debía estar motivado no lo estuvo.

¿Cuál es el segundo requisito de un experimento?

El segundo requisito consiste en medir el efecto que la variable independiente tiene en la variable
dependiente. Esto es igualmente importante y como en la variable dependiente se observa el efecto,
la medición debe ser válida y confiable.
Las variables dependientes se pueden medir de diversas maneras: cuestionarios, escalas,
observación, entrevistas, mediciones fisiológicas. En la planeación de un experimento se debe
precisar cómo se van a manipular las variables independientes y como medir las dependientes.

Este archivo fue descargado de https://filadd.com


¿Cuantas variables independientes y dependientes deben incluirse en un experimento?

No hay reglas para ello; depende de cómo se haya planteado el problema de investigación y de las
limitaciones que existan.

¿Cuál es el tercer requisito de un experimento?

El tercer requisito que todo experimento debe cumplir es el control o la validez interna de la
situación experimental. El término "control" tiene diversas connotaciones dentro de la
experimentación. Sin embargo, su acepción mas común es que, si en el experimento se observa que
una o mas variables independientes hacen variar a las dependientes, la variación de estas últimas se
debe a la manipulación de las primeras y no a otros factores o causas; y si se observa que una o más

OM
independientes no tienen un efecto sobre las dependientes, se puede estar segura de ello.

Validez interna:
Grado de confianza que se tiene de que los resultados del experimento se interpreten
adecuadamente y sean validos (se logra cuando hay control).

.C
DD
Dicho de una tercera forma, lograr control en un experimento es contener la influencia de otras
variables extrañas en las variables dependientes, para asi saber en realidad si las variables
LA

independientes que nos interesan tienen o no efecto en las dependientes.


FI


Lo mismo ocurre con un método de enseñanza, cuando por medio de un experimento se desea
evaluar su influencia en el aprendizaje. Si no hay control, no sabremos si un buen aprendizaje se
debió al método, a que los participantes eran sumamente inteligentes, a que estos tenían
conocimientos aceptables de los contenidos o a cualquier otro motivo. Si no hay aprendizaje no
sabremos si se debe a que los sujetos estaban muy desmotivados hacia los contenidos a enseñar, a
que eran poco inteligentes o a cualquier otra causa.

Fuentes de invalidación interna

Existen diversos factores que tal vez nos confundan y sean causa de que ya no sepamos si la

Este archivo fue descargado de https://filadd.com


presencia de una variable independiente o un tratamiento experimental surte o no un verdadero
efecto.

Se trata de explicaciones rivales frente a la explicaci6n de que las variables independientes afectan a
las dependientes. A estas explicaciones se les conoce como fuentes de invalidación interna porque
precisamente atentan contra la validez interna de un experimento. Esta se refiere a cuanta confianza
tenemos en que sea posible interpretar los resultados del experimento y estos sean válidos. La
validez interna se relaciona con la calidad del experimento y se logra cuando hay control, cuando
los grupos difieren entre sl solamente en la exposición a la variable independiente (ausencia-
presencia o en grados o modalidades). cuando las mediciones de la variable dependiente son
confiables y validas, y cuando el análisis es el adecuado para el tipo de datos que estamos
manejando.

OM
Explicaciones rivales:
Son las fuentes de invalidaci6n interna, el control de un experimento se alcanza al ser eliminadas
estas.
Se presentan 12 explicaciones rivales que deben ser analizadas minuciosamente para tener un buen
control de estas que son:

.C
1 Historia. Son acontecimientos que ocurren durante el desarrollo del experimento, que pueden
afectar a la variable dependiente y llegan a confundir los resultados experimentales.

2. Maduración. Son procesos internos de los participantes que operan como consecuencia del
DD
tiempo y afectan los resultados del experimento, tales como cansancio, hambre, aburrimiento,
aumento en la edad y cuestiones similares.

3. Inestabilidad. Poca o nula confiabilidad de las mediciones, fluctuaciones en las personas


seleccionadas o en los componentes del experimento, inestabilidad autónoma de mediciones
LA

repetidas aparentemente "equivalentes".

4. Administrad6n de pruebas. Se refiere al efecto que puede tener la aplicación de una prueba sobre
las puntuaciones de pruebas subsecuentes.
FI

5. Instrumentación. Hace referencia a cambios en los instrumentos de medición o en los


observadores participantes, los cuales son capaces de producir variaciones en los resultados que se
premisa fundamental de los experimentos que se obtengan.

6. Regresión estadística. Se refiere a que a veces seleccionamos participantes sobre la base de




puntuaciones extremas y cuando son medidos por primera vez se encuentran en valores muy altos o
bajos en la variable que nos interesa

7. Selección. Puede presentarse al elegir a las personas para los grupos del experimento, de tal
manera que los grupos no sean equiparables.

8. Mortalidad experimental. Se refiere a diferencias en la perdida de participantes entre los grupos


que se comparan.

9. Interacción entre selección y maduración. Se trata de un efecto de maduración que no es igual en


los grupos del experimento, debido a algún factor de selección.

10. Difusión de tratamientos experimentales. Se refiere a que los participantes de los grupos
experimentales y de control intercambien entre si información sobre la naturaleza del experimento,

Este archivo fue descargado de https://filadd.com


en particular respecto al estímulo, lo cual podría "nublar" los efectos de este.

11. Actuadores anormales del grupo de control. Consiste en que si el grupo testigo conoce su
condición, se esfuerce en un grado superlativo con el fin de obtener puntuaciones más favorables en
la variable dependiente.

12. Otras interacciones. Es posible que haya diversos efectos provocados por la interacción de las
fuentes de invalidación interna.

¿Cómo se logran el control y la validez interna?

EI control en un experimento logra la validez interna, y el control se alcanza mediante: 1) varios

OM
grupos de comparación (dos como mínima) y 2) equivalencia de los grupos en todo, excepto en la
manipulación de la o las variables independientes.

OTRA TÉCNICA PARA LOGRAR LA EQUIVALENCIA INICIAL:


EL EMPAREJAMIENTO

Otro método para intentar hacer inicialmente equivalentes a los grupos es el emparejamiento o la

.C
técnica de apareo (en ingles, matching). Existen diversas modalidades de este método; sin
embargo, la más común es la que a continuación se va a describir. El proceso consiste en igualar a
los grupos en relación con alguna variable específica, que puede influir de modo decisivo en la o las
variables dependientes.
DD
El primer paso es elegir la variable específica de acuerdo con algún criterio teórico. Es obvio que
esta variable debe estar muy relacionada con las variables dependientes. Si se pretendiera analizar el
efecto que causa utilizar distintos tipos de materiales suplementarios de instrucción sobre el
desempeño en la lectura, el apareamiento podría basarse en la variable "agudeza visual".
LA

Experimentos sobre métodos de enseñanza emparejarían a los grupos en "conocimientos previos",


"aprovechamiento anterior en una asignatura relacionada con los contenidos a enseñar" o
“inteligencia". Experimentos relacionados con actitudes hacia productos o conducta de compra
pueden utilizar la variable "ingreso “para aparear a los grupos. En cada caso en particular debe
FI

pensarse cual! es la variable cuya influencia sobre los resultados del experimento resulta más
necesario controlar y buscar el apareamiento de los grupos en esa variable.

El segundo paso consiste en obtener una medición de la variable elegida para emparejar a los
grupos. Esta medición puede existir o efectuarse antes del experimento. Vamos a suponer que


nuestro experimento fuera sobre métodos de enseñanza, el emparejamiento llegaría a hacerse sobre
la base de la inteligencia. Si fueran adolescentes, se obtendrían registros de inteligencia de ellos o se
les aplicaría una prueba de inteligencia.

El tercer paso es ordenar a los sujetos en la variable sobre la cual se va a efectuar el emparejamiento
(de las puntuaciones más altas a las más bajas).

Técnica de apareo:
En igualar a los grupos en relación con alguna
Variable específica, que puede influir de modo Decisivo en la variable dependiente.

La asignación al azar es la técnica ideal para lograr la equivalencia inicial


La asignación al azar es el mejor método para hacer equivalentes los grupos (más preciso y
confiable). EI emparejamiento no la sustituye. Este llega a suprimir o eliminar el posible efecto de

Este archivo fue descargado de https://filadd.com


la variable apareada, pero nunca nos asegura que otras variables (no apareadas) no vayan a afectar
los resultados del experimento

Como comenta Nunnally (1975), la bondad de la asignaci6n al azar de los participantes o sujetos a
los grupos de un diseño experimental es que el procedimiento asegura absolutamente que, en
promedio, los grupos no diferirán (antes de que participen en los tratamientos experimentales) en
ninguna característica más de lo que pudiera esperarse por pura casualidad.

Una tipología sobre los diseños experimentales

A continuación se presentan los diseños experimentales más comúnmente citados en la literatura


respectiva. Para ella nos basaremos en la tipología de Campbell y Staoley (1966), quienes dividen

OM
los diseños experimentales en tres clases: a) pre experimentos, b) experimentos "puros"y c) cuasi
experimentos. Se utilizara la simbología que generalmente se emplea en los textos sobre
Experimentos.

Simbología de los diseños experimentales

R Asignación al azar o aleatoria. Cuando aparece quiere decir que los sujetos han sido asignados a

.C
un grupo de manera aleatoria (proviene del inglés randomization).
G Grupo de sujetos (GJ, grupo 1; G" grupo 2; etcétera).
X Tratamiento, estimulo 0 condición experimental (presencia de algún nivel 0 modalidad de la
Variable independiente).
DD
o Una medicion de los sujetos de un grupo (prueba, cuestionario, observación, etc.). Si aparece
antes del estímulo o tratamiento, se trata de un pre prueba (previa al tratamiento). Si aparece
después del estímulo se trata de un pre prueba (posterior al tratamiento).
LA

Ausencia de estímulo (nivel "cero" en la variable independiente). Indica que se trata de un grupo de
control o testigo.

Pre experimentos
FI

Los pres experimentos se llaman así porque su grado de control es mínimo.


1. Estudio de caso con una sola medición

Este diseño podría diagramarse de la siguiente manera:


Gxo


Consiste en administrar un estímulo o tratamiento a un grupo y después aplicar una medición de una
o más variables para observar cual es el nivel del grupo en estas variables.

Este diseño no cumple con los requisitos de un experimento "puro". No hay manipulación de la
variable independiente (no hay varios niveles de ella, ni siquiera los niveles mínimos de presencia
-ausencia). Tampoco hay una referencia previa de cuál era el nivel que tenía el grupo en la(s)
variable(s) dependiente(s) antes del estímulo, ni existe grupo de comparación. EI diseño adolece de
los defectos que fueron mencionados al hablar de uno de los requisitos para lograr el control
experimental: tener varios grupos de comparación. Noes posible establecer causalidad con certeza
ni se controlan las fuentes de invalidación interna.

2. Diseño de preprueba-posprueba con un solo grupo

Este segundo diseño se diagramaría así:

Este archivo fue descargado de https://filadd.com


G 01 x O2
A un grupo se Ie aplica una prueba previa al estímulo o tratamiento experimental, después se Ie
administra el tratamiento y finalmente se Ie aplica una prueba posterior al estímulo.
Este diseño ofrece una ventaja sobre el anterior: existe una punta de referencia inicial para ver qué
nivel tenía el grupo en la(s) variable(s) dependiente(s) antes del estímulo. Es decir, hay un
seguimiento del grupo. Sin embargo, el diseño no resulta conveniente para fines de establecer
causalidad: no hay manipulación ni grupo de comparación, y es posible que actúen varias fuentes de
invalidación interna, por ejemplo, la historia.

Los dos diseños pre experimentales no son adecuados para el establecimiento de relaciones
causales entre la(s) variable(s) independiente(s) y la(s) variable(s) dependiente(s). Son diseños que
han recibido bastante critica en la literatura experimental (por ejemplo, Kerlinger y Lee,2002).

OM
porque se muestran vulnerables en cuanto a la posibilidad de control y validez interna.
Algunos autores consideran que deben usarse solo como ensayos de otros experimentos con mayor
control.

En ciertas ocasiones los diseños pre experimentales sirven como estudios exploratorios, pero sus
resultados deben observarse con precaución. De ellos no es posible obtener conclusiones seguras.
Son útiles como un primer acercamiento al problema de investigación en la realidad, aunque no

más profundos.

.C
como el Único y definitivo acercamiento. Abren el camino, pero de ellos deben derivarse estudios

Experimentos "puros"
DD
Los experimentos "puros" son aquellos que reúnen los dos requisitos para lograr el control y la
validez interna: 1) gropos de comparación (manipulación de la variable independiente o de varias
independientes) y 2) equivalencia de los gropos. Estos diseños llegan a incluir una o más variables
independientes y una o más dependientes. Asimismo, pueden utilizar pre pruebas y pos pruebas
LA

para analizar la evolución de los gropos antes y después del tratamiento experimental. Desde luego,
no todos los diseños experimentales "puros" utilizan pre prueba; aunque la pos prueba si es
necesaria para determinar los efectos de las condiciones experimentales (Wiersma y Jurs, 2005).
A continuación se muestran varios diseños experimentales "puros"
FI

 Diseño con pos prueba únicamente y grupo de control

Este diseño incluye dos grupos, uno recibe el tratamiento experimental y el otro no (grupo de
control). Es decir, la manipulación de la variable independiente alcanza solo dos niveles: presencia
y ausencia. Los sujetos se asignan a los grupos de manera aleatoria. Cuando concluye la


manipulación, a ambos grupos se les administra una medición sobre la variable dependiente en
estudio.

Experimentos "puros”: Son aquellos que logran el control y la validez interna al reunir dos
requisitos: 1) grupos de comparación y 2) equivalencia de los grupos.

Ejemplo del diseño con pos prueba Únicamente. Varios Grupos y uno de control

Un investigador lleva a cabo un experimento para analizar cómo influye el tipo de liderazgo del
supervisor en la productividad de los trabajadores.

Pregunta de investigación: ¿influye el tipo de liderazgo que ejerzan los supervisores de producción
en una maquiladora sobre la productividad de los trabajadores en línea?
Hipótesis de investigación: distintos tipos de liderazgo que ejerzan los supervisores tendrán

Este archivo fue descargado de https://filadd.com


diferentes efectos sobre la productividad.
Hipótesis estadística: Xl'" X 2 '" X 3 '" X 4
(X = promedios de productividad)

Noventa trabajadores de línea en una planta maquiladora son asignados al azar a tres condiciones
experimentales: 1) 30 realizan una tarea bajo el mando de un supervisor con rol autocrático, 2) 30
ejecutan la tarea bajo el mando de un supervisor con rol democrático y 3) 30 efectúan la tarea bajo
el mando de un supervisor con rollaissezjaire (que no supervisa directamente, no ejerce presión y es
permisivo)15 Por Ultimo, 30 más son asignados en forma aleatoria al grupo de control donde no
hay supervisor. En total, son 120 trabajadores.

Se forman grupos de 10 trabajadores para el desempeño de la tarea (armar un sistema de arneses o

OM
cables para vehículos automotores). Por lo tanto, habrá 12 grupos de trabajo repartidos en tres
tratamientos experimentales y un grupo de control. La tarea es la misma para todos y los
instrumentos de trabajo también, al igual que el ambiente físico (iluminación, temperatura, etc.).
Las instrucciones son uniformes.

 Diseño con preprueba-posprueba y grupo de control

.C
Este diseño incorpora la administración de pre pruebas a los grupos que componen el experimento.
Los sujetos se asignan al azar a los grupos, después a estos se les aplica simultáneamente la pre
prueba; un grupo recibe el tratamiento experimental y otro no (es el grupo de control); por Ultimo,
se les administra, también simultáneamente, una pos prueba.
DD
Ejemplo del diseño de preproeba-posproeba con grupo de control
Un investigador desea analizar el efecto de utilizar un DVD (o cualquier otro formato de video,
Analógico o digital) didáctico con canciones para ensenar hábitos higiénicos a los niños de cuatro a
cinco años de edad.
LA

Pregunta de investigación: los videos didácticos musicalizados son más efectivos para ensenar
hábitos higiénicos a los niños de cuatro a cinco años de edad, en comparación con otros métodos
tradicionales de enseñanza.
FI

Hipótesis de investigación: los videos didácticos constituyen un método más efectivo de enseñanza
de hábitos higiénicos a niños de cuatro a cinco años, que la explicación verbal y los libros impresos.
Hipótesis estadística: N, * N, * N3 * N,
(N = número de hábitos higiénicos aprendidos en promedio por cada grupo.)


 Diseño de cuatro grupos de Solomon

R. 1. Solomon (1949) describió un diseño que era la mezcla de los dos anteriores (diseño con pos
prueba Únicamente y grupo de control más diseño de prepruebaposprueba con grupo de control).
La suma de estos dos diseños origina cuatro grupos: dos experimentales y dos de control, los
primeros reciben el mismo tratamiento experimental y los segundos no reciben tratamiento.

Solo a uno de los grupos experimentales y a uno de los grupos de control se les administra la pre
prueba; a los cuatro grupos se les aplica la pos prueba. Los participantes se asignan en forma
aleatoria.

Diseño de Solomon Considera solo cuatro grupos y un tratamiento experimental.


Su ventaja radica en que se pueden verificar los posibles efectos del pre prueba sobre la pos
prueba.

Este archivo fue descargado de https://filadd.com


 Diseños experimentales de series crono16gicas múltiples

Los tres diseños experimentales que se han comentado sirven más bien para analizar efectos
inmediatos o a corto plazo. En ocasiones el experimentador está interesado en analizar efectos en el
mediano o largo plazo, porque tiene bases para suponer que la influencia de la variable
independiente sobre la dependiente tarda en manifestarse. Por ejemplo, programas de difusión de
innovaciones, métodos educativos, modelos de entrenamiento o estrategias de las psicoterapias.

Asimismo, en otras situaciones se busca evaluar la evolución del efecto en el corto, mediano y largo
plazos (no solamente el resultado). También, en ocasiones la aplicación del estímulo por una sola
vez no tiene efectos (una dosis de un medicamento, un único programa televisivo, unos cuantos

OM
anuncios en la radio, etc.). En tales casos es conveniente adoptar diseños con varias pos pruebas, 0
bien con diversas pre pruebas y pos pruebas, con repetición del estímulo, con varios tratamientos
aplicados a un mismo grupo y otras condiciones. A estos diseños se les conoce como series
cronol6gicas experimentales.

Serie cronológica Diseño que efectúa a través del tiempo varias observación o mediciones
sobre una o más variables, sea o no experimental (véase capítulo 5 del CD anexo).

.C
"serie cronológica" se aplica a cualquier diseño que efectué a través del tiempo varias observaciones
o mediciones sobre una o más variables, sea o no experimental, 18 solo que en este caso se les
llama experimentales porque reúnen los requisitos para serlo.
DD
En estos diseños se pueden tener dos o más grupos y los participantes son asignados al azar.

Diseños factoriales Experimentos que manipulan dos o más variables independientes, e


incluyen dos o más niveles de cada una decía en cada una de las variables independientes. Se
utilizan muy a las variables independientes.Se revisan en el menudo en la investigación
LA

experimental.

¿QUÉ ES LA VALIDEZ EXTERNA?

Validez externa Posibilidad de generalizar los resultados de un experimento a situaciones no


FI

experimentales, así Como a otras personas y poblaciones.


Fuentes de invalidación externa

Existen diversos factores que llegan a amenazar la validez externa, los más comunes son los
siguientes:


1. Efecto reactivo o de interacción de las pruebas

Se presenta cuando la pre prueba aumenta o disminuye la sensibilidad o la calidad de la reacción de


los participantes a la variable experimental, lo cual contribuye a que los resultados obtenidos para
una población con pre prueba no puedan generalizarse a quienes forman parte de esa población pero
sin pre prueba (Campbell y Stanley, 1966). Babbie (2001) utiliza un excelente ejemplo de esta
influencia: en un experimento diseñado para analizar si una película disminuye el prejuicio racial,
la pre prueba podría sensibilizar al grupo experimental y la película lograr un efecto mayor del que
tendría si no se aplicara la pre prueba (por ejemplo, si se pasara la película en un cine o en la
televisión). Esto es, que la película solo sugería efecto cuando se administra el pre prueba.

3. Efecto de interacción entre los errores de selección y el tratamiento experimental

Este factor se refiere a que se elijan personas con una o varias características que hagan que el

Este archivo fue descargado de https://filadd.com


tratamiento experimental produzca un efecto, que no se darla si las personas no tuvieran esas
características. Por ejemplo, si seleccionamos trabajadores bastante motivados para un experimento
sobre productividad, podría ocurrir que el tratamiento solo tuviera efecto en este tipo de
trabajadores y no en otros (Únicamente funciona con individuos sumamente motivados). Ello se
resolvería con una muestra representativa de todos los trabajadores o introduciendo un diseño
factorial, y una de las variables fuera el grade de motivación (véanse diseños factoriales en el CD
anexo, capitulo "otros diseños experimentales", capitulo 5).

A veces este factor se presenta cuando se reclutan voluntarios para la realización de algunos
experimentos.

3. Efectos reactivos de los tratamientos experimentales

OM
La "artificialidad" de las condiciones puede hacer que el contexto experimental resulte atípico,
respecto a la manera en que se aplica regularmente el tratamiento (Campbell, 1975). Por ejemplo, a
causa de la presencia de observadores y equipo, los participantes llegan a cambiar su conducta
normal en la variable dependiente medida, la cual no se alteraría en una situación común donde se
aplicara el tratamiento. Por ello, el experimentador tiene que ingeniárselas para hacer que los
sujetos se olviden de que estan en un experimento y no se sientan observados. A esta fuente también

.C
se Ie conoce como "efecto Hawthorne", por una serie de experimentos muy famosos desarrollados -
entre 1924 y 1927- en una planta del mismo nombre de la Western Electric Company, donde al
variar las condiciones de iluminación se obtenían incrementos en la productividad de los
trabajadores, pero por igual al aumentar la luz que al disminuirla y, más bien, los cambios en la
DD
productividad se debieron a que los participantes se sentían atendidos (Ballantyne, 2000; Mayo,
1933).

4. Interferencia de tratamientos múltiples


LA

Si se aplican varios tratamientos a un grupo experimental para conocer sus efectos por separado y
en conjunto (por ejemplo, en infantes enseñarles métodos higiénicos con un video, más una di·
n8.mica que implique juegos, más un libro explicativo); incluso, si los tratamientos no son de efecto
reversible, es decir, si no es posible borrar sus efectos, las conclusiones solamente podrán hacerse
extensivas a los infantes que experimenten la misma secuencia de tratamientos, sean múltiples o la
FI

repetición del mismo.

Cuando los y las participantes reciben más de un estímulo, resulta complejo saber cuál de los
tratamientos o Combinaciones de estos logran el cambia en la{s) variable{s) dependiente(s.
Asimismo, puede presentarse la interferencia de tratamientos múltiples cuando diversos


estímulos se aplican al mismo tiempo y no se dispone de suficientes grupos.

5. Imposibilidad de replicar los tratamientos

Cuando los tratamientos son tan complejos que no pueden replicarse en situaciones no
experimentales. Es difícil generalizar estas.

6. Descripciones insuficientes del tratamiento experimental

En ocasiones. El tratamiento o los tratamientos experimentales no se describen lo suficiente en el


reporte del estudio Y. por consecuencia. Si otro investigador desea reproducirlos Ie resultara muy
difícil o imposible hacerlo (Mertens. 2005). Por ejemplo. Señalamientos tales como: "Ia
intervención funciono" no nos dice nada. Es por ella que se debe especificar en qué consistió tal
intervención. Las instrucciones deben incluirse. Y la precisión es un elemento importante.

Este archivo fue descargado de https://filadd.com


7. Efectos de novedad e interrupción

Un nuevo tratamiento puede tener resultados positivos simplemente por ser percibido como
novedoso. O bien. Lo contrarios: tener un efecto negativo porque interrumpe las actividades
normales de los participantes. En este caso. Es recomendable inducir a los sujetos paulatinamente al
tratamiento (no de manera intempestiva) y esperar a que asimilen los cambios provocados por este.
8. El experimentador

Que también lo consideramos una fuente de invalidación interna. Puede generar alteraciones o
Cambios que no se presentan en situaciones no experimentales (Mertens. 2005). Es decir. Que el
tratamiento solamente tenga efecto con la intervención del experimentador.

OM
9. Interacción entre la historia o el lugar y los efectos del tratamiento experimental

Un experimento conducido en un contexto en particular (tiempo y lugar). En ocasiones no puede ser


duplicado (Mertens. 2005). Por ejemplo. Un estudio que se efectue en una empresa en el momento
en que se reestructuran departamentos (donde algunos quizá se mantengan. otros se reduzcan y
hasta ciertos departamentos desaparezcan). O bien. Un experimento en una escuela secundaria.
Realizado al tiempo que su equipo de futbol obtiene un campeonato nacional. Asimismo. En

.C
ocasiones los resultados del experimento no pueden generalizarse a otros lugares o ambientes.

Si se lleva a cabo una investigación en una escuela pública recientemente inaugurada y que cuenta
con los máximos avances tecnológicos educativos. ¿Podemos extrapolar los resultados a todas las
DD
escuelas públicas de la localidad? A veces el efecto del tratamiento lo tenemos que analizar en
distintos lugares y tiempos (Creswell. 2005).

Mediciones de la variable dependiente:


LA

Puede suceder que un instrumento no registre cambios en la variable dependiente (ejemplo:


cuestionario) y otro si (observación). Si un experimento utiliza un instrumento para recolectar datos,
y de este modo sus resultados puedan compararse, otros estudios deberán evaluar la variable
dependiente con el mismo instrumento o un equivalente (lo mismo en situaciones no
FI

experimentales).

Para lograr una mayor validez externa es conveniente tener grupos lo más parecidos posible a la
mayoría de las personas a quienes se desea generalizar, y repetir el experimento varias veces con
diferentes grupos (hasta donde el presupuesto y los costos de tiempo lo permitan). También, desde


luego, tratar de que el contexto experimental sea lo más similar al contexto que se pretende
generalizar. Por ejemplo, si se trata de métodos de enseñanza resultaría muy conveniente que se
usen aulas similares a las que normalmente utilizan los participantes y que las instrucciones las
proporcionen los maestros de siempre. Claro que a veces no es posible. Sin embargo, el
experimentador debe esforzarse para que quienes participan no sientan, o que sea lo menos posible,
que se está experimentando con ellos.

¿Cuáles pueden ser los contextos de los experimentos?

En la literatura sobre la investigación del comportamiento se distinguen dos contextos en los que
llega a tomar lugar un diseño experimental: laboratorio y campo. Así, se habla de experimentos de
Laboratorio y experimentos de campo. Kerlinger y Lee (2002) definen al experimento de
Laboratorio como:
Un estudio de investigación en el que la varianza [efecto de todas, o de casi todas, las posibles

Este archivo fue descargado de https://filadd.com


variables independientes que tienen influencia, sin pertenecer al problema de investigación
inmediato, se mantienen reducidas [reducido el efecto] al mínimo.

Los mismos autores conciben al experimento de campo como:


Un estudio de investigación efectuado en una situación realista en la que una o más variables
independientes son manipuladas por el experimentador en condiciones tan cuidadosamente
controladas como lo permite la situación.
¿Que alcance tienen los experimentos y como es el enfoque del que se derivan?

Debido a que analizan las relaciones entre una o más variables independientes y una o más
dependientes, asi como los efectos causales de las primeras sobre las segundas, son estudios
explicativos (que obviamente determinan correlaciones). Se trata de diseños que se fundamentan en

OM
el enfoque cuantitativo y en el paradigma deductivo. Se basan en hipótesis preestablecidas, miden
variables y su aplicación debe sujetarse al diseño preconcebido; al desarrollarse, el investigador está
centrado en la validez, el rigor y el control de la situación de investigación. Asimismo, el análisis
estadístico resulta fundamental para lograr los objetivos de conocimiento.

Emparejamiento en Lugar de asignación al azar

emparejamiento.

.C
Como ya se comentó, otra técnica para hacer inicialmente equivalentes a los grupos es el

Desde luego, este método es menos preciso que la asignación al azar. Sin embargo, si se lleva a
DD
cabo con rigor, se tienen grupos grandes y se obtiene información que indica que los grupos no son
diferentes (por ejemplo, en un experimento sobre métodos de enseñanza, antes de comenzarlo
valdría la pena comparar, entre los grupos emparejados, las puntuaciones obtenidas en cursos
recientes), es posible lograr un alto grado de equivalencia inicial entre grupos. Así, los
diseños se representan con una "E" de emparejamiento, en lugar de la "R" (asignación aleatoria o al
LA

azar).

¿Qué otros experimentos existen?:


cuasi experimentos
FI

Los diseños cuasi experimentales también manipulan deliberadamente, al menos, una variable
independiente para observar su efecto y relación con una o más variables dependientes, solo que
difieren de los experimentos "puros" en el grado de seguridad o confiabilidad que pueda tenerse
sobre la equivalencia inicial de los grupos. En los diseños cuasiexperimentales los sujetos no se
asignan al azar a los grupos ni se emparejan, sino que dichos grupos ya están formados antes del


experimento: son grupos intactos (Ia razón por la que surgen y la manera como se formaron es
independiente o aparte del experimento).

Pasos de un experimento

A continuación mencionamos los principales pasos que suelen realizarse en el desarrollo de un


experimento:
Paso 1: Decidir cuantas variables independientes y dependientes deberán incluirse en el
experimento. No necesariamente el mejor experimento es el que incluye el mayor número de
variables; deben incluirse las variables que sean necesarias para probar las hipótesis, alcanzar los
objetivos y responder las preguntas de investigación.
Paso 2: Elegir los niveles o modalidades de manipulación de las variables independientes y
traducirlos en tratamientos experimentales. Este paso requiere que un concepto teórico se convierta
en una serie de operaciones que habrán de realizarse para administrar uno o varios tratamientos

Este archivo fue descargado de https://filadd.com


experimentales.
Paso 3: Desarrollar el instrumento o instrumentos para medir la(s) variable(s) dependiente(s).
Paso 4: Seleccionar una muestra de personas para el experimento (idealmente representativa de la
población). Véase el siguiente capítulo del proceso cuantitativo, "Selección de la muestra".
Paso 5: Reclutar a los sujetos participantes del experimento. Esto implica tener contacto con ellos,
darles las explicaciones necesarias, obtener su consentimiento por escrito, e indicarles lugar, día,
hora y persona con quien deben presentarse. Siempre es conveniente darles el máximo de
facilidades para que acudan al experimento (si se les puede brindar transporte en caso de que sea
necesario, proporcionarles un mapa con las indicaciones precisas, etc.). También hay que darles
cartas (a ellos o alguna institución a la que pertenezcan para facilitar su participación en el
experimento; por ejemplo, en escuelas a los directivos, maestros y padres de familia), llamarles por
teléfono el día anterior a la realización del experimento para recordarles su participación.

OM
Los sujetos deben encontrar motivante su participación en el experimento. Por lo tanto, resulta muy
conveniente darles algún regalo atractivo (a veces simbólico). Por ejemplo, a amas de casa, una
canasta de productos básicos; a ejecutivos o gerentes, una canasta con dos o tres artículos; a
estudiantes, créditos escolares, etc., además de expedirles una carta de agradecimiento. A veces
resulta adecuado que quienes traten con los sujetos participantes sean personas que les resulten
atractivas (si son hombres, un grupo de muchachas bonitas sería muy efectivo para reclutar a los

.C
sujetos en el experimento)."

Paso 6: Seleccionar el diseño experimental o cuasiexperimentai apropiado para nuestras hipótesis,


objetivos y preguntas de investigación.
DD
Paso 7: Planear como vamos a manejar a los sujetos que participen en el experimento. Es decir,
elaborar una ruta crítica de que van a hacer las personas desde que llegan al lugar del experimento
hasta que se retiran (paso a paso).
Paso 8: En el caso de experimentos "puros", dividirlos al azar o emparejarlos; y en el caso de
cuasiexperimentos, analizar cuidadosamente las propiedades de los grupos intactos.
LA

Paso 9: Aplicar las pre pruebas (cuando las haya), los tratamientos respectivos (cuando no se trate
de grupos de control) y las pos pruebas.
Asimismo, resulta conveniente tomar nota del desarrollo del experimento, llevar una bitácora
minuciosa de todo lo ocurrido a lo largo de este. Ello nos ayuda a analizar la posible influencia de
variables extrañas que generan diferencias entre los grupos y será un material invaluable para la
FI

interpretación de los resultados.

Diseños no experimentales

¿Qué es la investigación no experimental cuantitativa?




Podría definirse como la investigación que se realiza sin manipular deliberadamente variables.
Es decir, se trata de estudios donde no hacemos variar en forma intencional las variables
independientes para ver su efecto sobre otras variables. Lo que hacemos en la investigación no
experimental es observar fenómenos tal como se dan en su contexto natural, para después
analizarlos. Como señalan Kerlinger y Lee (2002): "En la investigación no experimental no es
posible manipular las variables 0 asignar aleatoriamente a los participantes o los tratamientos". De
hecho, no hay condiciones o estímulos planeados que se administren a los participantes del estudio.
En un experimento, el investigador construye deliberadamente una situación a la que son expuestos
varios individuos. Esta situación consiste en recibir un tratamiento, una condición o un estímulo
bajo determinadas circunstancias, para después evaluar los efectos de la exposición o aplicación de
dicho tratamiento 0 tal condición. Por decirlo de alguna manera, en un experimento se "construye"
una realidad.
En cambio, en un estudio no experimental no se construye ninguna situación, sino que se observan

Este archivo fue descargado de https://filadd.com


situaciones ya existentes,

Investigación no experimental

Estudios que se realizan sin la manipulación deliberada de variables y en los que solo se observan el
control directo sobre dichas variables ni se puede influir sobre ellas, porque ya sucedieron, al igual
que sus efectos.

La investigación no experimental es un parteaguas de un gran número de estudios cuantitativos


como las encuestas de opinión (suroeys), los estudios ex postfacto retrospectivos y prospectivos,
etc. Para ilustrar la diferencia entre un estudio experimental y uno no experimental consideremos el
siguiente ejemplo. Claro está que no será ético un experimento que obligara a las personas a

OM
consumir una bebida que afecta gravemente la salud. EI ejemplo es solo para ilustrar lo expuesto y
quizá aparezca un tanto burdo, pero es ilustrativo no provocadas intencionalmente en la
investigación por quien la fenómenos en su realiza. En la investigación no experimental las
variables independientes ocurren y no es posible manipularlas, no se tiene

Tabla 7.7 Variables no manipulables o difícilmente manipulables en experimentos, y


apropiadas más bien para estudios no experimentales
Tipo

.C
Características inherentes de personas u objetos que son complejas de manipular.
Características que no pueden ser manipuladas por razones éticas.
Características que no es posible manipular.
DD
Ejemplos

Hábitat de un animal, fuertes incrementos salariales,


Antigüedad en el trabajo...
Consumo de alcohol, tabaco o un medicamento (si la persona se encuentra saludable). Agresiones
LA

físicas, adopción, impedimentos físicos...


Personalidad (todos sus rasgos), energía explosiva de un volcán, estado civil de los padres
(divorciados, casados, unión libre, etc.), masa de un meteorito...

¿Cuáles son los tipos de diseños no experimentales?


FI

Distintos autores han adoptado diversos criterios para clasificar la investigación no experimental.
Sin embargo, en este libro consideramos la siguiente manera de clasificar dicha investigación: por
su dimensión temporal o el número de momentos o puntos en el tiempo, en los cuales se recolectan
datos.


Investigación transaccional o transversal


Los diseños de investigacicin transeccional o transversal recolectan datos en un solo momento,
en un tiempo único. Su propósito es describir variables y analizar su incidencia e interrelación en un
momento dado. Es como tomar una fotografía de algo que sucede. Por ejemplo:
1. Investigar el número de empleados, desempleados y subempleados en una ciudad en cierto
momento.

Diseños transaccionales: (transversales) Investigaciones que recopilan datos en un momento


único.

2. Determinar el nivel de escolaridad de los trabajadores de un sindicato en un punto en el tiempo.


3. Medir las percepciones y actitudes de mujeres jóvenes que fueron abusadas recientemente.
4. Evaluar el estado de los edificios de un barrio o una colonia, después de un terremoto.
5. Determinar el estado de salud física y emocional de un grupo de personas que ingresaron a los

Este archivo fue descargado de https://filadd.com


hospitales como consecuencia de un acto terrorista.
6. Analizar la relaci6n entre la autoestima y el temor al logro en un grupo de atletas de pista (en
determinado momento).
7. Analizar si hay diferencias en el contenido sexual entre tres telenovelas que están exhibiéndose
simultáneamente.

Recolección de datos única

Puede abarcar varios grupos o subgrupos de personas, objetos o indicadores, así como diferentes
comunidades, situaciones o eventos. Por ejemplo, medir los niveles de aprovechamiento de grupos
de primero, segundo y tercer amos de instrucción básica o primaria. Pero siempre, la recolección de
los datos ocurre en un momento único.

OM
A su vez, los diseños transeccionales se dividen en tres: exploratorios, descriptivos y
correlacionales-causales.

Diseños transeccionales exploratorios

El propósito de los diseños transeccionales exploratorios es comenzar a conocer una variable o un


conjunto de variables, una comunidad, un contexto, un evento, una situación. Se trata de una

.C
exploración inicial en un momento específico. Por lo general, se aplican a problemas de
investigación nuevos o poco conocidos; además, constituyen el preámbulo de otros diseños.

Diseños transeccionales descriptivos


DD
Los diseños transeccionales descriptivos tienen como objetivo indagar la incidencia de las
modalidades o niveles de una o más variables en una población.
El procedimiento consiste en ubicar en una o diversas variables a un grupo de personas u otros seres
vivos, objetos, situaciones, contextos, fenómenos, comunidades; y así proporcionar su descripción.
LA

Son, por lo tanto, estudios puramente descriptivos y cuando establecen hipótesis, éstas son también
descriptivas.

En ciertas ocasiones, el investigador pretende realizar descripciones comparativas entre grupos o


subgrupos de personas u otros seres vivos, objetos, comunidades o indicadores (esto es, en más de
FI

un grupo).

Diseños transeccionales correlacionales-causales

Estos diseños describen relaciones entre dos o más categorías, conceptos o variables en un


momento determinado. A veces, únicamente en términos correlacionales, otras en función de la


relación causa-efecto (causales).

Por lo tanto, los diseños correlacionales-causales pueden limitarse a establecer relacionesentre


variables sin precisar sentido de causalidad o pretender analizar relaciones causales. Cuando se
limitan a relaciones no causales, se fundamentan en planteamientos e hipótesis correlacionales; del
mismo modo, cuando buscan evaluar relaciones causales, se basan en planteamientos e hipótesis
causales.

Estos diseños pueden ser sumamente complejos y abarcar diversas categorías, conceptos o
variables. Cuando establecen relaciones causales son explicativos. Su diferencia con los
experimentos es la base de la distinción entre experimentación y no experimentación. En los
diseños transeccionales correlacionales- causales, las causas y los efectos ya ocurrieron en la
realidad (estaban dados y manifestados) o están ocurriendo durante el desarrollo del estudio, y

Este archivo fue descargado de https://filadd.com


quien investiga los observa y reporta. En cambio, en los diseños experimentales y cuasi-
experimentales se provoca intencionalmente al menos una causa y se analizan sus efectos o
consecuencias.
Un diseño correlacional-causal puede limitarse a dos categorías, conceptos o variables, o incluso
abarcar modelos o estructuras tan complejas.

Asimismo, los diseños correlacionales-causales en ocasiones describen relaciones en uno o más


grupos o subgrupos, y suelen describir primero las variables incluidas en la investigación, para
luego establecer las relaciones entre éstas (en primer lugar, son descriptivos de variables
individuales, pero luego van más allá de las descripciones: establecen relaciones).
En los diseños donde se reconstruyen las relaciones sobre la base de variabilidad amplia de las
independientes y dependientes, no se parte de una variable en especial ni de grupos, sino que se

OM
evalúa la estructura causal completa.

Todos los estudios transeccionales causales nos brindan la oportunidad de predecir el


comportamiento de una o más variables a partir de otras, una vez que se establece la causalidad. A
estas últimas, se les denomina variables predictoras.

Encuestas de opinión

.C
Las encuestas de opinión (surveys) son consideradas por diversos autores como un diseño. En
nuestra clasificación serian investigaciones no experimentales transversales o transeccionales
descriptivas o correlacionales-causales, ya que a veces tienen los propósitos de unos u otros diseños
DD
y a veces de ambos. Generalmente utilizan cuestionarios que se aplican en diferentes contextos.

Investigación longitudinal o evolutiva

Los diseños longitudinales, los cuales recolectan datos a través del tiempo en puntos o periodos,
LA

para hacer inferencias respecto al cambio, sus determinantes y consecuencias.

Los diseños longitudinales suelen dividirse en tres tipos: diseños de tendencia, diseños de análisis
evolutivo de grupos y diseños panel.
FI

 Diseños longitudinales de tendencia

Los diseños de tendencia (trend) son aquellos que analizan cambios a través del tiempo (en
categorías, conceptos, variables o sus relaciones) , dentro de alguna población en general. Su
característica distintiva es que la atención se centra en una población.


 Diseños longitudinales de evolución de grupo (cohorts)

Con los diseños de evolución de grupo o cohortes se examinan cambios a través del tiempo en
subpoblaciones o grupos específicos. Su atención son las cohorts o grupos de individuos vinculados
de alguna manera o identificados por una característica común, generalmente la edad o la época
(Glenn, 1977).

En los diseños de tendencia y de evolución de grupo se estudia el cambio en subpoblaciones o


poblaciones pero, debido a que en cada momento o tiempo se recolectan datos sobre una muestra
diferente aunque equivalente, el cambio se evalúa colectivamente y no de manera individual
(porque las personas pueden cambiar). Si hay variaciones, el investigador no sería capaz de
establecer en forma específica qué individuos las provocan.

Este archivo fue descargado de https://filadd.com


 Diseños longitudinales panel

Los diseños panel son similares a las dos clases de diseños vistos anteriormente, sólo que el mismo
grupo de participantes es medido u observado en todos los tiempos o momentos.
Diseños panel: Toda una población o grupo es seguido a través del tiempo.

En los diseños panel se tiene la ventaja de que, además de conocer los cambios grupales, se conocen
los cambios individuales. Se sabe qué casos específicos introducen el cambio. La des ventaja es que
a veces resulta muy difícil obtener con exactitud a los mismos sujetos para una segunda medición u
observaciones subsecuentes. Este tipo de diseños sirve para estudiar poblaciones o grupos más
específicos y es conveniente cuando se tienen poblaciones relativamente estáticas.

OM
¿Cuáles son las características de la investigación no experimental en comparación con la
investigación experimental?

Una vez más enfatizamos que tanto la investigación experimental como la no experimental son
herramientas muy valiosas y ningún tipo es mejor que el otro. El diseño a seleccionar en una
investigación depende más bien del problema a resolver y del contexto que rodea al estudio. Desde
luego, ambos tipos de investigación poseen características propias que es necesario resaltar.

.C
El control sobre las variables es más riguroso en los experimentos que en los diseños cuasi
experimentales y; a su vez, ambos tipos de investigación logran mayor control que los diseños no
experimentales.
DD
En un experimento se analizan relaciones ‘puras" entre las variables de interés, sin contaminación
de otras variables y, por ello, es posible establecer relaciones causales con mayor precisión.
Ahora bien, como menciona Kerlinger (1979), en los experimentos las variables independientes
pocas veces tienen tanta fuerza como en la realidad o la cotidianidad. Es decir, en el laboratorio
tales variables no muestran la verdadera magnitud de sus efectos, la cual suele ser mayor fuera del
LA

laboratorio. Por lo tanto, si se encuentra un efecto en el laboratorio, éste tenderá a ser mayor en la
realidad.

En cambio, en la investigación no experimental estamos más cerca de las variables formuladas


hipotéticamente como ‘reales’ y, en consecuencia, tenemos mayor validez externa.
FI

Una desventaja de los experimentos es que normalmente se selecciona un número de personas poco
o medianamente representativo respecto a las poblaciones que se estudian. La mayoría de los
experimentos utilizan muestras no mayores de 200 personas, lo que dificulta la generalización de
resultados a poblaciones más amplias. Por tal razón, los resultados de un experimento deben


observarse con precaución y es por medio de la réplica de éste como van generalizándose dichos
resultados.

Los estudios de caso

Los estudios de caso son considerados por algunos autores y autores como una clase de diseños, a la
par de los experimentales, no experimentales y cualitativos (por ejemplo: Mertens, 2005 y
Vi1liams, Grinnell y Unrau, 2005), mientras que otros(as) los ubican como una clase de diseño
experimental (v. gr., León y Montero, 2003) o un diseño etnográfico (Creswell, 2005). También han
sido concebidos como un asunto de muestreo (Hernández, Fernández y Baptista, 2003) o un método
(Yin, 2003).

La realidad es que los estudios de caso son todo lo anterior. Poseen sus propios procedimientos y
clases de diseños. Los podríamos definir como “estudios que al utilizar los procesos de

Este archivo fue descargado de https://filadd.com


investigación cuantitativa, cualitativa o mixta; analizan profundamente una unidad para responder al
planteamiento del problema, probar hipótesis y desarrollar alguna teoría’. Esta definición los sitúa
más allá de un tipo de diseño o muestra, pero ciertamente es la más cercana a la evolución que han
tenido los estudios de caso en los últimos años.

En ocasiones, los estudios de caso utilizan la experimentación, es decir, se constituyen en estudios


pre-experimentales. Otras veces se fundamentan en un diseño no experimental (transversal o
longitudinal) y en ciertas situaciones se convierten en estudios etnográficos, al emplear métodos
cualitativos. Asimismo pueden valerse de las diferentes modalidades del proceso mixto.

OM
Capitulo 8- sampieri
Selección de la muestra
Selección de la muestra. Sampieri

.C
No siempre en una investigación tenemos una muestra, pero en la mayoría de las situaciones sí.
DD
Lo primero ¿sobre qué o quienes se recolectarán datos?

El interés se centra en los sujetos, objetos, sucesos o comunidades de estudios (las unidades de análisis), lo
cual depende del planteamiento de la investigación.
LA

Para seleccionar una muestra, lo primero que debemos definir es la unidad de análisis (personas,
organizaciones, etc.). El sobre que o quienes se van a recolectar datos depende del planteamiento del
problema de investigación y de los alcances del estudio.

La muestra es un subgrupo de la población de interés, este deberá ser representativo de la población. El


FI

investigador pretende que los resultados encontrados en la muestra logren generalizarse o extrapolarse a la
población. El interés es que la muestra sea estadísticamente representativa.

¿Cómo se delimita la población?




Una vez definido cuál será la unidad de análisis, se procede a delimitar a la población que va a ser estudiada.
Una población es el conjunto de todos los casos que concuerdan con una serie d especificaciones, las cuales
deben ser establecidas con claridad. La delimitación no solo depende de los objetivos del estudio, sino de
otras razones prácticas, ya que no será mejor tener una población más grande.

Al seleccionar la muestra debemos evitar tres errores


No elegir casos que deberían ser parte de la muestra (participantes que deberían estar y no fueron
seleccionados)
Incluir casos que no deberían estar porque no forman parte de la población
Seleccionar casos que son verdaderamente inelegibles
El primer paso para evitar tales errores es una adecuada delimitación del universo o población.

Tipos de muestra- Categorizamos las muestras en dos grandes ramas: las no probabilísticas y las
probabilísticas. En estas últimas todos los elementos de la población tienen la misma posibilidad de ser
escogidos y se obtienen definiendo las características de la población y el tamaño de la muestra, y por medio
de una selección aleatoria o mecánica de las unidades de análisis.

Este archivo fue descargado de https://filadd.com


En las no probabilísticas la elección de los elementos no depende de la probabilidad, sino de causas
relacionadas con las características de la investigación o de quien hace la muestra. Aquí el procedimiento no
es mecánico, ni con base en formulas, sino que depende del proceso de toma de decisiones de una persona o
de un grupo, y desde luego, las muestras seleccionadas obedecen a otros criterios de investigación.

¿Cómo se selecciona una muestra probabilística?

La elección entre la muestra probabilística y la no probabilística se determina con base en el planteamiento


del problema, las hipótesis, el diseño y el alcance.

Las probabilísticas son esenciales en los diseños de investigación transeccionales, tanto descriptivos como
correlacionales causales, donde se pretende hacer estimaciones de variables en la población. Estas variables
se miden y analizan con pruebas estadísticas en una muestra, donde se presupone que ésta es probabilística y

OM
todos los elementos de la población tienen la misma probabilidad de ser elegidos. Las unidades o elementos
muestrales tendrán valores muy parecido a los de la población, las mediciones aquí nos darán estimaciones
precisas del con junto mayor. La precisión depende del error de muestreo, el cual es posible calcular.

Muestra probabilística estratificada- A veces el interés del investigador es comparar resultados entre
segmentos, grupos o nichos de población, porque así lo señala el planteamiento del problema. La
estratificación aumenta la precisión de la muestra e implica el uso deliberado de diferente tamaño de muestra

.C
para cada estrato, a fin de lograr reducir la varianza de cada unidad de la media muestral.

¿Cómo se lleva a cabo el procedimiento de selección de muestra?


DD
Las unidades de análisis o elementos muestrales se eligen siempre aleatoriamente para asegurarnos que cada
elemento tenga la misma posibilidad de ser elegido. Se utilizan tres procedimientos de selección:
Tómbola: se enumeran todos los elementos muestrales, y se van sacando como en un sorteo al azar.
Números random o aleatorios: se utiliza una tabla que implica un mecanismo de probabilidad muy bien
diseñado.
Selección sistemática de elementos muestrales: se elige un numero n de elementos dentro de una
LA

población a partir de un intervalo. Este intervalo se determina por el tamaño de la población y de la muestra.

Listado y otros marcos muestrales

El marco muestral constituye un marco de referencia que nos permite identificar físicamente los elementos
de la población, la posibilidad de enumerarlos y de proceder a la selección de los elementos muestrales.
FI

Normalmente, se trata de un listado existente o una lista que es necesario confeccionar ad hoc con los casos
de la población.

Los listados existentes sobre una población son variados: guía de teléfonos, lisat de miembros de una
asociación, direcciones, listas oficiales de escuela, etc.


Muestreo probabilístico por racimos


En algunos casos, el investigador se ve limitado por recursos financieros, tiempo o distancias, aquí se recurre
al muestreo por racimos o clusters. En este tipo de muestre, se reducen costos, tiempo y energía, al
considerar que muchas veces las unidades de análisis se encuentran encapsuladas o encerradas en
determinados lugares físicos o geográficos, a los que se denominan racimos.

Muestra por racimos implica diferenciar la unidad de análisis y la unidad muestral. La unidad de análisis
indica quienes van a ser medidos. La unidad muestral se refiere al racimo por medio del cual se logra el
acceso a la unidad de análisis. El muestreo por racimos supone una selección de dos etapas: en la primera se
seleccionan los racimos, en la segunda, y dentro de los racimos, se selecciona a los sujetos u objetos que van
a medirse. Para ello, se hace una selección que asegure que todos los elementos del racimo tienen la misma
probabilidad de ser elegidos.

Este archivo fue descargado de https://filadd.com


¿Cómo y cuáles son las muestras no probabilísticas?

Suponen un procedimiento de selección informal. Se utiliza en investigaciones cualitativas y cuantitativas.


La muestra dirigida selecciona sujetos típicos con la vaga esperanza de que sea representativos de una
población. Esto implica muchas desventajas, ya que no es posible calcular con precisión un error (por no ser
probabilísticos). Esto hace que los datos no puedan generalizarse.

La única ventaja de una muestra no probabilística, desde lo cuantitativo, es su utilidad para determinado
diseño de estudio que no requiere una representatividad, sino una cuidadosa y controlada elección de sujetos
con ciertas características previamente planteadas en el problema

Algunos procedimientos para una muestra aleatoria simple son los siguientes:
Muestreo al azar por marcado telefónico: se involucra un área geográfica y sus correspondientes números

OM
telefónicos que luego son seleccionados al azar.
Muestra multietapas o polietápica: significa que para extraer la muestra se han utilizado diversos
procedimientos (estratos y racimos, etc).

.C
CAPITULO 6- Recolección de datos, medición y
análisis de datos, Recolección de datos
DD
cuantitativos
LA

La medición es el proceso de vincular conceptos abstractos con indicadores empíricos, el cual se realiza
mediante un plan explícito y organizado para clasificar los datos disponibles. En este proceso, el instrumento
de recolección de datos tiene un papel central.
FI

Un instrumento de medición adecuado es aquel que registra datos observables que representan
verdaderamente los conceptos o las variables que le investigador tiene en mente, o sea, la realidad que se
desea capturar.

En toda investigación cuantitativa, aplicamos un instrumento para medir las variables contenidas en la


hipótesis.

El instrumento debe cubrir tres requisitos esenciales: confiabilidad, validez y objetividad

Confiabilidad

La confiabilidad de un instrumento se refiere al grado en que su aplicación repetida al mismo sujeto u objeto
produce resultados iguales. La confiabilidad se determina mediante diversas técnicas.
La validez

Se refiere al grado en que un instrumento realmente mide la variable que pretende medir.
La validez es un concepto del cual pueden tenerse diferentes tipos de evidencia:
Evidencia relacionada con el contenido: se refiere al grado en que un instrumento refleja un dominio
específico de contenido de lo que se mide. Es el grado en el que la medición representa al concepto o
variable medida.

Este archivo fue descargado de https://filadd.com


Evidencia relacionada con el criterio: establece la validez de un instrumento de medición al compararla
con algún criterio externo que pretende medir lo mismo. Este criterio es un estándar con el que se juzga la
validez de un instrumento. Cuanto más se relacionen resultados del instrumento con el criterio, la validez del
criterio será mucho mayor. Si el criterio se fija en el presente de manera paralela, se habla de validez
concurrente (los resultados se correlacionan con el criterio en el mismo momento o punto de tiempo). Si el
criterio se fija en el fu turo, se habla de validez predictiva.

Evidencia relacionada con el constructo: se refiere a que tan exitosamente un instrumento representa y
mide un concepto teórico. A esta validez le concierne en particular el resultado del instrumento, eso es, que
está midiendo y como opera para medirlo. Se incluyen tres etapas

o Se establece y especifica la relación teórica entre los conceptos (sobre la base del marco teórico)
o Se correlacionan los conceptos y se analiza cuidadosamente la correlación

OM
o Se interpreta la evidencia empírica de acuerdo con el nivel en el que clarifica la validez de constructo de
una medición en particular.

Autores consideran también la validez de expertos, la cual se refiere al grado en que aparentemente un
instrumento de medición mide la variable en cuestión, de acuerdo con un grupo de “voces calificadas”. Es
una evaluación del instrumento ante expertos.

.C
La validez total

La validez de un instrumento de medición se evalúa sobre la base de todos los tipos de evidencia. Cuanto
mayor evidencia de validez de contenido, criterio y constructo, este se acercará más a representar las
DD
variables que pretende medir.
Relación entre confiabilidad y validez

Un instrumento puede ser confiable pero no necesariamente válido, es por ello que el instrumento demuestre
ser ambas cosas, de no ser así, los resultados de la investigación son poco serios.
Factores que pueden afectar la confiabilidad y validez son:
LA

Improvisación: elegir un instrumento o crear uno no es algo que se puede tomar a la ligera
A veces se utilizan instrumentos desarrollados en el extranjero que no han sido validados para nuestro
contexto: cultura y tiempo
El instrumento resulta inadecuado para las personas a quienes se aplica: no es empático (lenguaje difícil,
no tomar en cuenta sexo, edad, etc)
Otro factor agrupa cuestiones vinculadas con los estilos personajes de los suejtos participantes tales como:
FI

deseabilidad social (tratar de dar una impresión favorable), tendencia a asentir con respecto a todo lo que se
pregunta, dar respuestas inusuales o contestar siempre negativamente.
Condiciones en las que se aplica el instrumento de medición (ruido, iluminación, etc)
La falta de estandarización (las instrucciones no son las mismas para todos los participantes)
Aspectos mecánicos (por ejemplo que no sea legible si es escrito).


Con respecto a la validez de constructo, dos factores pueden afectarlo significativamente: la estrechez del
contenido, es decir, que se excluyan dimensiones importantes de la variable o las variables medidas, y la
amplitud exagerada, donde el riesgo es que le instrumento contenga excesiva intrusión de otros constructos.

La objetividad- Se refiere al grado en que éste sea permeable a la influencia y tendencias del investigador
que lo administra, califica o interpreta. En este sentido, los aparatos y sistemas calibrados son más objetivos
que otros que requieren interpretación.

La objetividad se refuerza mediante la estandarización en la aplicación del instrumento y en las evaluaciones


de los resultados, así como al emplear personal capacitado.
Los estudios cuantitativos buscan que la influencia se reduzca al mínimo posible, lo cual es un ideal en cierta
medida.

Este archivo fue descargado de https://filadd.com


¿Cómo se sabe si un instrumento de medición es confiable y válido?

En la práctica es casi imposible que una medición sea perfecta, generalmente tiene un grado de error, lo cual
se intenta que sea mínimo. Cuanto mayor sea el error, más se aleja nuestra medición de la realidad.
Cálculo de la confiabilidad

Existen diversos procedimientos para calcularla, todos producen coeficientes de confiabilidad que oscilan
entre 0 y 1, con 0 mala confiabilidad y una representa el máximo de confiabilidad. Los procedimientos más
utilizados son:

Medida de estabilidad (confiabilidad por test-retest): un mismo instrumento se aplica dos o más veces a un
mismo grupo de personas después de un cierto período. Si la correlación entre los resultados es altamente
positiva, el instrumento se considera confiable

OM
Métodos de formas alternativas o paralelas: en este procedimiento no se administra el mismo instrumento
de medición, sino dos o más equivalentes de éste. Casi siempre se administran en un mismo grupo
simultáneamente o en un período de tiempo corto. El instrumento es confiable si la correlación es positiva.

Método de mitades partidas (Split-halves): necesita solo una aplicación de la medición. Específicamente el
conjunto total de ítems o reactivos se divide en dos mitades equivalentes y se comparan las puntuaciones por

.C
separado de ambas. Si el instrumento es confiable, las puntuaciones de ambas mitades deben estar muy
correlacionadas.

Medidas de consistencia interna: son coeficientes que estiman la confiabilidad: el alfa de Cronbach, los
DD
coeficientes KF-20 y KR-21 de Kruder y Richardson. El método de cálculo requiere una sola aplicación del
instrumento de medición. Su ventaja es uqe no se necesita dividir en dos mitades a los ítems del instrumento,
simplemente se aplica la medición y se calcula el coeficiente.

Cálculo de validez- Primero es necesario revisar cómo ha sido medida la variable por otros investigadores.
Con base en dicha revisión, elaborar un universo de ítems posibles para medir la variable y sus dimensiones
LA

(lo más exhaustivo posible). Después se consulta a investigadores familiarizados con la variable para ver si el
universo es realmente exhaustivo. Se seleccionan los ítems bajo una cuidadosa evaluación, uno por uno. Y si
la variable está compuesta por diversas dimensiones, se extrae una muestra probabilística de reactivos, ya sea
al azar o estratificada. Se administran los ítems, se correlacionan las puntuaciones de estos entre si y se hacen
estimaciones estadísticas para ver si la muestra es representativa. Para calcular la validez de contenidos es
necesario varios coeficientes. Este sería un procedimiento ideal, pero a veces ni se calculan los coeficientes
FI

sino que se seleccionan ítems mediante un proceso que asegura la representatividad.

La validez de criterio se estima al correlacionar la medición con el criterio externo, y este coeficiente se
coma como coeficiente de validez.


La validez de constructo suele determinarse mediante procedimientos de análisis estadísticos multivariado.

¿Qué procedimiento se sigue para construir un instrumento de medición?

Fase 1: redefiniciones fundamentales


Se deberán tener claros todos los conceptos o variables de la investigación al momento de desarrollar el (o
los) instrumentos de medición; nos preguntamos cosas al estilo que va a ser medido, donde, quien o quien,
cuando, nuestro propósito, nuestras definiciones operacionales, que datos queremos obtener, etc.

Fase 2: revisión enfocada en la literatura


Es necesario volver a revisar la literatura pensando en el instrumento de medición.

Al evaluar instrumentos utilizados previamente, conviene identificar el propósito del instrumento tal como
fue concebido, y analizar si su propósito es similar al nuestro. Ademas, se recomienda considerar los
siguientes elementos:

Este archivo fue descargado de https://filadd.com


Las variables que mide el instrumento o herramienta: ¿cuántas y cuales?
Los dominios de contenido de las variables (dimensiones, componentes, indicadores) ¿Cuáles?
La muestra: ¿a que o quien fue administrado?
Las condiciones de administración: lugar y contexto, como y cuando, por que o quien, etc.
La información sobre confiabilidad: de que tipo y como fue establecida
La información sobre validez: que evidencia de contenido, criterio y constructo se aportó, y como se
estableció.
La información sobre objetividad
Los recursos necesarios para administrarla

Fase 3: identificación del dominio de las variables a medir y sus indicadores

Es simultánea a la anterior y se refiere a la definición del dominio de las variables que habemos de medir,

OM
fundamentándonos en la revisión de otros instrumentos. Es decir, señalar con precisión los componentes,
dimensiones y factores que teóricamente integran la variable.

Fase 4: decisiones clave

Una vez evaluados varios instrumentos, es necesario tomar una serie decisiones fundamentales que
agrupamos en tres rubros

.C
1) Utilizar un instrumento de medición ya elaborado, adaptarlo o desarrollar uno nuevo
2) Resolver el tipo de instrumento y formato
3) Determinar el contexto de la administración
DD
Fase 5: construcción del instrumento Implica la generación de todos los ítems o reactivos y categorías del
instrumento. Esta construcción depende del tipo de instrumento y formato. Al final de esta etapa, el producto
es una primera versión del instrumento. Algo muy importante es ver cómo vamos a registrar sus datos y su
codificación:

Codificación significa asignarles un valor numérico o símbolo que los represente. Es decir, a las categorías
LA

de cada ítem se les asignan valores números o signos que tienen un significado. Por ejemplo sexo puede ser
masculino = 1 y femenino = 2.

Es muy importante indicar el nivel de medición de cada ítem, y por ende, el de las variables, porque es parte
de la codificación y debido a que dependiendo de dicho nivel se seleccionan uno u otro tipo de análisis
estadístico.
FI

Existen cuatro niveles de medición ampliamente conocidos

1) Nominal: en este nivel hay dos o más categorías del ítem o variables. Las categorías no tienen ni orden ni
jerarquía, lo que se mide se coloca en una u otra categoría. Por ejemplo, en género se poseen dos categorías:


masculino (1) y femenino (2).

2) Ordinal: hay varias categorías, pero además mantienen un orden de mayor a menor, o sea, hay jerarquía.
Un ejemplo seria (presidente 10, vicepresidente 9, director general 8, etc.)

3) Por intervalos: además del orden o la jerarquía, se establecen intervalos iguales de medición. Las
distancias entre categorías son las mismas a lo largo de toda escala, por lo que hay un intervalo constante,
una unidad de medida. Por ejemplo, un conjunto de personas que resolvió ejercicios matemáticos de una
prueba, la distancia entre cada persona son los ejercicios que resolvieron (a fueron 5, b 10, c 15).

4) De razón: además de tener todas las características del nivel de intervalos, el cero es real y es absoluto.
Cero absoluto implica un punto en la escala donde esta ausente o no existe la propiedad medida. Ej: rating.

Fase 6: prueba piloto- Consiste en administrar el instrumento a personas con características semejantes a las
de la muestra objetivo de la investigación. Se somete a prueba no solo el instrumento de medición, sino

Este archivo fue descargado de https://filadd.com


también las condiciones de aplicación y los procedimientos involucrados. Se realiza en una pequeña muestra.
En ocasiones, se somete el instrumento a varias pruebas y se va depurando paulatinamente.

Fase 7: versión final


Con los resultados de la prueba, el instrumento preliminar se modifica, ajusta y mejora.

Fase 8: entrenamiento del personal


Las personas que van a administrar y/o calificar el instrumento deben recibir un entrenamiento en varias
cuestiones

a) La importancia de su participación y su papel en el estudio


b) El propósito del estudio
c) Las personas o instituciones que patrocinan

OM
d) La calendarización y tiempos del estudio
e) La confidencialidad
f) La manera como deben vestirse si van a tener contacto con los participantes
g) Respeto y sensibilidad a los participantes
h) No discutir ni molestarse con los participantes
i) Establecimientos de confianza
j) Uso de gafetes identificadores

.C
k) El instrumento de medición y condiciones de administración.
El entrenamiento puede llevarse a cabo en una o varias sesiones, según el caso.

Fase 9: autorizaciones
DD
Es necesario gestionar autorizaciones antes de recolectar los datos. En primer término, por parte de los
representantes de las organizaciones a las cuales pertenecen los participantes. Para este fin conviene producir
una breve presentación del estudio.
En segundo término, es conveniente obtener el consentimiento de los mismos participantes, particularmente
por un medio escrito.
LA

Fase 10: administración del instrumento

Dependerá del tipo de instrumento que hayamos seleccionado y la experticia de todo el equipo.
¿De qué tipos de instrumentos de medición o recolección de datos cuantitativos disponemos en la
investigación?
FI

En la investigación disponemos de diversos tipos de instrumentos para medir variables de interés y en


algunos casos llegan a combinarse varias técnicas de recolección de datos.
Cuestionarios


Consisten en un conjunto de preguntas respecto de una o más variables a medir. Las preguntas pueden ser
cerradas o abiertas.

Las preguntas cerradas contienen categorías u opciones de respuesta que han sido previamente delimitadas.
Los participantes deben acotarse a éstas.

Las categorías de la respuesta son definidas a priori por el investigador. En algunas preguntas, se puede
seleccionar hasta más de una opción.

Las preguntas abiertas no delimitan de antemano las alternativas de respuesta, por lo cual el número de
categorías de respuesta es muy elevado (infinito en teoría). Nos dan información más amplia y son útiles
cuando no sabemos de antemano cual puede ser la respuesta del entrevistado, pero su mayor desventaja es
que son más difíciles de codificar.

En algunas ocasiones, basta solo una pregunta para medir lo que queremos, pero es necesario hacer solo

Este archivo fue descargado de https://filadd.com


preguntas necesarias para obtener la información deseada, si una pregunta es suficiente, no es necesario
incluir más.

Hay una serie de características que debe tener la pregunta, indistintamente de si es abierta o cerrada:
Deben ser claras, precisas y comprensibles para los sujetos
Es aconsejable que las preguntas sean lo más breve posibles, sin sacrificar claridad.
Deben formularse en un vocabulario simple, directo y familiar
No pueden incomodar al sujeto encuestado, ni ser percibidas amenazantes y nunca el entrevistado debe
sentir que se lo enjuicia.
Las preguntas deben referirse a un solo aspecto o una relación lógica.
Las preguntas no deben inducir las respuestas.
Las preguntas no pueden apoyarse en instituciones, respaldadas socialmente o en evidencia comprobada,
ya que es una forma de inducir respuestas.

OM
Es aconsejable evitar preguntas que nieguen el asunto que interroga.
No deben hacerse preguntas racistas o sexistas
En las preguntas con varias categorías de respuesta, y donde el sujeto solo tiene que elegir una, puede
ocurrir que el orden de las opciones pueda afectar las respuestas, por esto, resulta conveniente rotar el orden
de lectura de las respuestas a elegir de manera proporcional
En algunos casos es conveniente iniciar el cuestionario con preguntas neutrales o fáciles de contestar, para
dejar que el sujeto entre en la situación. Se deberá ir de las más generales a las más específicas, al estilo
“embudo”. Las preguntas importantes nunca deben ir al final.

.C
Además de las preguntas o categorías, un cuestionario esta formado básicamente por
Portada: caratula con el nombre del cuestionario, logo, etc
Introducción: debe incluir el propósito, motivaciones, agradecimiento, tiempo aproximado de respuesta
(un promedio o rango) lo suficientemente abierto para no presionar al sujeto, espacio para que firme o
DD
exprese consentimiento, identificación de quienes lo aplican, explicación breve de cómo se procesaran los
cuestionarios y las cláusulas de confidencialidad, instrucciones iniciales, entre otros.
Agradecimiento final
Formato, distribución de instrucciones, preguntas y categorías

No existe una regla al respecto sobre el tamaño del cuestionario, pero si es corto se pierde información y si es
LA

largo resulta tedioso, dando lugar a que las personas hasta se nieguen a responder o que lo hagan de forma
incompleta. Una recomendación es no hacer preguntas innecesarias.

¿Cómo se codifican las preguntas abiertas?


FI

Esto se hace una vez que conocemos todas las respuestas de los sujetos, o al menos las principales tendencias
de una muestra. De esta forma se obtienen ciertas categorías que representan los resultados finales.
El procedimiento consiste en encontrar y darles nombre a los patrones generales de respuesta, listar esos
patrones y después asignar un valor numérico o símbolo a cada uno. Así, un patrón constituirá una categoría
de respuesta. Se sugiere el siguiente procedimiento:


1. Seleccionar determinado número de cuestionarios mediante un método adecuado de muestreo que asegure
representatividad
2. Observar la frecuencia con que aparece cada respuesta a determinadas preguntas
3. Elegir las respuestas que se presentan con mayor frecuencia
4. Clasificar las respuestas elegidas en temas, aspectos o rubros, de acuerdo a un criterio lógico, cuidando
que sean mutuamente excluyentes
5. Darles un nombre o título a cada tema, aspecto o rubro
6. Asignarles el código a cada patrón general de respuesta

¿En qué contesto se puede administrar o aplicar un cuestionario?

Se aplican de dos maneras fundamentales: auto administrado y por entrevista (personal o telefónica).
1. Auto administrado
Significa que el cuestionario se proporciona directamente a los participantes, quienes lo contestan. No hay

Este archivo fue descargado de https://filadd.com


intermediarios y las respuestas las marcan ellos. Por la forma de autoadministración puede tener distintos
contextos: individual, grupal o envío (correo, e-mail o sitio web).

Se recomienda que sean cortos, con instrucciones precisas y claras.

Una ventaja de estos estudios es cuando se hacen preguntas personales o con mayor carga emotiva, el sujeto
puede contestar de manera más relajada y sincera, puesto que no tiene a nadie enfrente. Una desventaja es
que no estamos seguros de quien contestó el cuestionario.

2. Por entrevista personal- Implican que una persona calificada aplique el cuestionario a los participantes, y
también anota las respuestas.

Normalmente se tiene a varios entrevistadores entrenados, quienes no deberán influir en las respuestas. Su

OM
propósito es que se culmine cada entrevista con éxito, sin que decaiga el interés del participante ni la
atención. Los entrevistadores solo orientan, y deben transmitir que no hay respuestas correctas o incorrectas.
Con respecto a las instrucciones del cuestionario, algunas son para el entrevistado y otras para el
entrevistador. Al comienzo debe comentarse el propósito general del estudio, las motivaciones y el tiempo de
respuesta, agradeciendo de antemano la colaboración.

3. Por entrevista telefónica- La diferencia con la anterior es el medio de comunicación. Son la forma más

.C
rápida de realizar una encuesta, así como la más económica.

Las habilidades del entrevistador son parecidas al punto anterior, excepto que estos no tienen que confrontar
cara a cara. El nivel de rechazo suele ser menor que ante un entrevistador enfrente.
DD
Una gran ventaja es que se puede acceder a sitios inseguros asi como a lugares geográficamente complejos.
Una desventaja es que están limitadas a unas cuantas preguntas, evitando hacer mediciones complejas.

Escalas para medir las actitudes- Una actitud es una predisposición aprendida para responder coherentemente
de una manera favorable o desfavorable ante un objeto, ser vivo, actividad, concepto persona o sus símbolos.
Las actitudes están relacionadas con el comportamiento que matenemos en torno a los objetos que hacen
LA

referencia.

Las actitudes tienen diversas propiedades, entre las que se destacan: dirección e intensidad, estas propiedades
forman parte de la medición.

A continuación se verán algunos métodos para medir por escalas las variables que constituyen actitudes
FI

Escalamiento de Likert- Consiste en un conjunto de ítems presentados en forma de afirmaciones o juicios,


ante los cuales se pide una reacción de los participantes. Es decir, se presenta cada afirmación y se solicita al
sujeto que externe su reacción eligiendo uno de los cinco puntos o categorías de la escala. A cada punto se le
asigna un valor numérico. El participante obtiene una puntación respecto de la afirmación y al final su
puntuación total, sumando las puntuaciones obtenidas de las afirmaciones. Las afirmaciones califican al


objeto de actitud que se está midiendo. El objeto de actitud puede ser cualquier cosa física, un individuo, un
concepto o símbolo, una marca, una actividad, etc.

Dirección de las afirmaciones

Las afirmaciones pueden tener una dirección: favorable o positiva y desfavorable o negativa. Y esta
dirección es importante para saber cómo se codifican las alternativas de respuesta. Si la afirmación es
positiva, significa que califica favorablemente al objeto de actitud, de este modo, cuanto más de acuerdo con
la afirmación estén los participantes, su actitud será igualmente más favorable.

Forma de obtener las puntuaciones

Las puntuaciones de la escala de Likert se obtienen sumando los valores alcanzados respuesta de cada frase.
Por ello se denomina escala aditiva.
A veces se disminuye o se incrementa el número de categorías, sobre todo cuando los sujetos potenciales

Este archivo fue descargado de https://filadd.com


tienen una capacidad muy l imitada de discriminación, o por el contrario, muy amplia.

Como se construye una escala Likert

Se construye con un elevado número de afirmaciones que califiquen al objeto de actitud y se administran a
un grupo piloto para obtener las puntuaciones del grupo en cada afirmación. Estas afirmaciones se
correlacionan con las del grupo a toda la escala, y las afirmaciones, cuyas puntuaciones se correlacionan
significativamente con las puntuaciones de toda la escala, se seleccionan para integrar el instrumento de
medición. Debe calcularse confiabilidad y validez de la escala.

Existen dos formas básicas de aplicar la escala de LIkert. La primera es auto administrada, y la segunda es la
entrevista.

OM
Al construir la escala, debemos asegurarnos de que las afirmaciones y alternativas de respuesta sean
comprendidas por los sujetos a los que se le aplicará y que estos tendrán la capacidad de discriminación
requerida. Ello se evaluará en la prueba piloto.

Análisis de contenido

Es una técnica que para estudiar y analizar la comunicación de una manera objetiva, sistemática y

.C
cuantitativa. Krippendorff extiende esta definición a un método de investigación para hacer inferencias
válidas y confiables de datos con respecto a su contexto.

Resulta una técnica muy útil para analizar los procesos de comunicación en muy diversos contextos. Puede
DD
aplicarse a cualquier forma de comunicación.

Barelson señala varios usos de este análisis de contenido, entre los que se destacan:
Describir tendencias en el contenido de la comunicación
Develar diferencias en el contenido de la comunicación
Comparar mensajes, niveles y medios de comunicación
LA

Auditar el contenido y compararlo contra estándares u objetivos


Construir y aplicar estándares
Exponer técnicas publicitarias y de propaganda
Medir la claridad de los mensajes
Descubrir estilos de comunicación
Identificar intenciones, apelaciones y características
FI

Descifrar mensajes ocultos y otras aplicaciones de inteligencia y seguridad


Revelar centros de interés y atención para una persona o comunidad
Determinar el estado psicológico de personas o grupos.
Obtener indicios del desarrollo verbal
Anticipar respuestas a comunicaciones


Reflejar actitudes, valores, creencias de grupos de personas o personas


Cerrar preguntas abiertas

En análisis se efectúa por medio de la codificación, es decir, el proceso en virtud del cual las características
relevantes del contenido de un mensaje se transforman en unidades que permiten su descripción y análisis
precisos. Lo importante del mensaje se convierte en algo susceptible de describir y analizar. Para hacerlo es
necesario definir el universo, unidades de análisis y categoría de análisis.

Universo - El universo pueden ser las obras de un autor, un noticiero, un diario, canciones de una banda, etc.
Este universo debe delimitarse con precisión. Algunos autores hablan del universo como el contexto de la
unidad, el cuerpo más largo del contenido que puede examinarse al caracterizar una o más unidades de
registro.
Unidades de análisis- Se mencionan 5 unidades importantes de análisis

La palabra

Este archivo fue descargado de https://filadd.com


El tema
El ítem
El personaje
Medidas de espacio-tiempo

Las unidades se insertan, colocan o caracterizan en categorías y/o subcategorías. Al cuestionarse sobre que
unidades debe seleccionarse, esto depende de los objetivos o preguntas de la investigación. Barelson sugiere:
En un solo estudio es posible utilizar más de una unidad de análisis
Los cálculos de palabras y las unidades amplias, como el ítem y las medidas de espacio tiempo son más
adecuados en los análisis que dan mayor importancia a los asuntos definidos
Las unidades amplias y las más definidas son válidas para la aceptación o rechazo de una categoría
Las unidades amplias generalmente requieren de menos tiempo para su codificación que las unidades
pequeñas

OM
Debido a que los temas o las oraciones agregar otra dimensión al asunto, la mayoría de las veces son más
difíciles de analizar que las palabras y las unidades amplias
El tema es adecuado para el análisis de significados y las relaciones entre éstos.

Categorías- Son los niveles donde serán caracterizadas las unidades de análisis. Son las casillas o cajones en
las cuales las unidades de análisis. Se definen como características o aspectos que presenta la comunicación
con la que estamos trabajando.

.C
Cada unidad de análisis se categoriza o encasilla en una o más sistemas de categorías. La selección de
categorías dependerá del planteamiento del problema.

Tipos de categorías- Krippendorff señala cinco tipos de ellas


DD
1. De asunto o tópico: se refieren a cuál es el asunto, materia o temática tratada en el contenido
2. De dirección: se refieren a como es trato el asunto, positivo o negativo, favorable o desfavorable, etc.
3. De valores: indican que valores, intereses, metas, deseos o creencias son revelados
4. De receptores: se relacionan con el destinatario de la comunicación
5. Físicas: son para ubicar la posición y duración de una unidad de análisis.
LA

Se suelen tener varios tipos de categorías que deben cumplir con los siguientes requisitos:
Deben ser exhaustivas (categorías y subcategorías)
Las subcategorías deben ser de preferencia mutuamente excluyentes
Categorías y subcategorías deben derivarse del marco teórico y de una profunda evaluación de la situación
Codificación
FI

Será necesario elaborar las hojas de codificación. Estas hojas contienen las categorías y subcategorías, y los
codificadores anotan en ellas cada vez que una unidad entre en una subcategoría.
Estas hojas de codificación pueden incluir elementos más precisos para describir el material (si se analiza el
diario, incluir datos para identificar el diario, fecha, etc). Una hoja puede servir para una o varias unidades.
Las categorías y subcategorías deben codificarse con sus respectivos valores numéricos. Se deberá


proporcionar entrenamiento a codificadores, para que se familiaricen con las variables, etc. Asimismo, deben
comprender en que consiste en forma cabal cada unidad de análisis.

Parte del entrenamiento será realizar una prueba piloto, así podremos descubrir categorías y/o subcategorías
no contempladas previamente, así como también nos sirve para evaluar a los codificadores.
Será necesario calcular la confiabilidad de los codificadores: todos los codificadores realizan análisis de
contenido provisional de una parte representativa del material, con la finalidad de determinar el grado de
acuerdo entre ellos. Si no hay consenso no puede efectuarse una evaluación confiable de la muestra. Se
calculara la confiabilidad de cada codificador (individual) y la confiabilidad entre codificadores.

¿Qué es y para qué sirve la observación cuantitativa?

Consiste en el registro sistemático, valido y confiable de comportamientos o conductas que se manifiestan.


Esto es similar al análisis de contenido. De hecho, es una forma de observación del contenido de
comunicación verbal y no verbal.

Este archivo fue descargado de https://filadd.com


El instrumento de recolección de datos es una o varias personas. Aquí las variables a observar son
especificadas y definidas antes de comenzar la recolección de datos. Se enfoca en información que pueda ser
evaluada por medio de los sentidos. Los observadores registran lo que perciben siguiendo reglas que se
aplican invariablemente y deben minimizar su efecto sobre los registros e interacciones con los participantes
observados.

Pasos para construir un sistema de observación

Los pasos son los siguientes


1. Definir con precisión el universo de aspectos, eventos o conductas a observar
2. Especificar las circunstancias de observación
3. Incluir todo el universo o extraer una muestra representativa de aspectos, eventos o conductas a observar
4. Establecer y definir las unidades de observación

OM
5. Establecer y definir las categorías y subcategorías de observación
6. Diseñar la manera de registrar las observaciones
7. Determinar el papel de los observadores
8. Seleccionar a los observadores codificadores
9. Proporcionar entrenamiento a observadores codificadores
10. Efectuar la prueba piloto y calcular la confiabilidad de los observadores

.C
Ventajas de la observación

Tanto la observación como el análisis de contenido tienen varias ventajas


DD
Son técnicas de medición no obstrusivas
Aceptan material no estructurado
Pueden trabajar con grandes volúmenes de datos

Otras formas cuantitativas de recolección de datos


Se disponen de otros métodos, tan útiles y fructíferos como los ya nombrados, entre los que se encuentran:
LA

1. Pruebas estandarizadas (como un test de inteligencia)


2. Datos secundarios (Recolectados por otros investigadores) e implica la revisión de documentos, etc.
3. Instrumentos mecánicos o electrónicos (como puede ser un polígrafo)
4. Instrumentos específicos propios de cada disciplina
FI

¿Cómo se codifican las respuestas de un instrumento de medición?

Una vez recolectados los datos, deben codificarse de la forma que ya comentamos antes, de lo contrario no
se podrán efectuar análisis.


La codificación de las respuestas implica cuatro pasos:

1. Establecer los códigos de las categorías o alternativas de respuesta de los ítems o preguntas y las
categorías y subcategorías de contenido u observación no precodificadas
2. Elaborar el libro de códigos
3. Efectuar físicamente la codificación
4. Grabar y guardar los datos y su codificación en un archivo permanente.
Se pueden utilizar más de un tipo de instrumento de recolección de datos

Este archivo fue descargado de https://filadd.com


Tipos de investigaciones cuantitativas. Briones.

Hay numerosos tipos de investigaciones cuantitativas que resultan de la aplicación de uno o más criterios de
clasificación. Según el objetivo, pueden clasificarse en descriptivas y en explicativas. Según el tiempo se
distinguen las investigaciones sincrónicas o transversales, que se refieren al objeto de investigación en un
mismo período de tiempo, y las investigaciones diacrónicas o longitudinales, en las cuales los individuos se
analizan durante un cierto tiempo, de manera más o menos continua. A este tipo pertenecen los estudios de

OM
cohortes constituidas por personas que tienen uno o más rasgos comunes, los estudios de paneles (un mismo
grupo estudiado en varios momentos), etc.

Otra clasificación importante se basa en la posibilidad que tiene el investigador de controlar la variable
independiente y otras situaciones del estudio, donde se distinguen los siguientes tipos generales de
investigaciones: a) experimentales; b) cuasiexperimentales; y c) no experimentales.

.C
Investigaciones experimentales- El investigador tiene el control de la variable independiente o variable
estímulo, la cual puede hacer variar en la forma que sea más apropiada a sus objetivos. De igual manera,
puede controlar la conformación de los grupos que necesita para su estudio.
DD
Permiten determinar:

a) El efecto de una variable independiente sobre una variable dependiente


b) Los efectos diferenciales de dos o más modalidades de una variable independiente sobre otra dependiente
c) El efecto conjunto de dos o más variables independientes sobre otra
LA

Se deben tomar en cuenta las siguientes recomendaciones:

1. La investigación debe realizarse, en la medida de lo posible, en la misma escuela o ambiente en el cual se


pretende generalizar los resultados obtenidos en una muestra.
2. Deben utilizarse diversos contextos educacionales con las respectivas muestras experimentales cuando se
desea, por ejemplo, validar un cierto recurso instruccional
FI

3. Al efectuar un experimento, el investigador debe prestar atención a las conductas de las personas
sometidas al estudio con el propósito de utilizar, si procede, sus opiniones y comentarios al interpretar los
resultados obtenidos.
4. En muchas ocasiones, es útil darle instrucciones un tanto más detalladas que las usuales a las personas que
participan en el experimento, sin llegar a inducir las respuestas o reacciones buscadas. Este procedimiento


puede convenir cuando las condiciones en las cuales se va a realizar el estudio son muy diferentes a aquellas
en las cuales se desenvuelven habitual mente tales personas.

Los tipos específicos más usados de la investigación experimental son:

a) Diseño con un grupo experimental, un grupo de control y mediciones “antes” y “después” en ambos
grupos.

Este diseño constituye la forma clásica de la investigación experimental. En él, los sujetos del estudio son
asignados aleatoria mente –al azar– al grupo experimental y al grupo de control. Luego se siguen los pasos
siguientes:
1. En ambos grupos se hace una medición “antes” (pre-test) de la variable dependiente
2. Luego, se aplica la variable independiente sólo en el grupo experimental
3. Se hacen mediciones “después” (pos-test) en ambos grupos.
4. Finalmente, se hacen comparaciones, en ambos grupos entre las mediciones “antes” y las respectivas

Este archivo fue descargado de https://filadd.com


mediciones “después”.

La conformación aleatoria de los dos grupos permite eliminar, al nivel del azar, las diferencias que pudieran
existir entre sus sujetos componentes; las mediciones “antes” y “después” en ambos grupos y sus
comparaciones en cada uno de ellos permiten constatar si ha habido diferencias entre ellos, y si éstas fueran a
favor del grupo experimental, entonces el investigador podría decir que ellas se deben a la acción de la
variable independiente o trata miento que sólo fue aplicado a ese grupo.

Debido al mismo hecho de utilizar el azar, en la formación de los grupos se controlan los factores de
selección (no hay elección intencionada) y el de mortalidad (si los grupos son prácticamente iguales, los dos
deberían tener, de ocurrir, similar número de personas que no completan el experimento). Por usar un grupo
de control, el experimento clásico controla también los factores de historia (efecto de circunstancias externas
al experimento que pueden influir en sus resultados, el cual debería ser similar para los dos grupos) y el de

OM
maduración (cambios biológicos y psicológicos que se darían en ambos grupos de manera semejante
mientras se hace el experimento).

Para la constatación de las posibles diferencias entre los grupos experimental y de control, una vez ter
minado el experimento, se debe utilizar análisis de la covarianza con los puntajes “antes” (pretest) como
covariable. Este procedimiento permite ajustar las diferencias de los sujetos de ambos grupos, dejando sola
mente los cambios de la variable independiente como causa de las modificaciones que se darían entre ellos.

.C
Este diseño, como el que exponemos a continuación, puede utilizarse con más de un grupo experimental.
b) Diseño con un grupo experimental y un grupo de control con mediciones sólo “después”.
Es un diseño que sólo se diferencia del clásico que acabamos de ver en cuanto, por alguna razón o
impedimento, no se hacen mediciones “antes” de la variable dependiente en ninguno de sus dos grupos.
DD
Comprende los siguientes pasos:

1. Conformación aleatoria de los grupos experimental y de control (puede utilizarse más de un grupo
experimental, por ejemplo, al comparar dos métodos de exposición sobre las drogas).
2. Aplicación de la variable independiente, trata miento o prueba sólo al grupo experimental.
3. Medición “después” (postest) de la variable dependiente (por ejemplo, actitud frente a las drogas) en
LA

ambos grupos.
4. Comparación de las dos mediciones “después”.

El diseño controla los factores que pueden actuar contra la validez interna del experimento, como lo son la
historia y la maduración , por utilizar un grupo de control. También controla los factores de la selección
FI

(sesgos) y de la mortalidad experimental. Debido al hecho que no se hacen mediciones “antes” no puede
haber efecto sobre la prueba que se utiliza en la medición “después”. Pero por no utilizar medición “antes”,
el diseño tiene varias desventajas, entre las cuales se destacan las siguientes:

1. No es posible usar el análisis de la covarianza para controlar las diferencias iniciales que podrían tener los


grupos experimental y de control.


2. Si se retiran sujetos de cualquiera de los dos grupos, y co mo no tenemos mediciones “antes”, no sabemos
si las diferencias, de producirse, entre las situaciones finales del grupo experimental y de control se deben a
la influencia del tratamiento (variable independiente) en el primero de estos grupos o bien se deben a las
diferencias que pudieron existir al comienzo del experimento entre los sujetos de ambos grupos.
El análisis de los resultados (puntajes, en general) se hace comparando la diferencia entre los puntajes
“después” de ambos grupos mediante estadística. Si se utilizan más de dos grupos, se debe utilizar el análisis
de la varianza.

c) Diseño de dos grupos apareados con mediciones “antes” y “después”.


Es una variación del diseño clásico en cuanto consiste en aparejar (igualar, en la mayor medida posible) los
sujetos que constituirán el grupo experimental y el grupo de control, con la finalidad de eliminar o disminuir
al máximo las diferencias entre ellos. El apareamiento cumple la misma función que la asignación al azar
utilizada en el diseño clásico con el resultado que en este nuevo diseño se logra mayor precisión en el
momento de analizar los datos.

Este archivo fue descargado de https://filadd.com


El procedimiento metodológico comprende las siguientes tareas:

1. Se aplica una prueba a un grupo de sujetos, destinada a medir la variable dependiente (digamos, la actitud
hacia la política), o una variable estrecha mente correlacionada con ella, cuya modificación se desea
establecer por una cierta variable independiente.
2. Con base en los puntajes obtenidos por los sujetos en la prueba mencionada en el paso anterior, se forman
pares de sujetos con puntajes iguales o con pequeñas diferencias entre sí.
3. De cada par, se asigna un sujeto al grupo que será el grupo experi mental y el otro al que será el grupo de
control (puede haber más de un grupo experimental)
4. Se aplica el tratamiento (por ejemplo, una exposición sobre las funciones de la política en la sociedad) al
grupo experimental y, si es necesario, un placebo al grupo de control.
5. Como medición “después” se aplica a los dos grupos la misma prueba de la medición “antes”, o una
prueba equivalente a ella.

OM
6. Finalmente se comparan las diferencias entre los valores “después” de los dos grupos.
Todos los diseños que hemos presentado hasta aquí trabajan con una sola variable independiente. Sin
embargo, se debe tener en cuenta que en muchas investigaciones se utilizan dos o más variables
independientes, con el propósito de determinar los efectos combinados de ellas en la variable dependiente del
caso.

Investigaciones cuasiexperimentales

.C
En todos los diseños experimentales, propia mente tales, la asignación a los grupos experimentales y de
control se realiza en forma aleatoria, con la finalidad principal de lograr una igualación, lo más cercana
posible, de las características de los sujetos que conforman esos grupos. Esto, en definitiva, para descartar
DD
variables (propiedades) distintas a la variable independiente cuyo efecto particular se desea establecer en la
variable dependiente.

Con toda la importancia que tiene la aleatorización de los grupos, en muchas circunstancias no es posible
cumplir con el propósito de control señalado anterior mente. Sin embargo, como lo han señalado Campbell y
Stanley, en ausencia de esa posibilidad, aún es posible realizar experimentos que pueden tener validez
LA

interna y externa, si bien no eliminan todos los factores que las debilitan. De manera general, los diseños en
los cuales no se ha podido utilizar el azar en la formación de los grupos reciben el nombre de diseños cuasi-
experimentales, de los cuales presentamos los de mayor utilización.

a) Diseño con un grupo de control no equivalente.


Es un diseño que se utiliza, no exclusivamente, con grupos naturales, como el constituido por los alumnos de
FI

un cierto grado o de una cierta escuela, personas que han sido sometidas a una intervención social (de la cual
se podría tomar una muestra), etc. Tales grupos forman el grupo experimental; el grupo de control se forma
con sujetos, no elegidos al azar, que tengan características muy semejantes a los sujetos del grupo
experimental.


La principal debilidad del diseño es la no aleatorización de los grupos, en la medida que el grupo de control
sea diferente del grupo experimental, más allá de la diferencias debidas al azar. En esa medida, no podrán
controlarse los factores extraños cuyos efectos podrían confundirse con el efecto de la variable
independiente, que es el foco de la investigación. Esta situación, sin embargo, puede resolverse, en buena
proporción, con el uso del análisis de la covarianza en el trata miento final de los datos, con la elección de
una covariable adecuada.

b) Diseño de series cronológicas.


Es un diseño cuasiexperimental que no requiere de grupo de control. Consiste en una serie de mediciones
periódicas que se hacen en las personas en estudio, antes y después que se ha introducido la variable
experimental.

El principal problema de este diseño es el factor denominado historia, constituido por la influencia que
pudieron tener factores externos al experimento, ocurridos durante su desarrollo. Otro problema tiene que ver
con la elección de las técnicas de análisis que permitan establecer el efecto de la variable independiente en

Este archivo fue descargado de https://filadd.com


los sujetos del estudio. La mejor fórmula es el análisis de la varianza, que compara el pro medio de los
valores “antes” de la introducción de la variable independiente con el pro medio de los valores “después”.

Investigaciones no experimentales- Las investigaciones no experimentales son aquellas en las cuales el


investigador no tiene el control sobre la variable independiente, que es una de las características de las
investigaciones experimentales y cuasiexperimentales, como tampoco conforma a los grupos del estudio. En
estas investigaciones, la variable independiente ya ha ocurrido cuando el investigador hace el estudio. O sea,
ha ocurrido un cierto fenómeno, que es tomado como variable independiente (por ejemplo, la exposición a la
televisión) para un estudio en el cual el investigador desea describir esa variable como también los efectos
que provoca sobre otro fenómeno, que es la variable dependiente (por ejemplo, conductas delictivas). Por
esta característica distintiva en lo que se refiere a la ocurrencia de la variable independiente, las
investigaciones en las que se da esta circunstancia reciben el nombre de investigaciones ex post facto
(después del hecho).

OM
A este tipo de investigaciones pertenecen, entre las principales, la encuesta social, el estudio de casos, el
estudio de cohortes, la observación estructurada, la investigación- acción participativa y la investigación
evaluativa.

Encuestas seccionales y longitudinales- La encuesta seccional es aquella que se realiza en una cierta
población o en una muestra de ella en un período corto de tiempo. Son estudios sincrónicos, en un mismo

.C
tiempo. Corresponden a “fotografías instantáneas” que se toman en un momento dado. El nombre de
seccionales proviene del hecho de que la encuesta entrevista a personas que pertenecen a los principales
estratos del colectivo estudiado. Los casos típicos los constituyen las encuestas de opinión pública.
La encuesta longitudinal, a diferencia de la anterior, es un estudio diacrónico , es decir, un estudio que sigue
DD
en un cierto período de tiempo el desarrollo del fenómeno estudiado. Este desarrollo puede hacerse en un
período ya pasado, y se tiene, entonces, un estudio longitudinal retrospectivo. Por ejemplo, la reconstitución
de la historia ocupacional de una cohorte de personas. La limitación de estos estudios –no insalvable– es el
olvido de las personas de las situaciones estudiadas.

Los estudios longitudinales prospectivos , constituidos por estudio de seguimiento de cohortes, por
LA

seguimiento de paneles (un mismo grupo heterogéneo), analizan los cambios que se producen en los sujetos
en un cierto período de tiempo (a veces, bastante largo) mediante entrevistas sucesivas o con datos
provenientes de otras fuentes.

Etapas de la encuesta
FI

1. Formulación de un problema de investigación y del marco problemático o teórico en el cual se da ese


problema.

2. Formulación de objetivos descriptivos o explicativos. Estos últimos deberían formularse como hipótesis,
es decir, como relaciones supuestas entre variables o bien como hipótesis estadísticas.


3. Determinación de la cobertura de la encuesta. Esta etapa comprende tareas como definición de la


población en la cual se tomará la información para el estudio:
a. en términos geográficos
b. en términos demográficos
c. en términos temporales
En esta etapa se debe decidir si la encuesta será o no de cobertura total. En el primer caso, se recoge la
información pertinente de toda la población o universo de estudio. En el segundo, hay que determinar el tipo
y tamaño de la muestra que se va a utilizar, como también los criterios que se emplearán para tratar los casos
de rechazo por parte de las personas, direcciones no existentes, etc.

4. Determinación de las variables necesarias para:


a. cubrir los objetivos de la investigación;
b. permitir la comparación entre subgrupos de la población estudiada;
c. permitir la medición de variables;

Este archivo fue descargado de https://filadd.com


d. construir variables complejas.

5. Construcción de los instrumentos para recoger la información. Sin perjuicio de otros, el instrumento
básico es un cuestionario con preguntas abiertas o cerradas que corresponden a las variables anterior mente
mencionadas. Si el estudio comprende la medición de una variable mediante una determinada técnica, como
podría ser una técnica Likert, se deben incluir las proposiciones pertinentes, con sus respectivas gradaciones
de aceptación o rechazo (acuerdo, desacuerdo, etc.).

6. Prueba de los instrumentos elaborados en un grupo relativa mente pequeño, de características semejantes a
las de la población que se va a estudiar.

7. Trabajo de campo. Si la información se va a recoger mediante entrevistadores, estos deben capacitarse


debida mente con anterioridad a su salida a terreno. Una vez iniciada la recolección de información con el

OM
cuestionario, hay que supervisar el trabajo que se va realizando, controlando un cierto nú mero de las
entrevistas hechas por los entrevistadores.

8. Control de la calidad de la información recogida y procesa miento. A medida que se va haciendo la


recolección de la información, es necesario revisar los cuestionarios, para determinar preguntas sin
respuestas, inconsistencia entre unos datos y otros, ambigüedad en las contestaciones, etc. Si procede, se
deben repetir las entrevistas o, bien, eliminar las preguntas con problemas. El procesamiento de la

.C
información comprende la preparación de un código para clasificar las respuestas y su aplicación a cada
cuestionario.

9. 9. Análisis e interpretación de los resultados. La última etapa de la encuesta la constituye el análisis de los
DD
datos y su interpretación. El análisis, que se hace con base en un “plan de análisis” previa mente preparado,
comprende, básica mente, el estudio de los resultados estadísticos obtenidos con los datos. Son las
“respuestas cuantitativas” a las preguntas y objetivos de la investigación: tablas de frecuencia, cuadros de
doble entrada, asociaciones, correlaciones, etc. La interpretación no tiene el significado que se le da en la
investigación cualitativa. Comprende comparaciones entre resultados, evaluación de magnitudes,
consecuencias de ellas, relaciones con el marco problemático, probables consecuencias de los resultados, etc.
LA

En la investigación explicativa, el análisis comprende la explicación de relaciones entre las variables entre
las cuales se ha constituido una o más hipótesis.

10. Informe final. Este informe comprende la exposición del problema estudiado, su marco teórico o
problemático, la población o muestra estudiada, período en el cual se realizó el trabajo de campo, la
metodología empleada, problemas encontrados y los resultados obtenidos por el análisis, las explicaciones
FI

que procedan, etc. Como anexos van los cuestionarios empleados y otros instrumentos usados en la
recolección de los datos.


Capítulo 8: clasificación, conteo, medición,


construcción de escalas. Marradi

Algunas propiedades, sean de objetos o de personas, tienen un numero finito de estados, claramente distintos
y distinguibles uno del otro, en una palabra, son discretos. Discretas se le llaman a las propiedades que tienen
estos estados discretos. Las propiedades que tienen un número infinito de estados son llamadas “continuas”.
La distinción entre discreto y continuo es lo más importante al momento de recolectar información y
transformarla en datos por medio de una definición operativa.

Este archivo fue descargado de https://filadd.com


Las discretas se dividen en tres clases según el tipo de relación que hay entre sus estados.
Categoriales: si los estados son solo diferentes, pero no hay ningún tipo de relación cuantitativa entre
ellos.
Ordinales: si los estados tienen relaciones ordinales (de mayor y menor) se pueden ordenar a lo largo de
una escala.
Cardinales: si tienen relaciones cardinales, en el sentido de que se puede legítimamente establecer un
cociente entre ellos.
Las continuas se dividen en dos clases:
Mensurables: si sus estados se pueden registrar sin intervención activa del individuo cuyo estado se está
registrando
Continuas no mensurables: si la intervención debe ser activa

OM
Propiedades y variables categoriales

En la realidad hay una gran variedad de estados en las propiedades, se debe decidir qué estados se
convertirán en categorías de la variable que va a representar la propiedad de la matriz. Se necesitará
intervención de expertos para resolver estas situaciones, inclusive cuando la transformación de estados en
categorías parece simple y automática.

.C
Las operaciones de creación y/o delimitación de categorías se realizan siguiendo los principios de una
operación intelectual (la clasificación). Esta operación se puede llevar a cabo en abstracto, considerando las
diversas formas que puede tomar un objeto o evento (por ejemplo, los múltiples estados que puede concebir
una propiedad).
DD
El criterio que se sigue para dividir la intensión de un concepto o para agrupar ejemplares tiene el nombre de
“fundamentum divisionis”. Un ejemplo es dividir un grupo por el color del pelo (morocho, rubio, etc).
Si se adoptan 2 o más criterios (morochos hombres o mujeres, rubios hombres o mujeres) la operación se
llama “tipología”.
LA

Lo importante es que las categorías sean mutuamente excluyentes. Este requisito de la mutua exclusividad
vale tanto para tipologías como para clasificaciones.

Otro requisito de la clasificación es la exhaustividad de las categorías: todos los estados posibles deben estar
asignados a una categoría. Como esto no es posible, muchas veces se prevé la categoría “otro” donde
finalizan todos los estados no previstos. Que nada tiene que ver con una categoría de “no contesta” o “no
FI

sabe”.

Una cuota muy alta de “no sabe” puede significar que algunos temas no interesan, o que han sido formuladas
con un lenguaje lejano al del entrevistado. Una cuota demasiado alta de “no contesta” puede significar que
algunas preguntas tocan temas delicados o privados. Una cuota muy alta de “otro” significa que la


clasificación puede haber sido realizada de manera superficial.

Estas faltas ocurren en muchos sondeos, y se podrían evitar con una prueba “piloto”, es decir, sometiendo
preliminarmente el cuestionario a algunos miembros de la población a examinar. Reflexionando sobre estos
resultados, se pueden obtener mejoras. Estas pruebas piloto a veces se ejecutan solo como “ritual” y antes del
sondeo, donde no hay tiempo para analizar nada.

Otro problema es la división de fundamentum divisionis, o sea, la forma en que se establecen las categorías
(que debe ser relevante para nuestros intereses). Se aconseja siempre el máximo detalle cada vez que las
informaciones sean recogidas sin interacción oral con un sujeto. Un detalle mucho menor (pocas categorías y
claramente distintas) si el sujeto tiene que escuchar las alternativas y elegir una sin poder apoyarse en un
texto escrito. SI la entrevista es telefónica, se aconseja limitarse a dicotomías (si/no) o a propiedades
sencillas.

Cuando se establecen categorías, se asigna un código, y con esto se cumple el paso más importante en la

Este archivo fue descargado de https://filadd.com


transformación de la propiedad categorial en una variable categorial. Aquí hay que evitar el problema de
algunos traten estos aparentes números de las categorías en sentido estricto y los analicen.

Sea cual sea (numérico o no) el código que se le asigna, cuando tenga un código y este siendo analizado con
técnicas estadísticas, una categoría cambia de nombre y se llama “modalidad”. Con la expresión “frecuencia
de una modalidad” se entiende el número de datos a los cuales se atribuyó aquella modalidad. La modalidad
con la frecuencia más alta se llama “moda” (o modo) y esto en todos los tipos de variables.
El primer paso de análisis de una variable categorial es la producción de su distribución de frecuencia, es
decir, una tabla que tiene habitualmente tres columnas: código, nombre de la categoría/modalidad, frecuencia
(absoluta) y en la última el porcentaje correspondiente (frecuencia relativa).

La inspección visual de sus distribuciones de frecuencia es la forma preliminar de análisis de variables


categoriales. Ella permite tomar contacto con los datos recolectados. Puede señalar la presencia de errores en

OM
la codificación, si en la distribución aparecen códigos que no se habían visto previstos en nuestro plan. Ella
señala también el desequilibrio en las frecuencias (modalidades con un numero demasiado alto o bajo), que
pueden también indicar errores en la codificación y que de todas formas provocan problemas en algunos
tipos de análisis estadísticos.

Una vez realizado este paso preliminar, una variable categorial está casi lista para ser puesta en relación con
otras variables categoriales u ordinales mediante una tabla bivariable, o con variables cardinales mediante el

.C
análisis de la varianza. Se dijo “casi lista” porque si se quiere investigar de manera eficiente las relaciones de
las variables categoriales con otras variables, hay que someter casi todas a una especie de “maquillaje” que
constituye una verdadera fase intermedia entre recolección y análisis. Esta es una fase descuidada
generalmente.
DD
Cuando se quieren analizar las relaciones de una variable categorial con otra variable, cabe decir que el
mismo nivel de detalle que es positivo en la recolección y análisis univariado (detalle y sensibilidad), se
convierte en negativo. El grado de negatividad depende de la otra variable con la cual establecemos relación:
si es un cardinal, el problema no es grave, si es un ordinal, este resulta mayor, pero aún no tan grave; si es un
categorial, un alto nivel de detalles (muchas categorías) puede producir dificultades importantes. Esto es
LA

porque la herramienta con la que se analizan las relaciones entre dos variables, la tabla bivariable, el número
de las celdas equivale al producto de las modalidades de las dos variables que forman la tabla. Con dos
variables de diez modalidades, el número es cien, etc. Esto crea dos problemas, uno numérico y otro
semántico.

Supongamos una matriz con algunas combinaciones de datos, siempre alguna es más frecuente que otra,
FI

siempre estando algunas celdas vacías y otras no. De celdas vacías o casi vacías no se pueden sacar
conclusiones, o sea, una matriz vacía o semi vacía no sirve para mucho análisis.

Para hablar del problema numérico, es necesario hablar del concepto de autonomía semántica. Una categoría
tiene plena autonomía semántica si puede ser interpretada sin hacer referencia al significado de la propiedad


o de las otras categorías. Por su naturaleza, las categorías de las variables categoriales tienen plena
autonomía semántica. Lo que significa que cada combinación de las categorías de dos variables categoriales
tiene su sentido y necesita atención y concentración para enfocar su pleno significado.

El investigador experto prefiere enfocar su atención en pocas tablas elegidas con cuidado y hacerlas
manejables, reduciendo al mínimo las celdas vacías o casi vacías, de manera de poder aprehender todo lo que
indica la tabla en un tiempo razonable. Para lograr este objetivo habrá que reducir el número de las
categorías en ambas variables.

Esta operación se puede llevar a cabo de forma correcta y eficaz si se siguen dos criterios: uno medular es la
proximidad semántica entre las categorías que se desea unir; otro criterio es el equilibrio entre las frecuencias
en las distintas modalidades. El metodólogo experto trata de evitar la presencia de modalidades, y por lo
tanto celdas, con frecuencia demasiado altas o bajas, ya que ambas perjudican la interpretabilidad de una
tabla.
Las consecuencias de graves desequilibrios son conocidas: categorías con baja frecuencia producen

Este archivo fue descargado de https://filadd.com


inevitablemente celdas vacías o casi vacías, dando conclusiones no confiables. A veces para dar una
distribución más equilibrada no basta reagrupar categorías semánticamente parecidas y con escasa
frecuencia, se debería también disgregar una categoría que resultó tener un porcentaje excesivo.

Propiedades y variables ordinales. Son ordinales las propiedades en las que se pueden ordenar todos los
estados a lo largo de una escala según un criterio semánticamente vinculado a la naturaleza de la propiedad,
de forma que hay un estado mayor que otros, uno menor, etc. El tratamiento de las propiedades ordinales
tiene mucho en común con el tratamiento de las propiedades categoriales

1. Se adopta un fundamentum divisionis adecuado a nuestros intereses cognoscitivos


2. Si los estados son muchos, se debe decidir cuales se convertirán en categorías de la variable que va a
representar la propiedad en la matriz
3. Las categorías se crean y/o delimitan siguiendo los principios de la clasificación.

OM
4. Se establecen límites entre las categorías de modo que sea mutuamente exclusivas
5. Se procura que el complejo de las categorías sea exhaustivo

En este caso, los estados están ordenados en la realidad, o se puede imaginar un criterio intersubjetivo para
ordenarlos. La serie de códigos debe tener una relación monotónica directa con el orden de los estados en la
realidad: al crecer la posición ordinal del estado, hay que acrecentar también el código numérico asignado a
la modalidad correspondiente.

.C
El problema de unir categorías semánticamente parecidas con otras variables, pierde su importancia. Y eso
no solo porque las categorías de una propiedad ordinal habitualmente no son muchas, sino también porque
ellas pierden parte de su autonomía semántica, en cuanto al interés semántico pasa de las categorías
DD
individualmente consideradas al orden de las categorías. Por lo tanto, en una tabla bivariable que incluye una
o dos variables ordinales se tiende a mirar la tendencia global más que las celdas singulares.

Una importante consecuencia directa de la reducción de autonomía semántica por parte de las categorías
ordenadas es que en las tablas que presentan la distribución de los porcentajes relativos a cada modalidad
singular deben ser reemplazados, o acompañados, por porcentajes acumulados, lo cual se calcula teniendo en
LA

cuenta no solo la frecuencia de aquella modalidad sino también las frecuencias de las modalidades que la
preceden en el orden. A veces puede ser útil presentar porcentajes retro acumulados, que suman la frecuencia
de aquella modalidad con los de las modalidades que siguen en el orden.

Una ventaja del recurso a distribuciones de porcentajes acumulados es que esto permite detectar
inmediatamente la categoría mediana de una distribución. En una secuencia de cifras, la mediana es la cifra
FI

que divide la serie en dos partes iguales.

Propiedades discretas cardinales y variables cardinales naturales

La expresión “variable continua” es una contradictio en adieto (el adjetivo contradice al sustantivo), así


como la expresión “variable discreta” es redundante. Ya que una variable cardinal también se deriva de una
propiedad continua mensurable a través de medición, para distinguir las cardinales que se originan a partir de
una propiedad discreta se agrega el adjetivo “naturales”, en el sentido de que en estas variables ya sea el
punto cero (ausencia de la propiedad) ya se la unidad de computo (el número 1) son naturales y no radican en
una decisión del investigador o de la comunidad científica.

Eso no quita que en la fase de análisis, la diferencia entre variables cardinales y variables cardinales métricas
(las que derivan de una medición) pierda toda su importancia, y se puede hablar de variables cardinales sin
más.

Como se decía acerca de las variables categoriales, el criterio que rige la recolección de informaciones no es
para nada el mismo que rige la presentación de los datos y su análisis. En el caso de las variables
categoriales, la razón principal para agrupar categorías se presenta ne la fase de análisis, y radica en la
necesidad de reducir el número de celdas en las tablas cuando se analicen sus relaciones con otras categorías
y ordinales, pero la posibilidad de reagrupamiento tiene un límite en el hecho de que cada categoría tiene

Este archivo fue descargado de https://filadd.com


plena autonomía semántica, y por lo tanto solo se pueden agrupar categorías semánticamente parecidas.
En el caso de las variables cardinales, la razón para agrupar categorías cuando se presentan los datos es otra
y concierne únicamente a ésta fase.

Se agrupa categorías en clases de amplitud variable conforme a los objetivos de la investigación.


Obviamente, se agrupan las categorías numéricamente más cercanas.

Al agruparse categorías no hay otro problema que plantearse más que el número: la proximidad semántica no
es un problema porque las categorías de una variable cardinal tienen una autonomía semántica muy reducida,
que va poco más allá del aspecto meramente numérico. Por otro lado, esta escasa autonomía semántica no se
puede descuidar.

En término metodológicos, esto significa que en muchas propiedades discretas cardinales, las categorías más

OM
cercanas al cero tienen una mayor autonomía semántica que otras. Como consecuencia, las clases iniciales de
las variables cardinales tienen habitualmente una amplitud reducida.

Ya que las modalidades de las variables cardinales son números en sentido estricto, se las puede someter a
todas las operaciones matemáticas.
De una variable cardinal no interesa solo un promedio, sino también su variabilidad, que habitualmente se
representa mediante la dispersión de sus datos respecto a este promedio. Dado que los códigos de una

.C
variable cardinal son números, no hay dificultad para calcular un valor que sintetice la dispersión de sus
datos en una muestra o en una población, donde, de forma sencilla, podemos calcular una desviación de X
respecto a un promedio. Esa desviación podrá ser positiva o negativa.
DD
A partir de una serie de cálculos obtenemos cuatro valores característicos: devianza, varianza, desviación
típica y coeficiente de variación, los cuales son valores globales, en el sentido que se refieren a distribuciones
enteras y no a casos singulares. El procedimiento que permite saberlo se llama estandarización. La
estandarización sirve también para construir índices aditivos que sumen variables cardinales con una
extensión de escala diferente.
LA

Propiedades mensurables y variables cardinales métricas.

Las propiedades llamadas continuas tienen un número infinito de estados imperceptiblemente diferentes el
uno del otro. La mayoría de estas propiedades pertenecen al mundo fisco. Otras propiedades continuas
pertenecen al mundo psíquico (como puede ser una opinión), estas propiedades psíquicas no se pueden
medir, no tenemos estados en estas propiedades. Aquí ocurre un problema de inferencia en realidad, entre lo
FI

que se ve o se escucha, y los estados reales, inclusive, dando un problema grande de fidelidad porque la
información se obtiene a partir de una declaración donde el entrevistado dice lo que tiene ganas
La propiedad debe ser continua siempre, si no lo es, no se mide: se clasifica o se cuenta. Es lo que ocurre
cuando hace una entrevista un sociólogo, el no puede garantizar la respuesta, ni demostrarlo. Además, con
anterioridad debe haber sido establecida y reconocida una unidad de medida.


Una tercera condición necesaria para la medición es la ejecución de un cotejo entre la unidad de medida y el
estado en la propiedad que se está midiendo. Cuando se miden propiedades de objetos inanimados o de ser
humanos a las que se tiene acceso desde el exterior, este cotejo lo hace el que mide. Pero cuando este acceso
directo no se puede lograr, el investigador puede recorrer tres caminos:

a) Observar conductas e inferir su estado


b) Solicitar al sujeto, con preguntas o pruebas que declare algo que permita hacer la comparación requerida,
con un proceso puramente inferencial
c) Solicitar, con preguntas o pruebas, que el sujeto coopere haciendo el mismo la comparación
Descuidando todos estos puntos, muchos investigadores usan libremente los términos medir, medida,
medición, etc., para cualquier procedimiento de registro de estados. Este abuso no tiene otro propósito que le
anhelo de legitimación científica.

Algo que no se puede considerar una condición de medición, pero que nunca falta, es el criterio para

Este archivo fue descargado de https://filadd.com


redondear.

Propiedades continuas no mensurables y variables ordinales o cuasi cardinales

Los psicólogos comenzaron a plantearse el problema de medir ciertas propiedades (como las actitudes)
donde Rensis Likert introdujo las siguientes simplificaciones:
1. Se propuso dividir el continuum en un número pequeño de intervalos, marcados por siete, y después por
cinco fases.
2. Se renunció a declarar iguales estos estados, limitándose a garantizar el orden de las frases que los
dividían
3. Para garantizar que todos los sujetos compartan este orden, redujo drásticamente la autonomía semántica
de lo que se ubicaba en el continuum como un mojón: en lugar de plantear frases con pleno sentido
esperando que los sujetos las ubiquen en el continuum, siguió planteando frases, pero pidiendo a los sujetos

OM
reaccionar frente a cada frase con uno de varios grados diferentes de (des)aprobación (apruebo plenamente,
apruebo parcialmente, indeciso, desapruebo parcialmente, desapruebo totalmente). La técnica ubica en el
continuum estas cortas expresiones, que tienen una autonomía semántica tan reducida que cualquier sujeto
no puede más que compartir su orden.

En su versión simplificada la “escala de Likert”, simple y rápida, es la técnica de registro de opiniones más
conocida y usada. Se le hacen varias observaciones.

.C
La primera observación es que reintroduce por la ventana la misma cardinalidad que declara haber echado
por la puerta; lo hace desde el titulo (valoraciones sumadas). Las valoraciones que se suman son los números
naturales que se atribuyen a los 5 niveles de desacuerdo (o acuerdo) y que se suman para asignarle a cada
DD
sujeto un puntaje total en la escala, que expresa su supuesto estado en la propiedad que se intenta medir.
Un segundo problema que presenta es el hecho de que una afirmación puede ser desaprobada por motivos
opuestos. Lo que conlleva a que se asigne los mismos puntajes a opiniones ubicadas en posiciones muy
diferentes a lo largo del continuum. Esto se conoce como “curvilinearidad”, porque asignar la misma
puntuación a respuestas que tienen motivos opuestos equivale a doblar el continuum transformándolo en una
herradura.
LA

Menos conocido es otro fenómeno que puede distorsionar las reacciones: se descubrió que un entrevistado no
reacciona al sentido de la oración entera, sino a un solo término, más precisamente, al objeto/sujeto
designado por este término. Esto fue bautizado como “reacción al objeto”.

El hecho de que las frases sean organizadas en baterías, si bien acrecienta la rapidez, por otro reduce la
FI

fidelidad de los datos producidos. Esto es porque una vez aprendido el fácil esquema según el cual deben
contestar, tienden a considerar todas las frases restantes como una única afirmación, que aprueban sin más,
por eso podríamos encontrar columnas enteras con la misma respuesta marcada. Esto se conoce como los
“response set” (conjunto de respuestas). Se pueden identificar cuatro motivos


1. El alto número de frases que componen cada batería, y el hecho de que en un cuestionario se encuentran
muchas baterías, haciendo que se someta al mismo entrevistado a centeneras de frases con un mismo
esquema de respuesta prefabricada.
2. Muchos investigadores no se dan cuenta de que a menudo los acervos de conocimiento y las esferas de
intereses de los entrevistados no coinciden con los suyos. La consecuencia es que muchos entrevistados, no
teniendo conocimiento sobre los temas que se presentan, aprueban cualquier oración porque esto es lo que
los compromete menos.
3. En muchos casos el entrevistador se presenta como enviado por un instituto, por lo tanto los entrevistados
no desdicen y contradicen nada de esos cuestionarios para no contradecir la sabiduría académica
4. Algunos entrevistadores proporcionan su contribución a hacer los response sets. Generalmente los
entrevistadores son personas mal pagas, se les entrena poco, y tienen que hacer mucho en poco tiempo. Esto
baja la calidad de los cuestionarios.

El mismo Likert sugiere que la manera de evitar los response sets es mezclar en la misma batería
afirmaciones de orientación opuestas, de forma que el entrevistado no pueda declararse razonablemente de

Este archivo fue descargado de https://filadd.com


acuerdo con todas. Igual, para que esto funcione, los entrevistadores deben ser entrenados para actuar apenas
el fenómeno del response set se manifieste, llamando la atención del entrevistado avisándole que dos cosas
que ha contestado se contradicen.

Un remedio para los response sets es, en vez de pedir a los entrevistados (des)aprobar frases individuales,
pedirles elegir entre dos frases de orientación opuestas y planteadas juntas, una frente a la otra. De esta forma
es forzado a abandonar su condición pasiva y reflexionar sobre el significado de ambas frases. Esto se llama
elección forzada.

Otra técnica alternativa a la de Likert es la de Guttman, el cual adoptó un criterio radicalmente diferente para
ubicar frases con pleno sentido a lo largo del continuum: el criterio de la acumulatividad. Se imaginó una
técnica ingeniosa para ordenar a lo largo de una dimensión conceptual un conjunto de frases con pleno
sentido, es decir, con plena autonomía semántica. El problema es que si el supuesto de acumulatividad es

OM
razonable para pruebas de destreza físicas y tests de capacidad intelectual, nada garantiza que lo sea también
para opiniones. Guttman oculta estas diferencias trasladando sin cuestionamientos a la esfera de las
opiniones los términos relacionados a pruebas (fácil/difícil/pasar/fracasar). Una oración on es fácil o difícil;
se aprueba, no se pasa; se desaprueba, no se fracasa. El artilugio terminológico no puede esconder el hecho
de que su técnica, apropiada para cada género de habilidad, raramente es apropiada para investigar opiniones
y actitudes.

.C
Funciona así: se presenta una serie de frases a una muestra de sujetos, solo preguntándoles si aprueban o
desaprueban cada una de ellas. Luego se organiza una forma de matriz (la cual llamaba escalograma): en las
columnas se ponen las opiniones, ordenadas de la más fácil a la más difícil (la que tuvo más aprobaciones a
más desaprobaciones). En las filas se ponen los sujetos, ordenados de mayor a menor según la cantidad de
DD
frases aprobadas.

Para establecer si un campo semántico es escalable o no, se introdujo el coeficiente de “reproductibilidad”,


que consistía sencillamente en la proporción de respuestas “correctas” sobre el total de respuestas. Si una
escala no logra el umbral deseado de estos coeficientes, no se saca una conclusión general de que el supuesto
de acumulatividad no es razonable cuando se trata de opiniones, ni la conclusión especifica de que no era
LA

razonable con respecto a aquel particular campo semántico. Por el contrario, el propuso dos sugerencias
alternativas y paralelas: a) sacar de la muestra a los sujetos culpables de demasiados errores, ya que habían
contestado sin tener cuidado; b) eliminar de la escala las frases que causaban el número más alto de errores.
La primera sugerencia revela la actitud del autor: si el mundo no se adapta a mis supuestos, hay que cambiar
el mundo y no los supuestos. La segunda es ética y científicamente legitima: el investigador tiene derecho y
deber de mejorar sus instrumentos, solo que en el caso específico tiene graves consecuencias técnicas.
FI

Como subrayan Guttman, su escala es una técnica meramente ordinal: lo que conlleva a que los únicos
valores característicos que se pueden aplicar a variables constituidas con ella son la moda y la mediana, y
además para analizar las relaciones de estas variables con otras solo se pueden aplicar coeficientes ordinales.


Lo mismo se puede decir para las variables construidas con la escala de Likert. Por otro lado, hay que
enfrentarse al hecho de que muchos analistas usan sin cuestionamiento técnicas cardinales en estas variables,
porque con esas técnicas pueden fácilmente efectuar un análisis multivariable. Pero esta práctica va a
producir resultados poco confiables porque las posiciones a lo largo del continuum no son equidistantes, y
porque las frecuencias están habitualmente mal distribuidas.

Hay que examinar previamente las distribuciones de todas las variables a las que las van a aplicar, y solo
aplicarlas a las variables que tengan una distribución bastante equilibrada.

La drástica reducción de la autonomía semántica de las categorías intermedias permite eliminar cualquier
duda sobre el hecho de que el orden de esas categorías es compartido por todos los sujetos (nadie puede
pensar que 8 es menos que 7), y adoptar un razonable supuesto de que las cifras del intervalo y las casillas a
lo largo del segmento sean percibidas como equidistantes.

Algo más evidente es la diferencia gnoseológica, como pasa con todas las propiedades psíquicas, el

Este archivo fue descargado de https://filadd.com


investigador no tiene acceso directo a los estados individuales. El hecho de que sea el mismo sujeto que va a
valorar su estado en cada propiedad que el investigador le presente, y que exprese esa valoración con un
instrumento al cual no está acostumbrado, conlleva varias consecuencias gnoseológicas bajo la forma de
causas de infidelidad:

a) Cada sujeto puede concebir de manera diferente del investigador la propiedad en la que debe valorar su
estado
b) Cada sujeto puede equivocarse de buena fe acerca de su estado
c) Cada sujeto puede alterar conscientemente su estado
d) Cada sujeto puede entender mal el mecanismo o funcionamiento de una escala
e) cada sujeto puede comprender en lo esencial el funcionamiento de una escala pero manifestar la tendencia
a no usarla en modo sesgado (por ejemplo, atribuyendo todos puntajes bajos o altos).
Solo al último tipo de distorsión se puede aplicar un remedio, pero en situaciones particulares. Para las otras

OM
no hay nada que hacer.

Presentamos tres escalas de esta familia. La más antigua es la “diferencial semántica”, donde se presentan
escalas, donde cada escala está formada por varias casillas y en ambos extremos dos adjetivos opuestos
(caliente: _: _:_:_ :_:_ :_: frio) donde se pide valorar.

Otra similar a la anterior, es presentarle al sujeto una columna con diez u once casillas, donde solo la más

.C
alta o la más baja son interpretadas. Como el sujeto era quien “anclaba” la escala al establecer la posición de
su estado entre dos extremos, fue llamada “autoanclante”.

La tercera y más importante es la evolución de la autoanclante, aprovechando la imagen de un termómetro,


DD
poniendo 100 al máximo y 0 al mínimo de simpatía o aprobación por cualquier objeto que se debe valorar.
Fue bautizada termómetro del sentimiento. El 50% es neutral

Variables cardinales derivadas


Estas están en categoría aparte porque no se obtienen con un registro directo, sino con una división entre dos
variables cardinales directamente registradas. El cociente entre dos variables cardinales produce otra variable
LA

cardinal que no se puede definir ni natural ni métrica.


Un ejemplo de variable derivada es: porcentaje de votos de un partido sobre el total de votos válidos, etc.
FI

Capítulo 9: indicadores, validez, construcción de


índices. Marradi-¿Por qué indicadores?


A veces la naturaleza de la propiedad bajo examen no permite imaginar una definición operativa directa,
otras veces esta se puede imaginar, pero nuestro sentido común, nuestros conocimientos de la situación,
experiencia, entre otros, nos dicen que esa definición operativa sería inadecuada para registrar la propiedad
en cuestión.

Definamos algunos criterios generales:

a) No se puede imaginar una definición operativa cuando


1. La unidad de análisis es algo que no se puede interrogar
2. Los estados de la propiedad no se pueden investigar directamente
b) Una definición operativa directa se puede imaginar, pero no es confiable cuando la unidad de análisis es

Este archivo fue descargado de https://filadd.com


un ser humano y la propiedad investigada:
1. Tiene respuestas socialmente deseables
2. Es algo familiar al científico pero no al lego
3. Es algo que la moral en la comunidad del entrevistado considera reprobable

El hecho de que no se pueda dar una definición operativa directa no conlleva una renuncia a recoger
información sobre esa propiedad, para hacerlo, hay que buscar una o más propiedades que
a) Admitan definiciones operativas directas que sean aceptables
b) Tengan una fuerte relación semántica con la propiedad que interesa
Estas propiedades se llaman “indicadores” de la propiedad X, y la relación que se establece entre ellos y la
propiedad X se llama “relación de indicación”.

La naturaleza de los indicadores en las ciencias sociales

OM
La naturaleza está estrechamente vinculada con la de los vectores-columna de la matriz de investigación. Por
lo tanto

a) Solo se pueden concebir como indicadores conceptos que se refieren a propiedades


b) Estas propiedades tienen que presentar estados en todos los ejemplares de la unidad de análisis de
investigación.

.C
Solo se pueden ser elegidos como indicadores conceptos que se refieren a propiedades, que sugieran una
definición operativa directa y cumplan con el requisito (b) señalado antes. Estas son condiciones necesarias
pero no suficientes: la condición esencial es que el investigador perciba una estricta relación semántica entre
DD
el indicador y el concepto indicado.

Aspectos indicativos y aspectos extraños: la doble pluralidad de las relaciones entre conceptos e indicadores

Muchas veces el mismo concepto A, directamente operativizable, es elegido por diferentes autores (o
inclusive por el mismo autor en situaciones diferentes) como indicador de dos o más conceptos no
LA

operativizables distintos. Esto deriva del hecho de que la intensión de este concepto A varía de sujeto a
sujeto y también varía en el tiempo para cada sujeto.

Cada investigador puede considerar central un aspecto diferente, lo cual podríamos llamar “aspecto
indicativo”. Pueden haber otros aspectos que ignora o que considera no importantes, los cuales podríamos
FI

llamar aspectos extraños. Todos estos puntos ayudan a influir en, por ejemplo, la manera en que una
pregunta será entendida por los entrevistados. La minimización de los aspectos extraños tiene que ser la
primera consideración para elegir indicadores, y dado no que no es posible encontrar un indicador que este
alejado a esto, un investigador deberá tenerlos muy en cuenta a la hora de interpretar los datos.


A esa pluralidad “desde abajo” (en el sentido de que un concepto puede ser elegido como indicador de otros
varios conceptos) le corresponde una pluralidad “desde arriba” en el sentido de que para cada concepto que
interesa, pero que no sugiere directamente una definición operativa, cabe elegir más de un indicador.
Para posibilitar cualquier registro de informaciones empíricas semánticamente relevantes para un concepto,
cabe recurrir a conceptos mucho más específicos y acotados que conduzcan directamente a esta información.
Por esta razón se habló de un pasaje “desde arriba” del concepto de sus indicadores, y de un pasaje “desde
abajo” de cada indicador elegido al concepto relativo. Y ya que los aspectos de la intensión de un concepto
general pueden ser mucho más, para no reducir demasiado la generalidad de este concepto, y al fin de
cuentas cambiarlo, es necesario buscar indicadores para muchos aspectos; lo ideal sería encontrar
indicadores para cada aspecto relativante de su intensión.

Esto es lo que se entiende de pluralidad desde arriba de la relación de indicadores. De una forma rápida, la
doble pluralidad puede sintetizarse así: cada concepto no sugiere directamente una definición operativa,
necesita una pluralidad de indicadores, y cada concepto que puede ser directamente operativizado puede ser
elegido como indicador de una pluralidad de otros conceptos.

Este archivo fue descargado de https://filadd.com


Una combinación particular de pluralidades desde arriba y desde abajo se encuentra a menudo en el “análisis
secundario”, esto es el hecho de que muchos investigadores, para profundizar el problema, en lugar de
recolectar directamente datos, analizan aquellos ya registrados por otros investigadores y que encuentran en
archivos.

Claramente, cada vez que analizamos una investigación que no es nuestra, estamos limitados a las
propiedades que interesaron al autor original, por lo tanto, tal vez alguna cosa que interese no está en la
matriz.

La validez como juicio acerca de la proximidad semántica entre un concepto y su indicador

La validez es una propiedad del concepto I, en cuanto posible indicador del concepto C en un ámbito

OM
espacio-temporal determinado con una unidad de análisis dada. El grado en que el concepto I posee esta
propiedad no se puede medir, ni averiguar de ningún modo objetivo. El grado solo puede ser evaluado con
criterios semánticos por el investigador, el equipo de investigadores, la comunidad de investigadores de una
disciplina.

Este juicio se debería dar teniendo en cuenta los conocimientos del problema y de la población estudiada, los
resultados de investigaciones previas, la literatura del tema, etc. Una vez registrados los datos, el juicio debe

.C
tener en cuenta la fuerza y la forma de la relación de aquella variable con otras.
Todas las otras formas de control de validez se basan en coeficientes de asociación entre el vector que brinda
los datos del indicador en cuestión y otros vectores de la matriz. La fiabilidad de los datos también se
controla mediante correlación de dos o más vectores. Esta analogía ha conllevado una lamentable confusión
DD
entre el concepto de fiabilidad y el concepto de validez.

Entre las más difundidas técnicas de validación, la validación concomitante o simultánea se calcula
coeficientes de asociación con otros supuestos indicadores del mismo concepto. La validación predictiva en
la que se controla si, sobre la base de los puntajes de un indicador, somos capaces de prever correctamente
los resultados de una prueba sucesiva. La más interesante es la validación de constructo en la que el supuesto
LA

indicador no se asocia con indicadores del mismo concepto sino con variables que deberá tener una relación
empírica fuerte (positiva o negativa) con el concepto a indicar. El indicador es considerado válido si la
relación es aquella que se esperaba.

La construcción de índices tipológicos con variables categoriales y ordinales


FI

La intensión de un concepto de propiedad tiene varios aspectos, y se necesita encontrar indicadores para los
aspectos más importantes. Naturalmente, las informaciones recogidas tienen que ser sintetizadas para
construir el concepto que interesa. La operación con la que se realiza esta síntesis se llama “construcción de
un índice”, es la tarea más delicada de la investigación social que sigue una aproximación estándar.
El criterio de construcción de los índices se puede establecer en abstracto a la hora de diseñar la


investigación; pero se realiza cuando los datos sobre los indicadores están recolectados y tengamos las
variables correspondientes en la matriz. El procedimiento es diferente según se traten las variables como
cardinales o no.

Si no las consideramos cardinales, se atribuye plena autonomía semántica a cada categoría de las variables
que van a formar el índice. De esto se sigue que la herramienta para realizar la síntesis es la tabla bivariable,
en la que cada categoría de las variables involucradas representan una fila o una columna de la tabla, y en
cada celda hay un tipo, es decir, la combinación de una categoría de la variable en las filas de la tabla con
una categoría de la variable en las columnas. El índice así construido se denomina tipológico.

La construcción de índices aditivos con variables cardinales y cuasi cardinales

Construir índices con variables cardinales o cuasi cardinales es más simple, y eso es por dos motivos. El
primero es la posibilidad de realizar con plena legitimidad operaciones matemáticas con los códigos números
que representan los estados en estas variables. El segundo motivo es la autonomía semántica reducida o nula

Este archivo fue descargado de https://filadd.com


de las categorías.

Las operaciones matemáticas necesarias para construir índices son mucho más sencillas que las que se usan
en el propio análisis estadístico. A veces son simples sumas de puntajes y por eso este tipo de índices de
denominan “aditivos”. Este nivel de simplicidad solo se puede alcanzar si se satisfacen cuatro condiciones:
una factual, una numérica y dos semánticas.

La factual es que no falten datos en uno o más indicadores: en estas circunstancias el putaje final de casa
caso en el índice debe ser el promedio y no la suma de los puntajes válidos.

La condición numérica es que todas las variables que se suman tengan la misma extensión de escala, o al
menos una extensión muy parecida.

OM
Con respecto a la condición semántica: una tiene que ver con la inversión de la tabla de puntos (más en uno
significa menos en el otro). La segunda es más compleja: hasta ahora se presentaron operaciones
(estandarización, normalización, etc.) que tenían el fin de hacer efectivamente equivalentes los indicadores
antes de combinarlos en un índice, en el supuesto de que el investigador los considerara a todos igualmente
válidos. Pero puede pasar que un investigador considere algunos más validos que otros. Si tiene bueno
motivos para ello, tiene que incorporar esta convicción en la formación del índice, sin temor a no ser
objetivo.

.C
Para ponderar la contribución de cada indicador a la suma que va a proporcionar cada caso su puntaje en el
índice, el investigador tiene dos caminos. Puede guiarse por sus valoraciones semánticas, multiplicando los
puntajes en los indicadores que considera valiosos por un coeficiente mayor a 1, y los indicadores que
DD
considera menos valiosos por un coeficiente menor a 1. O puede aprovechar las posibilidades que ofrece la
matriz de los datos, sometiendo la canasta de las variables que operativizan posibles indicadores del
concepto que interesa a un análisis de componentes principales.

Ahora basta decir que el análisis de componentes principales tiene tres funciones, a las que corresponden tres
fases en el procedimiento
LA

1. Seleccionar en la canasta inicial de posibles indicadores los que resultan tener una estricta relación
empírica con los otros, y por lo tanto se puede suponer que tengan una apreciable relación semántica con el
concepto que interesa
2. Estimar la fuerza de esta relación semántica (es decir la validez) entre el concepto y cada uno de los
indicadores seleccionados.
FI

3. Proporcionar un coeficiente para ponderar los puntajes de cada indicador teniendo en cuenta las posibles
superposiciones semánticas, es decir, el hecho de que dos o más indicadores pueden representar aspectos
muy cercanos de la intensión del concepto.
En este caso, el índice final no es otra cosa que la suma de los puntajes de cada individuo en los indicadores
seleccionados en la fase 1; antes de sumarlos, los puntajes son multiplicados por el correspondiente


coeficiente calculado en la fase 3.

Capítulo 11: el sondeo. Marradi


Introducción

El sondeo o encuesta es un método científico de recolección de datos, a través de la utilización de


cuestionarios estandarizados, administrados por entrevistadores especialmente entrenados o distribuidos para
su autoadministración a una muestra.

Este archivo fue descargado de https://filadd.com


Se trata de una técnica que permite obtener datos sobre actitudes, creencias, opiniones, etc. Se caracteriza por
su adecuación para relevar muchoas propiedades referidas a muchos individuos.

El principal atractivo de esta técnica recide en su potencial predictivo, al permitir el registro de alguna
propiedad de una población, con un margen de error muestral calculable, a partir del análisis de un fragmento
de ésta. Igual los resultados siempre son aproximaciones y no certezas.

El sondeo es falible, tiene limitaciones y en el proceso de su aplicación se acumulan errores. La


minimización de esto depende de la toma de decisiones adecuada y de controles permantenes en todas las
etapas de su aplicación.

Supuestos- Se señalan tres supuestos inverificables de las cuentas de opinión pública:

OM
a) Todos los individuos tienen una opinión
b) Todos los individuos se cuestionan sobre los temas que se les pregunta
c) Todas las opiniones tienen la misma incidencia social
A fin de minimizar los riesgos de falta de veracidad en las respuestas, las encuestas tienden a ser anónimas y
garantizando la confidencialidad de los datos.

Limitaciones- Algunas remiten a decisiones y estaregias investigativas previas a su aplicación: a) la validez

.C
de los indicadores y la confiabilidad de los instrumentos de registro y b) las limitaciones de las muestras
utilizadas. La primera se intenta controlar, por un lado, testeando los indicadores antes de aceptarlos como
válidos, y por otro, sometiendo el cuestionario al control de una prueba piloto, mientras que la validez de la
muestra depende de las técnicas de selección que se utilicen.
DD
Otras limitaciones operan durante el trabajo de campo, donde se generan la mayor parte de los errores que no
se vinculan al diseño de los instrumentos sino a su aplicación. La mayoría se pueden minimizar a través de
un buen entrenamiento de los encuestadores y por medio de la supervisión y control de su trabajo.
Una limitación muy importante se produce cuando los encuestados se niegan a responder, debido a que una
tasa de no respuesta muy alta puede vulnerar el cumplimiento de la muestra y sesgar el resultado afectando la
LA

calidad de los datos. A fin de minimizar esto, se pueden implementar estrategias de motivación y
sensibilización en los encuestados, asi como notificarlos con anterioridad sobre la visita del encuestador.
Pero la posibilidad de llevar a cabo estas medidas depende en gran parte del tipo de población seleccionada y
los recursos con que se cuente.

Tipos de encuesta según su abordaje


FI

Podemos clasificarlas como


Con participación del encuestador
o Cara a cara o presenciales
o telefónicas


Sin participación del encuestador (auto administradas)


o Telefónica automatizada
o Correo tradicional
o Fax
o Correo electrónico o sitio web

Encuestas cara a cara

La presencia del encuestador permite aclarar dudas, testear productos y mostrar piezas publicitarias u otros
materiales. Muchas veces esto permite presentar un cuestionario más largo, más aún si son en la casa del
entrevistado. La principal ventaja de la domiciliaria es introducir un elemento de azar en el diseño de la
muestra, a través del sorteo de unidades especiales dentro de un mapa de la zona a encuestar, su principal
desventaja es que resulta ser más costosa.

El método coincidental (abordaje en la vía pública) resulta eficiente cuando se estudia un segmento

Este archivo fue descargado de https://filadd.com


poblacional que puede ser detectado por su concentración espacial (por ejemplo, seguidores de un club de
futbol). Las encuestas cara a cara resultan más útiles para segmetnos de bajos ingresos, por su falta de
teléfono y porque producen mayor tasa de respuesta.

Es importante tener en cuenta que le lugar donde se aborda al entrevistado puede influenciar la calidad de los
datos.

Encuestas telefónicas

Se necesita de tecnología informática que permite el marcado de números al azar y el procesamiento de datos
inmediatamente completado el trabajo de campo. La principal ventaja es el menor costo y la rapidez. Sus
desventajas: imposibilidad de alcanzar a la población sin teléfono, la restricción a un cuestionario corto y la
imposibilidad de utilizar material visual

OM
Encuestas auto administradas (sin encuestador)

Se selecciona una muestra potencial y se les hace llegar un cuestionario. La respuesta o devolución del
cuestionario es parte de la voluntad del sujeto. Esto se traduce en una baja tasa de respuesta. Se utilizan
técnicas que van desde premios hasta compartir los resultados del estudio para que la tasa sea más alta.
En estas encuestas, el cuestionario adquiere ciertas características, por ejemplo, es de poca extensión y con

.C
consignas muy claras. A veces se adjuntan imágenes.

Repartirlas por mail o por un sitio es más económico, pero el tener internet puede afectar también la muestra.
DD
Estudios comparados

Consisten en aplicar encuestas en diferentes países o culturas y replicarlas sistemáticamente a intervalos


regulares. Constituyen bancos de datos importantes por su alcance y sistematicidad.

El principal problema que presentan estos estudios es la comparabilidad de los datos, cuando incluyen
LA

realidades culturales, sociales o económicas muy heterogéneas. Se recomienda que se incluyan componentes
cualitativos en los diseños:

- Realizar ajustes en términos culturales


- Buscar similitudes en los países seleccionados respecto a características institucionales que afectan los
temas centrales del estudio
FI

- La presencia de un investigador en cada país con manejo de idioma, costumbres, etc.


- Analizar primero cada realidad nacional y luego hacer la comparación
- Recolectar los datos en diferentes momentos para neutralizar el efecto de eventos nacionales.

Estudios longitudinales


La estrategia metodológica del Panel reside en la utilización de la muestra. El cuestionario se aplica a una
misma muestra en diferentes ocasiones a lo largo del tiempo, de modo que resulta particularmente útil para
comprobar modificaciones en las actitudes y conductas como efecto de la participación de un estímulo o
factor determinado. Uno de los principales problemas del Panel se vincula con la mortalidad de la muestra,
en la medida de que puede perderse el contacto con algunos individuos de un registro a otro.

El cuestionario

Es el instrumento de recolección de datos utilizado en las encuestas. No es un simple listado de preguntas,


por el contrario, tiene una lógica que hay que respetar. La idea general es que las primeras baterías de
preguntas no resulten demasiado intrusivas ni requieran respuestas comprometidas, de manera de generar
confianza. Los temas que exigen mayor compromiso o intimidad deben ubicarse al centro de la entrevista,
para terminar con preguntas fáciles que den lugar a la despedida en un clima de amabilidad.
La duración de la entrevista no debe ser excesiva para que el encuestado pueda mantener la atención.

Este archivo fue descargado de https://filadd.com


Según su grado de estructuración, los cuestionarios se clasifican en estructurados, semiestructurados y no
estructurados. En los primeros tienden a predominar las preguntas que presentan un menú cerrado de
respuestas pre codificadas (preguntas cerradas). Estas otorgan muy poca libertad para dar respuestas.
El semi estructurado es similar al anterior pero incorpora algunas preguntas abiertas, donde se puede elaborar
con libertad una respuesta.

Los no estructurados tienen la mayoría de las preguntas abiertas y se tiene total libertad para elaborar
respuestas.

Formulario de las preguntas

La primera clasificación de preguntas se dividen en abiertas y cerradas. En las cerradas se pueden presentar
las respuestas posibles (someter al entrevistado a elegir).

OM
El diseño para las preguntas cerradas estará condicionado por el grado de conocimiento del investigador
sobre la material, el nivel de heterogeneidad de la muestra y la amplitud en la dispersión de las respuestas
que se esté dispuesto a tolerar.

La pregunta que presenta menor alternativa de respuesta es la dicotómica, ya que las respuestas son solo dos
(si/no o similar). Tiende a dividir la muestra en dos grupos de posiciones.

.C
Cuando la pregunta tiene más de dos alternativas, pero que le entrevistado elige una sola, se denomina
alternativas múltiples. Pueden ser categoriales u ordinales, que generalmente asumen formas escalares. Las
escalas, a su vez, pueden ser verbales o numéricas. Cuando en este tipo se puede elegir más de una respuesta,
adopta el nombre de “respuestas múltiples”.
DD
Cuando el conjunto de respuestas posibles es finito, conocido y no demasiado grande se puede formular una
pregunta abierta.

Cuando una pregunta cerrada tiene un numero grande de categorías de respuesta, se puede utilizar una
“tarjeta” (instrumento que ayuda a guiar al encuestado) donde figuran las alternativas de respuesta.
LA

El conjunto de respuestas de una pregunta cerrada contribuye a una clasificación y debe cumplir: todas las
respuestas son mutuamente excluyentes y conjuntamente exhaustivas, para cumplir con esto último, toda
pregunta llevará una respuesta residual (otra)y una categoría para registrar la falta de respuesta (ns/nc).
Otra estrategia es la formulación de frases. Consiste en redactar un conjunto de frases que expresan
diferentes posiciones respecto a un tema y solicitar que el entrevistado manifieste su posición sobre ellas.
Esta técnica tiende a usarse cuando se indagan temas controversiales o conflictivos, su ventaja es que las
FI

frases son presentadas como dichas por otras personas y generan en el respondente una sensación de menor
compromiso al considerarse formando parte de algún grupo.

Cuando se quiere indagar sobre preferencias, se puede presentar un listado donde se ordene según algún
criterio. Otro tipo de preguntas llamadas filtro o de pase son aquellas cuyas respuestas reorienta a diferentes


segmentos de la muestra en las preguntas del cuestionario.

Tanto el orden de las preguntas en el cuestionario como el orden que adopten las respuestas al interior de
cada pregunta cerrada pueden influir en los resultados. A fin de controlar esto se recomienda realizar una
prueba piloto del cuestionario y alterar la presentación de las respuestas entre los encuestados, en particular
cuando tienen muchas alternativas. De este modo, se minimizan los efectos de respuestas sistemáticas.
A la hora de diseñar, es necesario tener en cuenta que la influencia de las preguntas sobre las respuestas está
condicionada en gran parte por el lenguaje. Se da por supuesto que se reconoce el sentido de la pregunta tal
como fue formulada (supuesto de interpretabilidad) pero esto no es siempre así. El lenguaje conlleva
intención y perspectiva que no siempre son compartidas. El interpelado reconstruye el sentido de la pregunta,
y su respuesta estará asociada a esto.

Muchas palabras a veces tienen una gran ambigüedad e imprecisión y pueden adquirir sentidos diferentes
para los encuestados. También puede ocurrir que se utilice un lenguaje técnico que muchos no comprendan.
Se vuelve importante en el diseño del cuestionario, minimizar la utilización de palabras y expresiones vagas.

Este archivo fue descargado de https://filadd.com


Módulo 2.1

Unidad 2: Métodos y técnicas de investigación


Capítulo 1: El ir hacia la gente. Taylor, Bogdan.

OM
El término metodología designa el modo en que enfocamos los problemas y buscamos las respuestas. En las
ciencias sociales se aplica a la manera de realizar la investigación. Nuestros supuestos, intereses y propósitos
nos llevan a elegir una u otra metodología.

.C
En las ciencias sociales han prevalecido dos perspectivas teóricas principales. La primera, el positivismo,
reconoce su origen en el campo de las ciencias sociales en los grandes teóricos del siglo XIX y primeras
décadas del XX, especialmente August Comte (1896) y Emile Durkheim (1938, 1951). Los positivistas
DD
buscan los hechos o causas de los fenómenos sociales con independencia de los estados subjetivos de los
individuos.

La segunda perspectiva teórica principal… fenomenológica, posee una larga historia en la filosofía y la
sociología. El fenomenólogo quiere entender los fenómenos sociales desde la propia perspectiva del actor.
Examina el modo en que se experimenta el mundo. La realidad que importa es lo que las personas perciben
LA

como importante…
Puesto que los positivistas y los fenomenólogos abordan diferentes tipos de problemas y buscan diferentes
clases de respuestas, sus investigaciones exigen distintas metodologías. Adoptando el modelo de
investigación de las ciencias naturales, el positivista busca las causas mediante métodos tales como
cuestionarios, inventarios y estudios demográficos, que producen datos susceptibles de análisis estadístico.
FI

El fenomenólogo busca comprensión por medio de métodos cualitativos tales como la observación
participante, la entrevista en profundidad y otros, que generan datos descriptivos. En contraste con lo que
ocurre en el caso de las ciencias de la naturaleza, el fenomenológo lucha por lo que Max Weber (1968)
denomina VERSTEHEN, esto es, comprensión en un nivel personal de los motivos y creencias que están
detrás de las acciones de la gente…


Una nota sobre la historia de los métodos cualitativos

Los orígenes del trabajo de campo pueden rastrearse hasta historiadores, viajeros y escritores que van desde
el griego Heródoto hasta Marco Polo. Pero sólo a partir del siglo XIX y principios del XX lo que ahora
denominamos métodos cualitativos fueron empleados conscientemente en la investigación social.

El estudio de Frederick LePlay de 1855 sobre familias y comunidades europeas representa una de las
primeras piezas auténticas de observación participan. En antropología, la investigación de campo hizo valer
sus méritos hacia principios del siglo. Boas (1911) y Malinowski (1932) establecieron el trabajo de campo
como un esfuerzo antropológico legítimo.

El empleo de métodos cualitativos se divulgó primero en los estudios de la "Escuela de Chicago" en el


período que va aproximadamente de 1910 a 1940.

Este archivo fue descargado de https://filadd.com


Por importantes que fueran estos primeros estudios, el interés en la metodología cualitativa declinó hacia el
final de la década de 1940 y principios de la de 1950, con la preeminencia creciente de grandes teorías (por
ejemplo, Parsons, 1951) y de los métodos cuantitativos.

Desde la década de 1960 resurgió el empleo de los métodos cualitativos. Se han publicado tantos estudios
vigorosos y profundos basados en estos métodos que ha sido imposible restarles importancia.

Metodología Cualitativa

Refiere en su más amplio sentido a la investigación que produce datos descriptivos: las propias palabras de
las personas, habladas o escritas, y la conducta observable… Es un modo de encarar el mundo empírico:
1. La investigación cualitativa es inductiva.
2. En la metodología cualitativa el investigador ve al escenario y a las personas en una perspectiva holística;

OM
las personas, los escenarios o los grupos no son reducidos a variables, sino considerados como un todo.
3. Los investigadores cualitativos son sensibles a los efectos que ellos mismos causan sobre las personas que
son objeto de su estudio.
4. Los investigadores cualitativos tratan de comprender a las personas dentro del marco de referencia de ellas
mismas. Para la perspectiva fenomenológica y por lo tanto para la investigación cualitativa es esencial
experimentar la realidad tal como otros la experimentan.
5. El investigador cualitativo suspende o aparta sus propias creencias, perspectivas y predisposiciones. Ve las

.C
cosas como si ellas estuvieran ocurriendo por primera vez. Nada se da por sobrentendido. Todo es un tema
de investigación.
6. Para el investigador cualitativo, todas las perspectivas son valiosas. Este investigador no busca "la verdad"
o "la moralidad" sino una comprensión detallada de las perspectivas de otras personas. A todas se las ve
DD
como a iguales.
7. Los métodos cualitativos son humanistas. Los métodos mediante los cuales estudiamos a las personas
necesariamente influyen sobre el modo en que las vemos. Llegamos a conocerlas en lo personal y a
experimentar lo que ellas sienten en sus luchas cotidianas en la sociedad. Aprendemos sobre conceptos tales
como belleza, dolor, fe, sufrimiento, frustración y amor, cuya esencia se pierde en otros enfoques
investigativos.
8. Los investigadores cualitativos dan énfasis a la validez en su investigación. Los métodos cualitativos nos
LA

permiten permanecer próximos al mundo empírico. Están destinados a asegurar un estrecho ajuste entre los
datos y lo que la gente realmente dice y hace.
9. Para el investigador cualitativo, todos los escenarios y personas son dignos de estudio.
10. La investigación cualitativa es un arte. Los métodos cualitativos no han sido tan refinados y
estandarizados como otros enfoques investigativos. Los investigadores cualitativos son flexibles en cuanto al
FI

modo en que intentan conducir sus estudios. El investigador es un artífice. El científico social cualitativo es
alentado a crear su propio método. Se siguen lineamientos orientadores, pero no reglas. Los métodos sirven
al investigador; nunca es el investigador el esclavo de un procedimiento o técnica.

Teoría y metodología


La perspectiva fenomenológica es esencial para nuestra concepción de la metodología cualitativa. De la


perspectiva teórica depende lo que estudia la metodología cualitativa, el modo en que lo estudia, y en que se
interpreta lo estudiado.

Para el fenomenólogo, la conducta humana, lo que la gente dice y hace, es producto del modo en que define
su mundo. La tarea del fenomenólogo y de nosotros, estudiosos de la metodología cualitativa, es aprehender
este proceso de interpretación. La perspectiva fenomenológica está ligada a una amplia gama de marcos
teóricos y escuelas de pensamiento en las ciencias sociales. Dos enfoques teóricos principal, el
interaccionismo simbólico y la etnometodología, se han convertido en fuerzas dominantes en las ciencias
sociales y pertenecen a la tradición fenomenológica.

El interaccionismo simbólico atribuye una importancia primordial a los significados sociales que las
personas asignan al mundo que las rodea. Blumer (1969) afirma que el interaccionismo simbólico reposa
sobre tres premisas básicas. La primera es que las personas actúan al respecto de las cosas e incluso respecto

Este archivo fue descargado de https://filadd.com


de las otras personas, sobre la base de los significados que estas cosas tienen para ellas. De modo que las
personas no responden simplemente a estímulos o exteriorizan guiones culturales. Es el significado lo que
determina la acción. La segunda premisa de Blumer dice que los significados son productos sociales que
surgen durante la interacción: "El significado que tiene una cosa para una persona se desarrolla a partir de los
modos en que otras personas actúan con respecto a ella en lo que concierne a la cosa de que se trata"
(Blumer, 1969). Una persona aprende de las otras personas a ver el mundo. La tercera premisa fundamental
del interaccionismo simbólico, según Blumer, es que los actores sociales asignan significados a situaciones, a
otras personas, a las cosas y a sí mismos a través de un proceso de interpretación.

Este proceso de interpretación actúa como intermediario entre los significados o predisposiones a actuar de
cierto modo y la acción misma. Las personas están constantemente interpretando y definiendo a medida que
pasan a través de situaciones diferentes. Podemos ver por qué diferentes personas dicen y hacen cosas
distintas. Una razón es que cada persona ha tenido diferentes experiencias y ha aprendido a ver las cosas de

OM
cierta manera.

Finalmente, el proceso de interpretación es un proceso dinámico. La manera en que una persona interprete
algo dependerá de los significados de que se disponga y de cómo se aprecie una situación.

Desde una perspectiva interaccionista simbólica, todas las organizaciones, culturas y grupos están
constituidos por actores envueltos en un proceso constante de interpretación del mundo que los rodea.

.C
Aunque estas personas pueden actuar dentro del marco de una organización, cultura o grupo, son sus
interpretaciones y definiciones de la situación lo que determina la acción, y no normas, valores, roles o
metas.
DD
La etnometodología no se refiere a los métodos de investigación sino al tema u objeto de estudio: cómo
(mediante qué metodología) las personas mantienen un sentido de la realidad externa (Mehan y Wood). Para
los etnometodólogos, los significados de las acciones son siempre ambiguos y problemáticos. Su tarea
consiste en examinar los modos en que las personas aplican reglas culturales abstractas y percepciones de
sentido común a situaciones concretas, para que las acciones aparezcan como rutinarias, explicables y
carentes de ambigüedad. En consecuencia, los significados son un logro práctico por parte de los miembros
LA

de la sociedad.

Los etnometodólogos ponen entre paréntesis o suspenden su propia creencia en la realidad para estudiar la
realidad de la vida cotidiana. Garfinkel (1967) ha estudiado las reglas del sentido común o sobreentendidas
que rigen la interacción en la vida cotidiana a través de una variedad de experimentos maliciosos que él
denomina "procedimientos de fractura". Mediante el examen del sentido común, el etnometodólogo trata de
FI

entender cómo las personas "emprenden la tarea de ver, describir y explicar el orden en el mundo en el que
viven".


Este archivo fue descargado de https://filadd.com


CAPITULO 12- EL INICIO DEL PROCESO CUALITATIVO: PLANTEAMIENTO DEL
PROBLEMA, REVISIÓN DE LA LITERATURA, SURGIMIENTO DE LAS HIPÓTESIS E
INMERSIÓN EN EL CAMPO

Una vez concebida la idea del estudio, el investigador debe familiarizarse con el tema en cuestión.
Aunque l enfoque cualitativo es inductivo, necesitamos conocer con mayor profundidad el “terreno
que estamos pisando”. El planteamientocualitativo suele incluir los objetivos, las preguntas de
investigación, la justificación y la vialidad, además de una exploración de las deficiencias en el
conocimiento del problema y la definición inicial del ambiente o contexto. Los objetivos y
preguntas poseen una naturaleza distinta en la investigación cualitativa, ya que esta no se busca
precisar ni acotar el problema o fenómenos de estudio al comenzar el proceso. Tales elementos del

OM
planteamiento son más bien enunciativos y constituyen un punto de partida en la investigación. Las
justificación es importante, al igual que en los planteamientos cuantitativos, particularmente cuando
el estudio necesita de la aprobación de otras personas. Finalmente requieren una razón para llevarse
a cabo.

La vialidad es un elemento que también se valora y se ubica en cuanto a tiempo, recursos y


habilidades.

.C
En relación con las deficiencias en el conocimiento del problema, constituyen un elemento que se
considera principalmente si se decide a revisar la literatura relacionada con el tema de la
investigación. Sobre este tópico comentaremos más adelante en este capítulo. Puede ocurrir que
DD
pretenda plantear un problema cualitativo cuando hay poca investigación inductiva respecto a un
tema; esto es, que se han realizado diversos estudios cuantitativos, pero no se indagado el fenómeno
de manera cualitativa o se requiere profundizar en ciertos resultados de tales estudios. Una
comparación entre planteamientos cuantitativos podría ser el que se comenta a continuación.
LA

Planteamientos cuantitativos • Precisos y acotados delimitados • Enfocados en variables lo mas


exactas y concretas que sea posible. • Direccionados • Fundamentados en la revisión de la
literatura.• Se aplican a un gran número de casos • El entendimiento del fenómeno se guía a
través de ciertas dimensiones consideradas como significativas por estudios previos. • Se
orientan a probar teorías, hipótesis y/o explicaciones, así como a evaluar efectos de unas variables
FI

sobre otras(los correlacionales y explicativos).

Planteamientos cualitativos

• Abiertos • Expansivos, que paulatinamente se van enfocando en conceptos relevantes de




acuerdo con la evolución del estudio. • No direccionados en su inicio. • Fundamentos en la


experiencia e intuición • Se aplican a un menor número de casos. • el entendimiento del
fenómeno es en todas sus dimensiones, internas y externas, pasadas y presentes.
• Se orientan a aprender de experiencias y puntos de vista de los individuos, valorar y puntos de
vista de los individuos, valorar procesos y generar teorías fundamentales en las perspectivas de los
participantes.

La revisión de la literatura puede servirnos en el planteamiento del problema cualitativo inicial,


pero a diferencia de los planteamientos cuantitativos- no tanto los exploratorios, como los
descriptivos, correlaciones o explicativos-, nuestro fundamento no se circunscribe o limita a dicha
revisión, incluso, su papel es más bien de apoyo. La investigación cualitativa se basa, antes todo, en
el proceso mismo de recolección y análisis. Recordemos que es interpretativa, ya enfocando en
ciertos temas de acuerdo con la información recabada. Los planteamientos cualitativos son una
especie de plan de exploración (entendimiento emergente) y resultan apropiados cuando el

Este archivo fue descargado de https://filadd.com


investigados se interesa por el significado de las experiencias y valores humanos, el punto de vista
interno e individual de las personas y el ambiente natural en que ocurre el fenómeno estudiado,
como cuando buscamos una perspectiva cercana de los participantes. ¿Qué papel desempeña
el marco teórico en la investigación? En los estudios cualitativos, más que integrarse un marco
teórico formal, como lo es en el caso de la investigación cuantitativa, se revisa la literatura con los
propósitos comentados previamente y su papel varia en el inicio y la parte final del estudio.

En diversos estudios cualitativos, la literatura se revisa y se mantiene “conceptualmente” distante al


comenzar a recolectar datos y posteriormente se va consultando de acuerdo con la evolución de la
investigación, en este sentido, su función esencial- tal como se comentó- es de consulta.
En los estudios cuantitativos, el papel de la teoría es establecer relaciones entre variables o
constructos que describen y explican un fenómeno. En la indagación cualitativa su papel auxiliar

OM
implica proveer de ideas no contempladas, pero que, desde luego, se ajustan al contexto y desarrollo
del estudio, que al final, le permite al investigador “ir mas allá del evento local”, al relacionarlo con
eventos similares.

La literatura colabora a mejorar el entendimiento de los datos recolectados y analizados, pero


siempre el investigados se orienta fundamentalmente por los resultados que emergen del trabajo en
el contexto o ambiente particular. Es bastante común revisar la literatura de vez en cuando para

.C
profundizar las interpretaciones. Y cabria agregar que entre la literatura y los datos emergentes,
estos tienen la “última palabra”.
investigación cualitativa?
¿Qué papel desempeñan las hipótesis en el proceso de
DD
En los estudios cualitativos, las hipótesis adquieren un papel distinto al que tienen en la
investigación cuantitativa. En primer término, en raras ocasiones se establecen antes de ingresar en
el ambiente o contexto y comenzar la recolección de los datos. Más bien durante el proceso, el
investigador va generando hipótesis de trabajo que se afinan paulatinamente conforme se recaban
más datos, o las hipótesis son uno de los resultados del estudio. Las hipótesis se modifican sobre la
LA

base de los razonamientos de los investigados y, desde luego, no se aprueban estadísticamente.

Las hipótesis de trabajo cualitativas son, emergentes, flexibles y contextuales, se adatan a los datos
y avatares del curso de la investigación. Una vez hecho el planteamiento inicial y definido el
papel de la literatura ¿qué sigue?
FI

En ingreso en el ambiente (campo) Una vez después de elegir un ambiente, contexto o lugar
apropiado, se comienza la tarea de responder a las preguntas de investigación. El ambiente puede
ser tan variado como el planteamiento del problema. Y el contexto implica una definición
geográfica, pero es inicial, puesto que puede variar, ampliarse o reducirse. Un tipo de estudios muy
socorrido es el denominado “clientes misteriosos” donde personas que son supuestos clientes


valoran niveles de servicio en la atención. En tales investigaciones el ambiente puede constituirse


por todos los lugares que se tiene contacto con el cliente.

La primera tarea es explorar el contexto que se seleccionó inicialmente. Los que significa visitarlo y
evaluarlo para cerciorar que es el adecuado. Se debe seleccionar ambientes o lugares alternos, en
caso de que el acceso al contexto original sea negado restringido más allá de lo razonables. Desde
luego, también se debe visitar.

Algunas de las recomendaciones se enumeran:


1. Desarrollar relaciones
• ganar la confianza de los gatekeepers y de los participantes, al ser amables honestos, sensibles,
cooperativos y sinceros.
• Apoyarse en alguna necesidad
• Detectar y cultivar informantes clave.

Este archivo fue descargado de https://filadd.com


En ocasiones se puede aprovechar redes personales.

2 .Elaborar una historia sobre la investigación


• tener preparado un pequeño guion sobre el estudio. Es importante hablar de la investigación, salvo
que afecte los resultados, en cuyo caso se recomienda elaborar una versión que sea lo más cercana a
la verdad pero no obstrusiva.

3. No intentar imitar a los participantes supuestamente para ganar empatía.


• No hay algo peor que una persona citadina queriendo actuar como vaquero, ranchero, agricultor o
campesino. Es absurdo y grotesco. Se debe asumir las diferencias. En todo caso, es referible agregar
al equipo del estudio, a una persona con las mismas características de los participantes y que posea
los conocimientos necesarios o preparados; o ayudar de alguien interno. Esto es bastante común en

OM
estudios de etnias. También, puede tenerse un diseño de investigación participativa, en el cual de las
mismas personas del contexto colaboran en diferentes partes de estudio.

4. Planear el ingreso al ambiente o contexto.


• El ingreso debe resultar natural. Si mantenemos buenas relaciones desde el principio, nos
acomodamos a las rutinas de los participantes, establecemos lo que tenemos en común con ellos,
demostramos un genuino interés por la comunidad y ayudamos a la gente, el acceso será “menos

.C
ruidoso” y más efectivo. La planificación no es exacta y debemos estar preparados ante cualquier
contingencia que sueleocurrir en los estudios cualitativos.

Ingresamos al ambiente o campo ¿y?


DD
Un investigador debe hacer una inmersión total en el ambiente, regularmente la primera tarea es
decidir en qué lugares específicos de recolectaran los datos y quienes serán los participantes. Pero
esta labor, a diferencia del proceso cuantitativo, no es secuencial, va ocurriendo y de hecho, la
recolección de datos y el análisis ya se iniciaron. La inmersión total en el ambiente implica una
LA

serie de actividades físicas y mentales para el investigador investigadora, entre las que podemos
mencionar:
• Observar los eventos que ocurren en el ambiente. Aspectos explícitos e implícitos, sin imponer
puntos de vista y tratando, de evitar es desconcierto o interrupción de actividades de las personas en
el contexto. Tal observación es holística, pero también toma en cuenta la participación de los
FI

individuos en su contexto social.


• Establecer vínculos con los participantes, utilizando todas las técnicas de acercamiento, así como
habilidades sociales, de una manera flexible y de acuerdo a las demandas situacionales.
Involucrarse con ellos y sus experiencias cotidianas.
• Comenzar a adquirir el punto de vista interno de los participantes respecto de cuestiones que


vinculan con el planteamiento del problema


• Detectar procesos sociales fundamentales en el ambiente y determinar cómo operan.
• Tomar notas y empezar a generar datos en forma de apuntes, mapas, esquemas, cuadros,
diagramas, fotografías, así como recabar objetos y artefactos.
• Elaborar sus descripciones del ambiente
• Estar consciente de su papel y de las alteraciones que provoca.
• Reflexionar acerca de sus vivencias, que también son una fuente de datos.

Los planteamientos cualitativos suelen incluir los objetos, las preguntas de investigación, la
justificación y la vialidad, además de una exploración de las eficiencias en el conocimiento del
problema y la definición inicial del ambiente o contexto
Los objetivos y preguntas son más generales y enunciativos en los estudios cualitativos.

Los elementos de justificación de los planteamientos cualitativos son los mismos que en los

Este archivo fue descargado de https://filadd.com


cuantitativos: conveniencia, relevancia social, implicaciones prácticas, valor teórico y utilidad
metodológica. La flexibilidad de los planteamientos cualitativos es mayor que la de los
cuantitativos.

Los planteamientos cualitativos son: abiertos, expansivos, no direccionados en su inicio,


fundamentados en la experiencia e intuición, se aplican a un número pequeño de casos, el
entendimiento del fenómeno en todas las dimensiones, se orientan a aprender de experiencias y
puntos de vistas de los individuos. Para responder a las preguntas de investigación es necesario
elegir un contexto o ambiente donde se lleve a cabo el estudio.

OM
CAPITULO 15
¿Cuáles son los diseños básicos de la
investigacióncualitativa?

.C DISEÑOS DE TEORIA FUNDAMENTADA


DD
Tiene como rasgo principal que los datos se categorizan con codificación abierta, luego el
investigador organiza las categorías resultantes en un modelo de codificación axial, que representa a
la teoría emergente y explica el proceso o fenómeno de estudio (Hernández, et al, 2010, p.492)

El diseño sistemático
LA

Este diseño resalta el empleo de ciertos pasos en el análisis de los datos.

Codificación abierta
El investigador revisa todos los segmentos del material para analizar y genera categorías iníciales
del significado. Elimina asi la redundancia y desarrolla evidencia para las categorías.
FI

Codificación axial
De todas la categorías codificadas de forma abierta, el investigador selecciona la que considera más
importante y la posicionas en el centro del proceso que se encuentra en exploración. Posteriormente,
relaciona a la categoría central con otras categorías. Pueden tener distintas funciones en el proceso:


* Condiciones causales
* Acciones o interacciones
* Consecuencias
* Estrategias
* Condiciones contextuales
* Condiciones intervinientes(Hernández, et al, 2010, p.494)
La categoría central clave:
* Debe ser el centro del proceso o fenómeno
* Todas o la mayoría de las demás categorías deben vincularse con ella
* Debe aparecer frecuentemente en todos los datos
* Su saturación es regularmente rápida
* Su relación con el resto de categorías debe ser lógica y consistente
* El nombre o frase que identifique a la categoría debe ser lo suficientemente abstracto

Este archivo fue descargado de https://filadd.com


* Conforme serefina la categoría o concepto central, la teoría robustece su poder explicativo y
profundidad

Cuando las condiciones varian, la explicación se mantiene; desde luego, la forma en la cual se
expresa el fenómeno o proceso puede visualizarse un poco diferente.

Codificación selectiva
Una vez generado el esquema, el investigador regresa a las unidades o segmentos y los compara con
su esquema emergente para fundamentarlo. De esta comparación también surgen hipótesis que
establecen las relaciones entre categorías y temas. (Hernández, et al, 2010, p.496)

El diseño emergente

OM
Se efectúa la codificación abierta y de esta emergen las categorías, que son conectadas entre sí para
construir teoría. Al final, el investigador explica esta teoría y las relaciones entre categorías.
(Hernández, et al, 2010, p.498)

DISEÑOS ETNOGRAFICOS

El diseño etnográfico pretende describir y analizar ideas, creencias, significados, conocimientos y

Se dividen en:
.C
practicas de grupos, culturas y comunidades.

Diseños realistas o mixtos: Estos diseños tienen un sentido parcialmente positivista. Se recolectan
DD
datos tanto cuantitativos como cualitativos, de la cultura, comunidad o grupo de ciertas categorías.
Diseños críticos: El investigador está interesado en estudiar grupos marginados de la sociedad o de
una cultura. Analizan categorías o conceptos vinculados con cuestiones sociales, como el poder, la
injusticia, la hegemonía, la represión y las victimas de la sociedad. (Hernández, et al, 2010, p.502)
LA

Otra clasificación por el tipo de unidad social estudiada:


Etnografías procesales: describenciertos elementos de los procesos sociales, los cuales pueden ser
analizados funcionalmente, si se explica como cierta parte de la cultura o de los sistemas sociales en
un tiempo determinado.
FI

Etnografía holística: abarcan en grupos. Toda la cultura es considerada y generalmente se obtienen


grandes volúmenes de datos, por lo que se presentan en libros.
Etnografía particularista: es la aplicación de la metodología holística a grupos particulares o a una
unidad social.


Etnografía de corte transversal: se realizan estudios en un momento determinado de los grupos que
se investigan y no procesos interaccionales o procesos a través del tiempo.
Etnografía etnohistórica: implica el recuento de la realidad social actual como producto de sucesos
históricos del pasado. (Hernández, et al, 2010, p.503)

DISEÑOS NARRATIVOS

En los diseños narrativos el investigador recolecta datos sobre las historias de vida y experiencias
de ciertas personas para describirlas y analizarlas. (Hernández, et al, 2010, p.504)
Algunas consideraciones son las siguientes:

* El elemento de los datos narrativos lo constituyen las experiencias personales, grupales y sociales
de los actores o participantes.
* La narración debe incluir una cronología de experiencias y hechos.

Este archivo fue descargado de https://filadd.com


* El contexto se ubica dentro del planteamiento del problema
* La historia de vida cuando se obtiene por entrevista es narrada en primera persona
* El investigador revisa las memorias registradas en documentos
* Para revisar los sucesos es importante contar con varias fuentes de datos
* Cuando se vuelve anarrar la historia por el investigador, debe eliminar lo trivial
* Las fuentes de invalidación más importantes son: datos falsos, sucesos deformados, exageraciones
y olvidos provocados por traumas o la edad. (Hernández, et al, 2010, p.509)

DISEÑOS DE INVESTIGACION-ACCION
INVESTIGACION-ACCION
INVESTIGACION-ACCION

OM
Participativo
Participativo
Práctico
Práctico

* Estudia temas sociales que constriñen las vidas de las personas en un grupo o comunidad
* Resalta la colaboración equitativa de todo el grupo o comunidad

.C
* Se enfoca en cambios para mejorar el nivel de vida y desarrollo humano de los individuos
* Emancipa a los participantes y al investigador
* Estudia temas sociales que constriñen las vidas de las personas en un grupo o comunidad
* Resalta la colaboración equitativa de todo el grupo o comunidad
DD
* Se enfoca en cambios para mejorar el nivel de vida y desarrollo humano de los individuos
* Emancipa a los participantes y al investigador
* Estudia prácticas locales
* Involucra indagación individual o en equipo
* Se centra en el desarrollo y aprendizaje de los participantes
LA

* Implementa un plan de acción


* El liderazgo lo ejercen conjuntamente el investigador y uno o varios miembros del grupo o
comunidad
* Estudia prácticas locales
* Involucra indagación individual o en equipo
FI

* Se centra en el desarrollo y aprendizaje de los participantes


* Implementa un plan de acción
* El liderazgo lo ejercen conjuntamente el investigador y uno o varios miembros del grupo o
comunidad


Bibliografía complementaria
Capítulo 10: la observación. Marradi
Introducción

Es el acto y efecto de observar, que a su vez significa mirar o examinar con atención. Se trata de
una actividad con presencia constante y recurrente en la vida cotidiana.

Este archivo fue descargado de https://filadd.com


En el ámbito de la ciencia, la observación es el modo de establecer algún tipo de contacto empírico
con los objetos/sujetos/situaciones de interés a los fines de su descripción, explicación,
comprensión.

La observación la vida cotidiana y en la ciencia- La distinción entre observación científica y común


se entienden recurriendo a las nociones de ruptura o de continuidad.

La idea de ruptura destaca el quiebre entre ambos mundos, y se inscribe en el marco de una
concepción que le asigna a la ciencia un lugar privilegiado, inmune a las contaminaciones del
conocimiento ordinario que caracteriza a la vida cotidiana.

En tiempos más recientes se ha tendido a favorecer la idea de continuidad entre ciencia y vida

OM
cotidiana, y en ese sentido se ha destacado que las competencias observacionales desarrolladas en la
vida social, junto con esfuerzo reflexivo y crítico, constituye un fundamento de notable no solo para
aprender y comprender el significado de la observación científica, sino también para llevarla a cabo
de manera apropiada. La observación común y generalizada puede transformarse en una poderosa
herramienta de investigación social y técnica científica.

Distintas formas de observación científica

.C
Todos los métodos de investigación científica son en algún sentido observacionales. Una distinción
entre las formas de observación se puede establecer a partir de la coincidencia (o no) entre el sujeto
observador y el objeto/sujeto observado. Cuando ambos coinciden se habla de una autoobservación,
DD
que será más o menos introspectiva según el grado de profundidad del análisis.

Suele distinguirse entre observación directa e indirecta. La última es cuando se adquiere


conocimiento del objeto a través de observaciones previas realizadas por otras personas, por
ejemplo, cuando recurre a datos secundarios. La primera es cuando el investigador se pone en
LA

contacto directo con el fenómeno de interés, y esto se puede hacer de manera controlada (a través de
experimentos) o no controlada, cuando se observa la situación en su ambiente natural, sin alterar el
contexto artificialmente. Tambien es frecuente hablar de controlada como la que se hace en un
laboratorio, y no controlada a la que se hace como observación de campo. Esta última puede ser
participante o no participante, según se observe el fenómeno “desde adentro” o “desde afuera”.
FI

Otras formas de definir la observación incluyen a la estructurada o no estructurada, según el grado


de sistematicidad y delimitación previda de que/quien, como y cuando será observado;
retrospectiva, cuando se investigan fenómenos del pasado, y mediada o no mediada, según se apele
a instrumentos técnicos de observación (telescopio, etc.) o simplemente a los sentidos, sin la ayuda


de tales dispositivos. En este sentido, se puede distinguir entre los instrumentos que amplían la
capacidad de los sentidos, y en un modo más general, aquellos que hacen posible acceder a través
de ellos a la observación de un espacio/objeto dado.

Gold profundizó en la caracterización de los tipos ideales de roles de trabajo de campo que el
cientista social puede adoptar a partir de la observación y la participación. Su tipología se basa en
dos criterios: el grado de participación y el grado de revelación de la actividad de observación. De
aquí surgen los 4 tipos teóricos: participante completo, participante como observador, observador
como participante y observador completo.

En el caso del participante completo, la verdadera identidad y propósito del investigador se


mantienen ocultos, interactuará de manera más natural, aprendiendo roles y tareas cotidianas de los
observados como si fuera uno de ellos. Es análogo al observador encubierto.

Este archivo fue descargado de https://filadd.com


El participante como observador es un rol de trabajo de campo con características similares a la
anterior, pero se diferencia en tanto que investigador como sujeto observado son consciente de que
su relación es de campo. Establece relaciones con informantes a lo largo del tiempo y tiene la
oportunidad de participar de la situación investigada.

El observador como participante es el típico rol de quien limita el trabajo de campo a una entrevista.
La actividad de observación es más bien formal, ya que no se dan las condiciones para una
observación y participación informales a lo largo del tiempo.

El observador completo es aquel que no interactúa socialmente con los sujetos investigados. Se
limita a observar intentando que su actividad pase inadvertida.

OM
Se plantea que hay dinamismo y conexión entre estos 4 y no caminan por separado, inclusive a lo
largo de un mismo estudio se pueden adoptar todos. Inclusive, el rol no se da solo por el
investigador, ya que este es también es observado.

En vez de pensar en tipos cerrados de observación y participación, muchos autores favorecen la idea
de un continuum de diversas combinaciones posibles

.C La observación participante

Consiste en ver el fenómeno estudiado en su ambiente natural, sin manipularlo y presenciado de


forma directa. Conlleva el involucramiento del investigador en una variedad de actividades y en un
DD
período prolongado de tiempo.

Se distingue entre dos modos: pasivo y activo. Los modos pasivos se observación implica el mirar y
el escuchar, mientras que el activo es el conversar. Los modos pasivos de participación son el estar
y el hacer; el modo activo es el compartir. A partir de estas observaciones, se distingue entre la
LA

observación participante en un sentido débil (modo pasivo) y fuerte (modo activo). Autores están
más de acuerdo con un modo u otro.

La observación participante también puede adquirir diferentes setnidos según cual sea la relación de
membresía del investigador con respecto al grupo que estudia; el observador puede ser miembro
FI

(nativo o no nativo), puede hacerse pasar por un miembro, o desarrollar un rol de observador
paticipante en el grupo en el sentido del “participante como observador”.

La observación de la propia comunidad exige un trabajo de extrañamiento/distanciamiento que


permita desnaturalizar prácticas. La tradición de las ciencias sociales ha tendido a pensar al


observador como un “extraño que está dentro” de la comunidad, que adquiere ciertas competencias
sociales necesarias para participar en ella, pero uqe no debe hacer propias las ideas y valores
característicos de ésta. En otras palabras, no debe ser un miembro activo ni convertirse en uno.

Se han discutido los límites de la interpretación de una cultura extraña sin que medien procesos de
resocialización en el juego del lenguaje que esa cultura implica. Se han puesto en cuestión la
posibilidad de “traducción” de una cultura a los términos de otra partir de una racionalidad que le es
ajena. La supuesta “objetividad” puede convertirse en un obstáculo para acceder al sentido de
ciertas prácticas sociales y culturales.

Igualmente, la visión canónica ha tendido a favorecer las ventajas del observador profesional no
nativo. Las diferencias entre el rol técnico del observador participante y el papel del profano de
participación típico de un miembro nativo del grupo son el contraste de propósitos, los modos de
atención, los ángulos de observación, la experiencia, introspección y registro.

Este archivo fue descargado de https://filadd.com


Cuando el observador se hace pasar por miembro (observación encubierta), si bien se tiende a
desaconsejar esta forma de intervención por razones éticas, hay casos en que podría ser la única
forma de conocer un fenómeno sin que la presencia incida en la situación.

En la actualidad, la observación participante suele utilizarse en el marco de una investigación que se


caracteriza por la presencia física del investigador en el terreno; es alguien que se une
temporalmente a un grupo con fines científicos y que no oculta su rol.

Este sentido actual de la observación participante implica la comprensión a través de un acceso


privilegiado a los significados que los actores construyen (y le asignan) a su mundo.

OM
Uno de la observación participante en la investigación social. Ventajas y límites

En un sentido genérico, ha tendido a destacarse la utilidad de la observación participante para


realizar estudios exploratorios y descriptivos, y su muy limitada capacidad como instrumento de la
investigación explicativa, ya sea que se trate de construir teorías o de poner a prueba hipótesis
científicas. Sin embargo, esta visión que restringe el uso de la observación participante a fases
preparatorias (como mera disparadora de hipótesis que deberían dar lugar a estudios sucesivos más

.C
acordes a la lógica de la contrastación) ha sido desafiada por muchos científicos sociales.

Entre las principales ventajas de la observación participante, destacamos


DD
a) Permite acceder a las situaciones investigadas en toda su complejidad y en el momento en que los
acontecimientos suceden, sin artificios ni simplificaciones.
b) Permite acercarse al punto de vista de los actores investigados
c) Es flexible, posibilitando de este modo redefinir aspectos significativos a lo largo del proceso de
investigación.
LA

Entre sus límites señala que hay importantes cuestiones de interés para las ciencias sociales que no
son pasibles de observación directa, o al menos observación participante. También las limitaciones
para fenómenos que tienen su raíz psicológica profunda, y que requieren métodos indirectos.
También se destaca como negativo el tiempo que lleva la observación participante.
FI

Pero las ventajas o límites deben entenderse como en relación a otros métodos observacionales y el
objeto de interés de una investigación.

La reactividad es la tendencia de los actores a modificar su comportamiento habitual como




consecuencia de ser observados. La idea es que la observación participante genere la menor


reactividad posible.

Para maximizar las ventajas y restringir los límites de la observación participante, especialmente en
términos de fiabilidad, se suele sugerir una serie de estrategias y recomendaciones:
a) Analizar críticamente la información provista por informantes clave, prestando especial atención
a su estatus en el marco de la situación/comunidad/grupo observado.
b) Llevar un registro de lo que se percibe como efecto reactivo, en particular lo que se conoce como
notas metodológicas
c) Realizar cruces y controles con los resultados de observación realizados por otros miembros del
equipo, y complementar la observación con entrevistas y documentos de distinta naturaleza.
Las críticas más frecuentes remiten a la fiabilidad y validez. Autores afirman que los problemas de
fiabilidad y validez tienden a solucionarse si se contrastan las perspectivas de varios investigadores.

Este archivo fue descargado de https://filadd.com


El registro de la información en la observación participante

Se recurre a lo que se conoce como notas de campo. Bajo este rotulo, hay distintas modalidades de
registro.
La forma más común de distinción del registro informacional escrito involucra las notas
observacionales, teóricas y metodológicas, también llamadas sustantivas, analíticas y
metodológicas. Las primeras son el registro descriptivo de lo observado. En ellas es importante
rescatar el lenguaje nativo, lo espontáneo y limitando las interpretaciones. Como todo lleva un
ejercicio analítico, se realizan notas teóricas o analíticas Estos son intentos preliminares del
observador para dar sentido a lo que observa. Las notas metodológicas son ap untes descriptivos
acerca del investigador y el proceso de investigación, por ejemplo, las decisiones que toma en el
campo.

OM
Otro autor distingue entre notas condensadas, que se realizan mientras se lleva a cabo la
observación, y notas expandidas, que se realizan fuera del campo y que son más detalladas.

.C
Capítulo 12: la entrevista en profundidad. Marradi
Introducción
DD
En las ciencias sociales, la entrevista se refiera a una forma especial de encuentro: una conversación
LA

a la que se recurre con el fin de recolectar determinado tipo de información en el marco de una
investigación. Se trata de una técnica muy utilizada.

En la tradición antropológica, la entrevista ha sido vista como un complemento en la observación de


campo, mientras que en la sociología y otras ciencias sociales, se le ha dado un lugar central y valor
FI

científico por sí misma.

En la vida cotidiana estamos permanentemente involucrados en prácticas conversacionales que


implican el intercambio de información. No solo son conversaciones formales, existen, por ejemplo,
otras más formalizadas como las entrevistas profesionales, que pueden ser las consultas médicas,


terapia, etc. El entrevista de investigación social podría concebirse como una forma especial de
conversación profesional. Se diferencia de la psicoterapia en que su objetivo primario es conocer y
no, en cambio, modificar actitudes o conductas del entrevistado.

Podemos definir la entrevista en profundidad como una forma especial de conversación entre dos
personas, dirigida y registrada por el investigador con el propósito de favorecer la producción de un
discurso conversacional continuo y con cierta línea argumental por parte del entrevistado, acerca de
un tema de interés definido en el marco de la investigación.

Tipos de entrevista

Se propone una tipología para clasificarla basada en dos criterios: la presencia (o no) de un contacto
visual directo entre entrevistador y entrevistado, y el grado de libertad concedido a los actores en la
situación de entrevista, ya sea al preguntar o al responder.

Este archivo fue descargado de https://filadd.com


Burgues afirma que el grado de menor estructuración se da en el marco de las conversaciones
espontáneas surgidas como complemento de la observación de campo. En el otro extremo están las
entrevistas estructuradas típicas de las encuestas o sondeos.

La entrevista puede ser estructurada, semiestructurada y no estructurada. Igualmente, no existe aún


una terminología unificada para designarlas. En el caso de las menos estructuradas se habla de
entrevista abierta; no directiva, no estandarizada, intensiva, cualitativa, hermenéutica. En el caso de
la semiestructurada se recurre a la expresión “entrevista centrada”. Se propuso también la noción de
entrevista focalizada, un tipo semiestructurado que se caracteriza por el hecho de que los
entrevistados han recibido un estímulo especifico (una película, un libro, etc.) o han participado de
una situación social cuya experiencia subjetiva es objeto de la entrevista. Marradi propuso una

OM
forma especial de entrevista semiestructurada a partir de un estímulo particular, se trata de historias
en las que se narran episodios de la vida cotidiana y que el entrevistador cuenta al entrevistado para
luego explorar sus reacciones y reconstruir sus preferencias valorativas.

Caracterización de la entrevista en profundidad

Se caracteriza por su estructura paradójica: en un intercambio explícitamente instrumental y muy

.C
circunscrito en el tiempo –entre personas relativamente extrañas- exige a la vez intimidad e
impersonalidad, profesionalismo en un marco de sociabilidad.

Es un proceso comunicativo por el cual el investigador extrae una información de una persona. Pero
DD
no cualquiera, sino aquella que se encuentra en la biografía del entrevistado, la que fue
experimentada e interpretada.

Es un proceso donde se pone en juego una relación social e involucra a dos actores. Dado que la
relación es asimétrica, el entrevistador debe ser capaz de reflexionar sobre su rol, sus elecciones y
LA

sobre la dirección y sentido de la investigación. Debe tener una persistente actitud de apertura y a
encontrar aquello que no esperaba, moviéndose entre conceptualización y observación. La función
principal del entrevistador es la de escuchar.

Este tipo de entrevistas se caracteriza por el alto grado de subjetividad, para muchos esto es su
FI

principal rasgo y su mayor limitación. Se habla de hipersubjetividad: el entrevistado es un self que


relata historias mediadas por su memoria e interpretación personal, y en este sentido la información
que provee no debe apreciarse en términos de veracidad-falsedad, sino como el producto de un
individuo en sociedad cuyos relatos deben ser contextualizados y contrastados.


La relevancia o irrelevancia de este juego comunicativo depende en gran medida de las


capacidades, perspicacia y personalidad del entrevistador. La viabilidad se establece a través de un
contrato comunicativo que involucra un conjunto de saberes explícitos e implícitos, compartidos
por ambas partes, que harán posible el funcionamiento de la entrevista. La entrevista se realiza a
partir de un consentimiento informado de parte del entrevistado; los saberes implícitos aluden a los
códigos lingüísticos, culturales y reglas sociales que hacen posible la comunicación en un contexto.

Usos de las entrevista en las ciencias sociales. Ventajas y desventajas

Se utiliza generalmente cuando se busca acceder a la perspectiva de los actores para conocer como
ellos interpretan sus experiencias en sus propios términos. Se trata de explorar el mundo de la vida
cotidiana.
Con respecto a las ventajas, permite obtener de manera flexible u na información rica y profunda,
en las propias palabras de los actores. También señala que proporciona la oportunidad de

Este archivo fue descargado de https://filadd.com


clarificación de un marco más dinámico y espontaneo que el de las entrevistas estructuradas de las
encuestas. Resultan significativas para realizar un primer acercamiento al tema, y además se destaca
su uso a fin de enriquecer resultados de indagación cuantitativa o cualitativa. Permite acceder a
información difícil de conocer sin la mediación del entrevistador, generalmente situaciones no
directamente observables. A diferencia de las entrevistas grupales, las individuales tienen mayor
intimidad.

Con respecto a las limitaciones, se señala una desventaja en términos de tiempo, así como menor
capacidad de captar fenómenos de gran dispersión territorial y/o tipológica, menor capacidad para
generalizar resultados, mayor complejidad de registro, procesamiento y análisis. Presenta
potenciales problemas de reactividad, fiabilidad y validez. No se pueden observar fenómenos en su
ambiente natural.

OM
Cosas que influyen: la empatía del entrevistador y su habilidad para crear un clima favorable. Las
características personales (género, edad, raza, etc.) pueden potenciar ventajas y desventajas en la
entrevista en profundidad.

Preparación y planificación de la entrevista

.C
No tiene reglas fijas. Cada investigador tiene su propio estilo de conducirla, derivado de un saber
práctico incorporado y de las propiedades sociales singulares de entrevistador y entrevistado.
Hay una serie de cuestiones que pueden planificarse de antemano. La primera es refiere a la
selección de los sujetos a entrevistar por dos motivos importantes
DD
a) Las entrevistas en profundidad se emplean casi siempre en el marco de una investigación no
estándar, que no tienen como objetivo principal la generalización estadística de sus resultados
b) Por las características mismas de la entrevista, la cantidad que se puede llevar a cabo es reducida
No existe un criterio único para la selección de entrevistados, se propone tener en cuenta:
LA

a) ¿Quiénes tienen la información relevante?


b) ¿Quiénes son más accesibles física y socialmente?
c) ¿Quiénes están más dispuestos a cooperar?
d) ¿Quiénes son los más capaces de comunicar la información de interés con precisión?
FI

Para responder estas preguntas se recurre a diversas estrategias. La más conocida es el muestreo
intencional, en este caso el investigador seleccionará a los entrevistados de acuerdo con un conjunto
de criterios relevantes, que obviamente pueden cambiar de una investigación a otra. Se tiene en
cuenta 4 tipos de aspectos: la homogeneidad/heterogeneidad de la población; la
tipiedad/marginalidad/representatividad de los sujetos; las variables sociodemográficas y otras


cuestiones que permitan diferenciar a las personas sustantivamente en función del fenómeno de
interés. A partir de la consideración de uno o varios de estos aspectos, es frecuente segmentar a la
población formando subgrupos de los cuales se seleccionará uno o más entrevistados con el fin de
tener un panorama amplio de diferentes experiencias y discursos.

Cuando se trata de personas que no son fácilmente identificables por parte del entrevistador (por
ejemplo, una minoría) se suele recurrir a la técnica de bola de nieve: a partir de uno o unos pocos
contactos iniciales, se busca ampliar progresivamente el grupo de potenciales entrevistados que
comparan aquellas características que los hacen minoritarios o poco visibles y accesibles.
Las cuestiones de accesibilidad general se relacionan con lo que se conoce como muestreo
oportunista: se seleccionan aquellos sujetos proclives a colaborar en el estudio y donde el
entrevistador tiene acceso.

Una cuestión importante es aquella relativa al número de entrevistas. Para dar una respuesta, se

Este archivo fue descargado de https://filadd.com


sigue el criterio de saturación: se debería seguir realizando entrevistas hasta tanto se alcance la
certeza práctica de que nuevos contactos no aportan elementos desconocidos con respecto al tema
de investigación, o no emergen aspectos hasta entonces no tratados.

Otro aspecto clave es el diseño de la guía, también llamado guión, que se utilizará en el desarrollo.
Se trata de trazar un esquema que anticipe los modos de abordar el tema central y lo secundario.
Supone tener listas de preguntas de amplio espectro, así como argumentos que sirvan (en caso de
ser necesarios) para pasar a otros temas. Su nivel de detalle puede variar. Existe una relación directa
entre el grado de familiaridad con el tema y la capacidad de pensar de antemano la guía: a mayor
conocimiento, la guía será más exacta. No es un interrogatorio, la entrevista debe seguir su propia
dinámica.

OM
Los preparativos de la entrevista también deben incluir algunos aspectos relativos al
investigador/entrevistador.

Otro punto es el lugar donde se va a realizar la entrevista, así como la forma en que será registrada,
generalmente se graba si se tiene el consentimiento del entrevistado. No se debe dejar de tener en
cuenta el lenguaje no verbal del entrevistador, si se escribe todo, esto se pierde.

.C
A pesar de todo, la relación de entrevistador y entrevistado es imprevisible, se deberán poner en
juego las llamadas “tácticas del entrevistador”, que son conocimiento que forman parte de su oficio
y pericia y que improvisa durante el encuentro. Esto se pone en marcha a partir de las
intervenciones del entrevistador.
DD
Capítulo 13: focus group y otras formas de entrevista
LA

grupal. Marradi
El focus group
FI

Las entrevistas grupales se caracterizan por la presencia simultánea de varios entrevistados que se


relacionan a través de técnicas conversacionales. El focus group es un tipo de entrevista grupal que
se enmarca dentro de los enfoques cualitativos; su dinámica es organizar un grupo de personas para
que discutan un tema determinado que constituye el objeto de la investigación. La información es
recopilada, registrada y clasificada para su análisis.

Los miembros del grupo son seleccionados en función de los objetivos. Comparten ciertas
características, como puede ser edad, sexo, etc.

La técnica ha tomado diferentes denominaciones; grupos focales, grupos focalizados, grupos de


discusión y motivacionales. Es una entrevista múltiple donde se promueve la interacción entre los
entrevistados, lo que se busca es la situación social de base. Se presentan preguntas abiertas y se
estimula al intercambio.

Un estudio requiere una selección adecuada de los integrantes, un moderador entrenado, un clima

Este archivo fue descargado de https://filadd.com


de confianza y tolerancia y analistas experimentados. Se caracteriza por ser muy pautado en su
diseño y estructura a fin de garantizar la calidad de la información y el control de tiempo, y por la
baja estructuración en los contenidos de la información que fluye libremente, pues solo son
orientados a que los integrantes no se desvíen de la propuesta.

Objetivos- Se desarrolla en un escenario que permite observar todos los elementos que se ponen en
juego en la discusión grupal. Se orienta hacia una pluralidad de perspectivas vinculadas a una
temática, que surge de la interacción colectiva, donde se pone al descubierto las motivaciones y
cosmovisiones de los participantes así como los usos frecuentes del lenguaje.

Se utilizan preguntas abiertas y análisis interpretativo de los datos que lo ubican dentro de una
perspectiva no estándar.

OM
La principal riqueza de la técnica reside en la reformulación de significados que se produce en una
dinámica grupal, por esto, pertenecen a un tipo de investigación interpretativa donde sl sujeto de
interpretación es un grupo social intencionalmente construido.

Utilización- Originalmente eran utilizados en estudios de mercado. Más recientemente se usaron en


estudios académicos, como es medicina y sociología. Se utiliza en política. Es muy útil en estudios

.C
de evaluación y en campañas publicitarias electorales.

Se puede utilizar como un método en si mismo o en combinación con otros métodos de


investigación. Sus observaciones y conclusiones no pueden generalizarse a poblaciones más
DD
amplias, ya que los sujetos que los integran no constituyen una muestra estadísticamente
representativa.

La dinámica de la sesión grupal- Lo necesario para poner en funcionamiento un grupo focalizado


es: un espacio físico adecuado, la presencia de los integrantes, al menos un moderador grupal y
LA

equipos para registrar la información.

Cada grupo se integrará de forma homogénea según ciertas características de sus integrantes, lo cual
los convierte en miembros de algún segmento de la población, o sea que aquello que hagan puede
ser interpretado como de ese segmento social. Este requisito cumple dos funciones: vinculado al
FI

objetivo de la técnica, en la medida de que los resultados se consideran como expresiones


correspondientes al segmento de población seleccionado, y la otra relacionada con su dinámica, ya
que la similitud social facilitará el dialogo. La información recabada no es considerada un dato
individual, tampoco como dato generalizado, sino como una expresión grupal del segmento.


El tamaño del grupo varía entre 6 y 10 personas. La selección es intencional. Un requisito es que no
se conozcan entre si. Dura entre hora y media y dos horas, durante las cuales el moderador deberá
mantener la discusión focalizada en el tópìco en cuestión. La estimulación a la discusión es
mediante preguntas abiertas, y se deberá evitar el predominio de algunas voces.

En el focus group no es posible garantizar el anonimato ni la confidencialidad de los datos, ya que


todo es vertido sobre el mismo grupo. El escenario del grupo focal es construido y organizado por el
equipo de investigación, lo cual también es una de sus críticas, porque la artificialidad de la
situación distorsiona discursos y discusiones.

La dinámica se puede dividir en tres momentos:


1. La presentación del grupo: se explican los objetivos, reglas, uso del tiempo y participantes
2. Planteo de las preguntas abiertas
3. Cierre

Este archivo fue descargado de https://filadd.com


Tipos de focus group
Grupos cara a cara

Los más utilizados, los entrevistados están en el mismo espacio. Cualquier persona puede ser
invitada a participar. La presencia simultánea genera una gran cantidad de datos que trasciende al
discurso verbal, como la gestualidad y el lenguaje corporal. Otra ventaja es que se pueden presentar
muchos materiales, como puede ser audiovisual. Sus principales desventajas residen en reclutar
sujetos en un área geográfica delimitada y que deban desplazarse hasta el lugar de reunión,
incidiendo en los costos y en la tasa de aceptación. La desgravación y transcripción demoran pero
son necesarias.

Grupos telefónicos

OM
Se permite integrar individuos que residen en lugares geográficos diferentes. Útil para reunir
personas que no asistirán a una reunión cara a cara por sus características individuales. Tiene un
menor costo, un mayor grado de anonimato, y las transcripciones son accesibles en tiempos más
cortos. La desventaja es la incapacidad de presentar material audiovisual, aunque algunas cosas
pueden ser enviadas a los integrantes por algún medio. Para hacer estos grupos, es necesario contar
con algún tipo de tecnología que permita conferencia telefónica.

.C Grupos focales online

Los integrantes deben tener acceso a internet. No necesitan trasladarse. Bajo costo. Se pueden
DD
trasmitir materiales audiovisuales. No se produce una dinámica interacción fluida, ya que los
sujetos tienden a tipear simultáneamente sus respuestas de forma que se producen en forma paralela
bajando la influencia entre los participantes. La transcripción se produce de forma automática.

La coordinación
LA

El coordinador es clave. Su rol es de promover el interés, la participación, la interacción y el debate.


Su objetivo es que el grupo funcione con autonomía, permitir que las ideas fluyan libremente y solo
intervenir como guía, manteniendo focalizado su contenido y estimular a todos los miembros a
participar.
FI

El coordinador trabaja con una pauta de entrevista organizada en base a la lógica que va de lo
general a lo individual. Las preguntas abiertas iniciales son más generales y permiten ubicar al
grupo en la temática; luego se acerca la discusión al objeto deseado a través de preguntas más
puntuales.


El moderador no forma parte de la discusión ni plantea posiciones, sino que le genera el clima. La
mayor dificultad radica en estimular a los participantes a profundizar en el foco de la discusión.
Puede utilizar diferentes técnicas para estimular las asociaciones, como juego sde presentación, test
proyectivos y role playing.

El registro y análisis de la información.

Generalmente en el grupo cara a cara se registra mediante audio o video, el video permite observar
el lenguaje no verbal. Posteriormente se desgraba y se transcribe para su análisis. Debe ser textual y
sin omisiones, dejando inclusive registrados los silencios. En un grupo de doble coordinación, uno
toma nota.

Una vez desgrabada, es procesada a través de su codificación y clasificación. Una vez organizada,

Este archivo fue descargado de https://filadd.com


se procede al análisis en dos niveles: la narración descriptiva y la interpretación.
Lo ideal sería que el moderador, quien realiza la transcripción y el analista sean la misma persona,
ya que como todo análisis cualitativo, la habilidad y subjetividad del analista influye en los
resultados.

Todos los pasos del focus group deben reflejarse en el informe final. Debe contener los objetivos y
las estrategias, así como toda la información relevante de la puesta en marcha, así como los aspectos
formales: número de grupos, participantes, criterios y procesos de selección, fechas, cantidad de
moderadores, tipo de registro, etc. Es importante que aparezcan todas las opiniones y posiciones
expresadas, ya que en el informe no se puede incluir toda la información registrada.

Otras formas de entrevista grupal

OM
En algunas el énfasis no está puesto en la interacción grupal, sino en las respuestas individuales de
los integrantes. En este caso, es menos importante que los miembros se conozcan, y es habitual que
se apliquen a grupos que tengan una existencia previa dentro de una institución o comunidad. Las
dinámicas aquí son semejantes a la entrevista individual.

También es posible realizar una entrevista a miembros de un grupo en forma simultánea con un

.C
cuestionario auto administrado. Responde cada uno en forma individual, no existe interacción. Aquí
se procesa al igual que una encuesta.

Otro tipo puede ser la tormenta de ideas, con el fin de generar nuevas ideas, y es de carácter
DD
inestructurado y exploratorio.

El grupo terapéutico es otra forma particular orientada a la elaboración colectiva de problemas que
afectan la vida individual. Se relaciona a la búsqueda de ayuda a través de procesos emocionales
que se desatan en la interacción grupal. Es liderado por un terapeuta, quien conforma el grupo. Los
LA

contenidos son abiertos basados en la libera asociación.

Los denominados grupos nominales o técnica Delphi se usan para solucionar problemas basados en
opiniones de expertos. La idea es consultar a un grupo de especialistas sobre determinado tema y
circular las respuestas en ronda para lograr un consenso. No existe interacción simultánea o
FI

presencial, pero cada uno conoce las respuestas del resto, con lo que se puede reformular una nueva
respuesta. Los cuestionarios utilizados tienen preguntas precisas, y luego se aplican técnicas
cuantificables.


Este archivo fue descargado de https://filadd.com


Capítulo 14: estudio de caso/s. Marradi
¿Método o estrategia de investigación?

El estudio de casos (EC) se basa en un diseño de investigación orientado al análisis de las relaciones
entre muchas propiedades centradas en una sola unidad. Trabajar con muchas variables y un caso (o
muy pocos) ha dado lugar a diversas estrategias de abordaje encaminadas a la búsqueda de

OM
múltiples fuentes de evidencia.

Bartolino lo grafica como una fila de la matriz de datos cuando se trata de un estudio sincrónico (un
caso observado en el correr del tiempo) y lo diferencia del “estudio de desarrollo del caso” cuando
incorpora al tiempo como una dimensión de variación.

Sartori considera el análisis comparativo y el estudio del caso como estrategias complementarias.

.C
Otros autores incluyen en sus categorizaciones del EC la posibilidad de analizar más de un caso en
forma comparada. El primero lo denomina “estudio de caso colectivo” y el segundo se refiere a
“casos múltiples”.
DD
En algunos trabajos al EC se lo considera un método, a pesar de que resulta difícil señalar
características del EC que permitan diferenciarlo de otros métodos de investigación, asignándole la
autonomía necesaria para hablar de un método diferente. Parece más adecuado considerar una
estrategia o diseño de investigación, al cual generalmente se hace referencia en vinculación con los
métodos cualitativos o con el método comparativo.
LA

Consideramos adecuada la propuesta de Stake que sostiene que el EC no se trata de una opción
metodológica sino de la elección de un objeto de estudio; es el interés en el objeto lo que lo define y
no el método que se utiliza. Cualquier unidad de análisis puede convertirse en ese objeto (el caso) el
cual se puede tratar tanto de una unidad individual como colectiva. El objeto se puede abordar
FI

desde diferentes métodos y con diversas técnicas de recolección de datos y análisis.

El predominio de las perspectivas no estándar en los EC se basa en diversos factores

Tratándose de una o pocas unidades, el enfoque predominante es el análisis en profundidad; la




búsqueda no se orienta hacia el establecimiento de las regularidades empíricas sino hacia la


comprensión del caso en su unicidad
Resulta difícil realizar inferencias generalizantes
Los estudios se llevan a cabo en el escenario natural

A pesar de ser un método no estándar, no se descarta la aplicación de un método estándar en el caso


que se intente abordar una visión más macro.

En resumen, metodológicamente los EC son, generalmente, de tipo multimétodo, dado que el


objetivo es abordar un objeto de forma holística.

Cuando hacer un estudio de caso

Generlamente se diseña un estudio de caso ante un objeto particular que despierta el interés del

Este archivo fue descargado de https://filadd.com


investigador o por la decisión de elegir un objeto de estudio típico para dar cuenta de un fenómeno
observable. En otras oportunidades, el objeto de estudio no es una elección sino que llega al
investigador ya caracterizado como tal (un caso terapéutico).

Las siguientes son algunas situaciones que dan lugar al diseño de un EC

a) La aparición de un fenómeno nuevo que excede a la teoría existente


b) La percepción de un caso, tradicionalmente enmarcado en algunas teorías existentes, que
presenta especificidades que ésta no alcanza a explicar.
c) A partir del interés por estudiar un fenómeno general, se selecciona un caso de observación, por
sus características paradigmáticas o ejemplificadoras. La intención puede ser proveer una base
empírica o una teoría a desarrollar un estudio critico tendiente a su reformulación

OM
d) Las dificultades (económicas o de accesibilidad) para llevar a cabo un estudio amplio algunas
veces desembocan en la elección de uno o algunos casos como etapa previa a futuras
investigaciones más abarcativas.

Algunas tipologías de estudio de caso

La falta de consenso sobre la caracterización metodológica de esta estrategia ha dado lugar a la

.C
construcción de diversas tipológicas de EC desde diferentes enfoques:
a) Stake clasifica los EC a partir del propósito del investigador

i. EC intrínsecos: el caso en si mismo es el que despierta interés. La investigación se orienta a una


DD
descripción densa que relate la especificidad de ese caso, relaciones y particularidades.
ii. EC Instrumental: el caso cumple el rol de mediación para la comprensión de un fenómeno que lo
trasciende. El propósito va más allá del caso, este es utilizado como instrumento para evidenciar
características de algún fenómeno o teoría.
iii. EC Colectivo: investigación comparativa del estudio de varios casos.
LA

Los tipos propuestos por Stake no son excluyentes entre ellos.

b) Yin. Dos tipologías basadas en diferentes criterios. Por un lado distingue, según el número de
casos seleccionados, entre el EC único que concentra la atención en un solo caso y el EC múltiple
que incluye más de un caso en un mismo estudio.
FI

El diseño basado en un EC único se justifica cuando se trata de un caso crítico (utilizado para poner
a prueba una teoría) de un caso extremo (muy raro o difícil de encontrar) o de un caso revelador
(fenómenos de difícil acceso). En segundo lugar, distingue entre el EC holístico y el incrustado.
Esta distinción se basa en el número de unidades de análisis que incluye el diseño de investigación.


Es holístico cu ando se trabaja con una sola unidad de análisis, mientras que el incrustado se presta
atención a subunidades que permiten análisis más amplios.

El eje único/múltiple es cruzado por un lado con el eje holístico/incrustado.


Por otro lado, Yin combina el eje único/múltiple con una clasificación EC basa en el objetio de la
investigación: exploratorio, descriptivo y explicativo.

EC Exploratorio: orientado a definir preguntas e hipótesis para estudios posteriores más amplios.
EC descriptivos: descripción densa del caso contextualmente situado
EC Explicativo: se intenta establecer relaciones de asociación entre las variables bajo estudio en
el caso. Se orienta a estudios causales.

c) Lijphart considera que la discusión del método comparativo no está completa si no se toma en
consideración el método de EC: Diferencia a los métodos sobre la base del número de casos:

Este archivo fue descargado de https://filadd.com


caracteriza el método estadístico por basarse en muchos casos, el comparativo por aplicarse a pocos
casos y el EC por aplicarse a solo uno. Afirma que no es posible inferir una generalización ni
refutar una generalización establecida. Le reconoce el mérito de contribuir al proceso de
formulación de proposiciones y construcción de teorías a partir de los resultados de un análisis
intenso del objeto. Enuncia 6 tipos de EC:
i. EC Ateórico: investigación totalmente descriptiva que resulta útil como fuente exploratoria de
información
ii. EC Interpretativo: el in teres sigue puesto en el caso más que en una teoría general, pero a
diferencia de los anteriores utilizan proposiciones de la teoría establecida de forma explícita. Se
orientan a iluminar la comprensión de un caso
iii. EC Generadores de hipótesis: intentan comprobar hipótesis iniciales cagas y desarrollar
generalizaciones teóricas. Alto valor teórico.

OM
iv. EC que confirman una teoría: ponen a prueba proposiciones e hipótesis
v. EC que debilitan una teoría
vi. EC desviados: con la intención de comprender o explicar casos que se desvían de teorías
generales.
Según Lijphart, los generadores y los desviados son los que más contribuyen a la construcción de
teoría.

.C
d) Satori retoma las categorías del autor anterior pero toma en cuenta solo aquellas que se vinculan
a la teoría y las denomina estudio de caso heurístico, crucial y desviado:
i. EC heurístico: útil para la generación de hipótesis
ii. EC Crucial: fortalecen o debilitan una teoría
DD
iii. EC Desviado: son los que se desvían de una proposición general o teoría establecida

e) BEnt Flyvbjerg formula una tipología de cuatro tipos de EC que no considera excluyentes entre
si:
i. EC extremo o desviado: a los casos inusuales dentro de una teoría
LA

ii. La máxima variación de casos: diseño de casos múltiples seleccionados por sus disimilitudes.
iii. EC crítico: permiten inferir conclusiones para el tipo en su conjunto. Esta vinculado a la
presencia de todas las propiedades que se intentan estudiar, afirmando algo para un caso es válido
para todos los casos.
FI

iv. EC paradigmático: son casos que resaltan características más generales de la sociedad.
La mayoría de las categorías presentadas podrían reducirse a cuatro tipos básicos definidos a partir
de dos ejes: a) el número de casos de estudio, y b) la intervención prevaleciente en la selección de
casos. Los autores han prestado mayor atención a la categorización de los estudios de caso único
vinculados con la construcción de teoría. Para los comparativistas, los estudios basados en más de


un caso se enmarcan en un método comparativo y no en el denominado EC. Por otro lado, se otorga
mayor valor a los EC con valor heurístico, ya que proveen soporte empírico, elementos
conceptuales y núcleos de sentido para la comprensión de fenómenos que los trasciende.
La función de EC en tanto control de una teoría no están exentos de debate. Se destaca la tensión
entre investigaciones basadas en muchos casos y pocas variables (método estadístico) e
investigaciones orientadas a analizar pocos casos en toda su complejidad.

La selección de casos

Cuando el caso no viene definido desde fuera de la investigación, o cuando no se trata de un caso
intrínseco, surge el problema de su selección.

En primer lugar es necesario definir la unidad de análisis (individuos, ciudades, etc.), para luego
seleccionar dentro del conjunto de unidades de análisis del caso. La selección de la unidad de

Este archivo fue descargado de https://filadd.com


análisis está condicionado por la perspectiva teórica y los objetivos de la investigación, y una vez
que esta ha sido determinada, ella condiciona la estrategia de la recolección de datos.
La selección del caso nunca se realiza por azar como en los métodos estadísticos, porque se parte de
la no equivalencia entre los casos, que se destaca a través de la propuesta orientada a la
comprensión de la especificidad de cada caso. El proceso de selección está basado en criterios
teóricos, experiencias de observación y expectativas.

La importancia de definir los límites (acotar) está en definir que se desea incluir en la investigación
y que queda por fuera.
Stake enuncia dos criterios de selección: maximizar lo que potencialmente podemos aprender del
caso y su mayor accesibilidad.

OM
Es importante destacar que el proceso de selección y sus criterios no se agotan en la identificación
del caso, el investigador también debe establecer los niveles intermedios de análisis, es decir, hasta
donde se abordarán las complejidades del caso.

Uno de los riesgos es la selección desviada, en particular, cuando se trata de estudios para confirmar
o debilitar generalizaciones, esto es culpa de la selección no azarosa y la participación de la
subjetividad del seleccionador. Es importante hacer explícitos los criterios de selección y su

.C
relación con la teoría para evitar esto.
DD
LA
FI


Este archivo fue descargado de https://filadd.com

También podría gustarte