Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Metodología
general de la
.C
DD
investigación
LA
FI
Módulo 1
OM
investigación”....................pág.14
.C
Módulo 2
Módulo 2.1
Taylor, S. J.; Bogdan, R.- Introducción a los métodos cualitativos de investigación. Cap. 1:
“Introducción. Ir hacia la gente”....................pág. 77
Hernández Sampieri- Metodología de la Investigación. Caps. 12,15....................pág. 80
Bibliografía ampliatoria:
Marradi- Metodología de las Ciencias Sociales. Cap. 10 “La observación”; Cap. 12 “La
entrevista en profundidad”; Cap. 13 “Focus Group y otras formas de entrevista grupal”; cap.
14 “Estudios de caso/s”....................pág. 85
OM
La visión científica del método. Descartes proclama el papel central del método en la actividad
intelectual, señalado también por Francis Bacon.
La idea de un programa que establece con anticipación una serie no modificable de operaciones
que, de ser practicadas, garantizan el conocimiento científico sobre cualquier argumento, es todavía
hoy uno de los significados que prevalece a la expresión “método científico”.
.C
Una descripción puntual del método hipotético deductivo es la siguiente:
1. Se define el problema
2. El problema se formula en los términos de un particular cuadro teórico
DD
3. Se imaginan una o más hipótesis, utilizando los principios teóricos ya aceptados
4. Se termina el procedimiento a utilizar en la recolección de datos para controlar la hipótesis
5. Se recolectan los datos
6. Se analizan los datos para averiguar si la hipótesis es verificada o rechazada
LA
No todos están de acuerdo. Dalton presume que el método científico es la única via hacia el
conocimiento; sin embargo Becker se pregunta si el método afronta realmente todo el espectro de
cuestiones metodológicas relevantes. Mokrzvcki sostiene que el método científico esta fuera de la
sociología. Las diferentes reacciones están relacionadas con un período, en donde la orientación
FI
científica dominaba en las ciencias sociales: se sostenía no solo que la ciencia tiene un solo método,
sino que se trata de un método santificado por los éxitos de las ciencias físicas. En los años
siguientes, esta idea de unidad del método ha sido criticada.
Una segunda línea crítica señala el peligro de que una particular serie de conocimientos,
identificada como el método científico, se reifique y se vuelva un fin en si. SI el criterio es el
respeto a un sistema de reglas, incluso una guía telefónica es una buena investigación científica.
Son muchos los que se refieren al método como una elección. Es en la toma de decisiones donde
consiste la investigación científica. El método es, por lo tanto, mucho más complejo que una simple
secuencia unidimensional de pasos.
Se ha hablado de la indebida expansión semántica del término método, pero un abuso todavía más
grave lo sufre el término “metodología”. El sufijo “logia” esta utilizado en el sentido de “discurso
Sobre la metodología se discute si ella debe ser una disciplina prescriptiva o descriptiva. La
contraposición descriptivo/prescriptivo encuentra un paralelo en la discusión entre los dos
significados que el término metodología tiene en el lenguaje corriente de la investigación social,
significado que corresponde a los dos roles del metodólogo profesional. Cuando estudia y enseña,
un metodólogo debe tener una orientación descriptiva, es decir, debe estar abierto a aprender de las
experiencias de otros investigadores evaluándolas sin preconceptos, y dispuesto a referir en modo
sistemático y sintético aquello que ha aprendido. Cuanto utiliza sus propias competencias,
capacidad y experiencia al servicio de una investigación, suya o de otros, el metodólogo no puede
OM
ser otra cosa que prescriptivo, en cuanto que debe elegir los instrumentos a utilizar y como
utilizarlos.
Las técnicas. También deriva del griego. Designa una capacidad artística, no aquella individual e
irrepetible, sino aquella más doméstica del artesano, transmisible de padre a hijo. En un segundo
significado, una técnica se sirve del conocimiento adquirido por las ciencias sobre la realidad para
modificar algunos aspectos de ésta. En un tercer significado, es una ciencia la que se sirve de
.C
técnicas para conocer mejor algún aspecto de su objeto.
Las técnicas de las que hablamos aquí son instrumentales a los fines cognoscitivos de diversas
ciencias. Son los procedimientos específicos empleados en una ciencia, o por un particular género
DD
de investigación. El adiestramiento científico tiene que ver en gran medida con la adquisición del
dominio de las técnicas.
Lo esencial del concepto del método está en lo siguiente: en la elección de las técnicas a aplicar, en
la capacidad de modificar técnicas existentes, adaptándolas a los problemas propios y de imaginar
técnicas nuevas. Una vez que un procedimiento nuevo, o una modificación de un procedimiento,
han sido ideados y son codificados y difundidos, estos se reifican y se convierten en una técnica a
disposición de la comunidad de investigadores: no ya en una capacidad privada sino en un objeto
FI
público.
Resta agregar que en uno de los polos no se encuentra tan solo la epistemología, sino también la
gnoseología, la cual reflexiona sobre los fines, doncidiones y límites del conocimiento. Esta
gnoseología es frecuentemente olvidada, las razones pueden ser dos: una lingüística y otra
sustancial. El término “gnoseology” no existe en inglés, así que no aparece en la literatura
anglosajona, aquí se usa “epistemology” para designar la filosofía del conocimiento (gnoseología) y
“philosophy of science” para lo que nosotros llamamos epistemología.
OM
El segundo motivo puede derivar de que todos los intentos de dar un fundamento de certeza al
conocimiento científico ha fracaso frente a la constatación, inevitable en gnoseología, de que no
puede haber nexos rígidos entre la esfera de los referentes (la realidad), la esfera del pensamiento y
la esfera del lenguaje.
.C
Capítulo 1: Tres aproximaciones a la ciencia.
DD
Marradi
LA
Galileo y el método experimental- Muchos filósofos opinan que la ciencia moderna empieza a fines
del siglo XVI con Galileo.
FI
Según la visión Aristotélica, la tarea de la ciencia era identificar la naturaleza de cada especie
de objeto del conocimiento, separando lo que es esencial y fijo (la sustancia) de lo que es
accidental y variable.
relaciones entre las propiedades de los objetos. El científico tiene que hallar la forma
matemática que estas relaciones tienen en la naturaleza. El científico debe saber interrogar
hábilmente a la naturaleza y penetrar en sus secretos. Galileo sentó las bases del método
experimental.
Los objetos de muchas ciencias físicas poseen una característica que no tienen los objetos de
Un límite teórico consiste en el hecho que jamás se puede excluir con seguridad que otras
propiedades, no incluidas en el modelo, influyan en la propiedad experimental. Debido a la
presencia de estas innumerables propiedades, el modelo nunca se puede dar por “cerrado”.
Los límites prácticos consisten en que no siempre es técnicamente posible controlar a la
perfección las variaciones de la propiedad operativa, y todavía es menos posible neutralizar
perfectamente la influencia de las propiedades que se deberían mantener efectivamente
OM
constantes.
.C
Estos límites tienen graves consecuencias en las ciencias sociales. La razón es que no se
pueden separar una pareja de propiedades bloqueando otras. En ciencias sociales no se puede pensar
que los objetos son fungibles y que se pueda estudiar un individuo y extrapolar el
DD
resultado al resto de la sociedad.
Permite tratar la variabilidad entre objetos del mismo tipo sin renunciar a formas de análisis
estadístico. Una vez que se ha registrado en una matriz el estado de n sujetos en p
propiedades, esta nos permite establecer cuáles son las relaciones entre las parejas de
propiedades.
FI
El método de la asociación- Se podría llamar método de asociación este que sustituye al método
experimental en las ciencias sociales siguiendo en el marco del enfoque estándar de la ciencia.
Se siguen unos caracteres comunes que se pueden identificar en la mayoría de los caminos no
estándar de investigación:
a) Orientación para reducir al mínimo la separación entre ciencia y vida cotidiana. Gran
atención por problemas de significado y una actitud de escucha frente a la realidad en
vez de una rígida limitación a modelos a priori.
b) fuerte dependencia del contexto
OM
Capítulo 2: Los debates metodológicos contemporáneos.
Marradi
.C
Durante el siglo XX, los debates se centraron en los conceptos cualidad y cantidad.
DD
Uno de los principales ejes de la controversia se estructuró alrededor del abordaje elegido
para dar cuenta de la relación individuo y sociedad, dando lugar a una perspectiva centrada en
el sujeto por un lado, y otra centrada en la estructura social.
sobre el estatus científico de las ciencias sociales, y metodológicos sobre los modelos de
producir y validar el conocimiento científico en estas disciplinas.
Al calor de estas controversias se definieron dos bandos: uno bajo la medición como mejor
medio para asegurar la cientificidad de las prácticas de investigación de las ciencias sociales, y
FI
OM
El carácter empírico de la actividad científica, basada en la medición y el manejo de datos
como sustento de la explicación adquirió un carácter predominante a través de la técnica de
sondeo.
.C
pseudociencia. La pseudociencia, para Popper, es el conocimiento que se presenta como
científico pero que en realidad tiene que ver con los mitos primitivos. La ciencia sigue un
camino hipotético-deductivo, y la característica singular del conocimiento científico es que
esta conjetura debe ser pasible de falsación, es decir, debe poder ser demostrada falsa.
DD
La consagración del método hipotético-deductivo como única vía válida para la producción de
conocimiento científico revitalizó la idea del monismo metodológico. Para Popper, la ciencia se
ocupa de explicaciones conformadas por sistemas de hipótesis que han resistido las pruebas
de falsación, y estas pruebas solo pueden hacerse a través de un único y mismo método.
LA
Estas ideas fueron tomadas como base epistemológica por parte de la sociología académica de
la época y ayudó a dar sustento al “consenso ortodoxo” de las ciencias sociales. Las
propuestas de Popper pasaron a formar parte de los manuales de metodología de la
investigación social, en donde se presentaba “el” método científico.
FI
Kuhn critica la visión de Popper y dice que la ciencia debe ser concebida como un proceso
histórico, no se trata de un producto lógico-racional que se produce en el vacío sino de un
conjunto de prácticas sociales que tienen lugar en el seno de una comunidad científica. Su
concepto clave es el paradigma. Kuhn distingue entre una etapa preparadigmática (no hay
acuerdos sobre el objeto de estudio y proliferan corrientes) y otra etapa paradigmática
Imre Lakatos apuesta por conciliar el falsacionismo con la perspectiva de Kuhn, es lo que se
conoce como programa de investigación. Estos programas de investigación incluyen un núcleo
duro (conjunto de hipótesis fundamentales) y un cinturón protector (construido por hipótesis
auxiliares).
Se va a ir consolidando una distinción entre el conocimiento del mundo material, para el cual
las hermenéuticas no negaban los principios y metodologías generalizadoras de corte positiva,
y el conocimiento de los fenómenos espirituales (humanos) que requerían una interpretación
profunda y que no podían ser reducidos a leyes universales. Apareció la distinción entre
aproximaciones nomotéticas (típicas de las ciencias naturales) que tienen por objeto la
postulación de las leyes generales basadas en procesos causales uniformes, y aproximaciones
idiográficas (típicas de las ciencias humanas) cuyo objeto es el estudio de los fenómenos
OM
cambiantes que deben ser interpretados contextualmente.
.C
Desde un punto de vista instrumental y operativo, los denominados métodos cualitativos de
investigación, enmarcados en la corriente interpretativa weberiana, abrevan el método
etnográfico de la antropología clásica. Todo esto también se enmarcaba en la investigación
DD
social no estándar.
Znaniecki propone la distinción metodológica entre inducción enumerativa (en la que los casos
son tratados como ejemplos de colectivos) e inducción analítica (en la que cada caso ilumina
aspectos de una teoría general). La inducción analítica pasará a ser considerada como
LA
intrínsecamente etnográfica.
Con los trabajos de Park y Burgues la etnografía se reorienta hacia la propia sociedad. Su
mirada se encauza hacia la diversidad ciudadana a través del análisis de todas las otredades
urbanas. Blumer desarrolla el interaccionismo simbólico, orientado a comprender toda
FI
situación social desde la visión e interpretación del propio actor en interacción. El método
consiste en asumir el papel del actor y ver su mudno desde su punto de vista.
A partir de los 60, las críticas a la sociología convencional abrieron la puerta a la investigación
no estándar. Se resignificaron algunas prácticas metodológicas de la antropología clásica y de
Shutz (1962) sostuvo que los individuos constituyen y reconstituyen su mundo de experiencia.
El focaliza sus estudios sobre los procesos a través de los cuales los sujetos producen
interpretaciones que dan forma a lo real en la vida cotidiana. Sostiene que las ciencias sociales
están conformadas por constructos de segundo orden, que le dan sentido a los constructos de
primer orden de los actores en la vida cotidiana.
OM
para dar cuenta del proceso de formación de sentido del sujeto.
Otra vertiente es la teoría fundamental introducida por Glaser y Strauss, como un método para
generar teoría a partir de los datos empíricos. La relación entre teoría y datos se invierte: estos
pasan de ser la instancia verificadora/falseadora a ser la fuente de la teoría. Promueve una
metodología fundada en la inducción, en la que un muestreo estadístico es suplantado por el
muestreo teórico. Las unidades de observación se seleccionan según criterios formulados
.C
desde la perspectiva del investigador, y el tamaño de la muestra se alcanza por saturación, es
decir, cuando ninguna observación adicional agrega nada relevante.
Existen muchas escuelas que se insertan en la teoría crítica sin tener un consenso único, como
es la crítica epistemológica y metodológica feminista, donde se cuestiona el esencialismo, en la
LA
medida en que este apunta a la legitimación de las relaciones de dominación entre los géneros
anclados en la biología. Esto dio lugar a nuevas categorías de análisis como el “género”.
La reactivación del interés por la investigación cualitativa a partir de la década del 60 también
implicó que gran parte del debate metodológico se trasladaría desde la oposición
cuantitativo/cualitativo hacia el interior de los métodos cualitativos. Schwandt identifica 4 ejes
FI
en el debate de lo intracualitativo:
Una de las principales críticas a los métodos no estándar se ha dirigido a su supuesta falta de
rigor y precisión, asi como su incapacidad para generalizar los resultados. A partir de esto, se
instaló en la agenda cualitativa la búsqueda de instrumentos conceptuales y criterios
alternativos que fuesen más adecuados para juzgar sus procedimientos y sus productos. A
pesar de todo esto, no se ha establecido un consenso en los criterios de calidad en los estudios
cualitativos. Tal vez esto se deba a que en los 90 coexisten una multiplicidad de concepciones
que tienen en común la perspectiva del sujeto, lo cual responde a una realidad de un mundo
posmoderno, múltiple y fragmentado, donde no es posible ninguna generalización y donde
coexisten diversas perspectivas. Se da el contexto donde los límites entre los estilos
cualitativos y cuantitativos se han vuelto imprecisos.
Pierre Bordieu intentó superar el debate cualitativo/cuantitativo. Esta particularidad promovió
En los últimos años se han propuesto diversas formas de articulación o integración entre las
diferentes perspectivas metodológicas, se conocen como triangulación metodológica.
Las propuestas de superación del debate cualitativo-cuantitativo: la triangulación
metodológica y sus límites.
Han surgido propuestas tendientes a integrar las estrategias cuali/cuanti, bajo la idea de que
ambos métodos son válidos y compatibles.
OM
Denzin fue uno de los primeros responsables de la difusión de la idea de triangulación,
distinguiendo cuatro formas: de datos, de investigadores, teórica y metodológica. A su vez,
promovió una diferenciación entre triangulación intramétodo e intermétodo.
.C
idea de la triangulación también ha sido objetada.
El hecho se construye: las reformas de la renuncia empirista. “El punto de vista crea el objeto” dice
Saussure. Es decir, una ciencia no podría definirse por un sector de lo real que le corresponda como
propio. El todo, tal como aparece en la mente, es un producto de ella misma que piensa y se apropia
del mundo. El sujeto, antes como después, mantiene su autonomía fuera de la mente.
La ciencia se organiza en torno a objetos constituidos que nada tienen en común con aquellas
unidades delimitadas de la percepción ingenua. La epistemología empirista concibe las
relaciones entre ciencias vecinas, como psicología y sociología, como conflictos de límites,
porque se imagina la división científica del trabajo como división real de lo real. El posible ver
en el principio Durkheimiano según el cual “hay que considerar los hechos sociales como
cosas” el equivalente a lo que dijo Galileo que habla de la física moderna como sistema de
relaciones cuantificables.
Hay una importante distinción entre objeto “real” pre construido por la percepción y objeto
Un objeto de investigación, por más parcial y parcelario que sea, no puede ser definido y
construido sino en función de una problemática teórica que permita someter a un sistemático
examen todos los aspectos de la realidad puestos en relación por los problemas que le son
planteados.
Las abdicaciones del empirismo- Se puede definir al proceso científico como diálogo entre hipótesis
y experiencia, donde ambos socios asumirán roles simétricos e intercambiables, sin olvidarse que lo
OM
real nunca tiene la iniciativa sino hasta cuando se lo interroga. Bachelard sostenía que el “vector
epistemológico” va de lo racional a lo real y no a la inversa. La teoría domina al trabajo
experimental, desde la partida hasta las últimas concepciones del laboratorio. Sin teoría no seríamos
capaz de realizar ningún tipo de comprobación.
.C
tratamiento que se le aplica. Si no se tiene en cuenta esos preliminares epistemológicos, se
está expuesto a considerar de modo diferente lo idéntico y a la inversa, a comparar lo
incomparable, etc.
DD
Cualquier ciencia debería abstraerse de los hechos del empirismo, siempre recordando la frase
de “los hechos no hablan”, ya que corre el riesgo, de obtener los hechos de boca de sus
informantes, por lo tanto, podría ocurrir que sus prenociones se sustituyan con las
prenociones de los informantes. Obligarse a mantener aquellos elementos creados en realidad
por una indagación que se desconoce, es la manera más sencilla de negar que la comprobación
LA
supone construcción.
Hipótesis o supuestos- Cualquier práctica científica responde a supuestos teóricos, siempre con
miras a una prueba experimental. El negar la hipótesis de la teoría es adoptar supuestos tales como
las prenociones.
FI
Aun cuando se logre liberar de los supuestos, no podrá realizarse nunca el ideal empirista del
registro sin supuestos, aunque más no fuera por el hecho de que utiliza instrumentos y
técnicas de registro. La medida y los instrumentos de medición, y en general todas las
operaciones de la práctica de la ciencia que sea, son teorías en acto, en calidad de
Si no hay registros neutrales, entonces no hay una pregunta neutral. El no someter las propias
interrogantes no permitirá hacer un análisis verdaderamente neutral de las respuestas que
provoca.
El cuestionario más cerrado no garantiza la univocidad de las respuestas solo por el hecho de
La analogía y la construcción de la hipótesis- Para poder construir un objeto, hay que ser consciente
de que todo objeto científico se construye deliberadamente y metódicamente y es precio saber todo
ello para preguntarse sobre las técnicas de construcción de problemas planteados al objeto. Una
metodología que no se plantee el problema de la construcción de las hipótesis que se deben
demostrar no puede dar ideas nuevas y fecundas.
OM
Contra el positivismo que pretende conducir a una formulación automática de hipótesis, una
hipótesis no puede ser conquistada ni construida sino a costa de un golpe de estado teórico
que, al no hallar ningún punto de apoyo en las sensaciones de la experiencia, no podía
legitimarse más que por la coherencia del desafío imaginativo lanzado a los hechos y a las
imágenes ingenuas o cultas de los hechos.
Tal exploración de los múltiples aspectos que supone un distanciamiento respecto de los
.C
hechos, queda expuesta a las facilidades del intuicionismo, del formalismo o de la pura
especulación, al mismo tiempo que solo puede evadirse ilusoriamente de los
condicionamientos del lenguaje o de los controles de la ideología. Weber solo buscaba
explicitar las reglas de funcionamiento y las condiciones de validez de un procedimiento que
DD
todo investigador utiliza consciente o inconscientemente, pero que no puede ser dominado más que
si se utiliza con conocimiento de causa. El tipo ideal como “guía para la construcción
de hipótesis”, según Weber, es una ficción coherente “en la cual la situación y la acción es
comparada y medida”, una construcción concebida para confrontarse con lo real. El tipo ideal
permite medir la realidad porque se mide con ella y se determina al determinar la distancia
LA
Modelo y teoría
Los dos son inseparables. Se reconoce el modelo teórico como depuración formal de las
relaciones entre aquellas que definen los objetos construidos. Por analogía inclusive pueden
En este proceso se involucra una gran cantidad de decisiones y acciones articuladas y con
distintos niveles de complejidad. Desde un punto de vista restrictivo se considera en particular
OM
al conjunto de decisiones y actividades orientadas a establecer relaciones causales entre
distintos aspectos de la realidad bajo estudio o, al menos, al control empírico (e impersonal)
de la hipótesis, es decir, conjeturas acerca de la realidad que postulan cierto tipo de relación
entre determinados aspectos de ésta. La investigación es un proceso que involucra conjunto
de decisiones y prácticas por los cuales conocemos algunas situaciones de interés, cuya
definición y delimitación forma parte de las decisiones apenas aludidas. Debe quedar claro que
hablamos de investigaciones empíricas, o sea, aquellas que tienen algún tipo de relación
.C
observacional con la situación de interés.
Que el proceso este atravesado por decisiones y operaciones que dependen en gran medida
del conocimiento tácito no significa que sea totalmente caótico, desordenado o imprevisible.
LA
Por el contrario, este proceso puede ser diseñado y planificado y, entre otras cosas, esto será
un modo de hacerlo más controlable en la medida que exigirá un esfuerzo por explicitar de
modo anticipado las distintas decisiones involucradas en el mismo. Según el diccionario, un
diseño es una descripción o bosquejo, un proyecto o plan.
FI
Esta concepción del diseño tiene dos consecuencias importantes. La primera es que por
definición no es posible una actividad de investigación no diseñada; lo que pueden existir son
dos actividades de investigación con distintos grados o niveles de diseño. La segunda es que
desde el punto de vista del grado de detalle del diseño de la investigación no se puede pensar
en tipos cerrados sino en un continuum de diseños posibles.
Podemos identificar dos polos en una investigación: por un lado una que está absolutamente
planificada de antemano y otro totalmente opuesto donde no está nada planificado. Estos dos
polos son los llamados “tipos ideales”, pero en la práctica se dan las situaciones entre esos dos
polos, lo que se plantea la idea del “diseño flexible”, los cuales pueden ser más o menos
estructurados según el grado de detalle que adquiera la planificación previa. Se asume que
existe un conjunto de decisiones en cualquier tipo de investigación, este “mínimo” de diseño
OM
La elección de un tema, delimitaciones del problema y su operativización
La primera y fundamental cuestión en un diseño de investigación es la delimitación de un
problema de investigación. Valles dice que la formulación del problema es un proceso de
elaboración que va desde la idea (propia o ajena) hasta la conversión de dicha idean en un
problema investigable. Esas ideas iniciales pueden concebirse como temas de investigación
que se relacionan con determinados recortes de la realidad propios de la estructura y del
estado de desarrollo de la disciplina científica dentro de la cual se inscribe el investigador y/o
.C
de lo que habitualmente se conoce como “agenda de investigación”.
Hay grandes temas que no son directamente investigables, entre otras cosas por su grado de
abstracción, complejidad y amplitud. Sin embargo, todo tema puede llevar a convertirse en un
DD
problema de investigación, o sea, dar lugar a preguntas específicas que se puedan abordar
empíricamente. Un problema se define y construye a partir de un tema más amplio. Esta
definición implica fundamentalmente un movimiento progresivo desde lo abstracto y general
del tema hacia lo concreto y especifico del problema. Pero el problema no surge
espontáneamente. El proceso de construcción, en cambio, puede ser extremadamente
LA
Para decidir la estrategia metodológica y escoger los instrumentos adecuados a los objetivos,
resultará necesario desentrañar el problema de investigación y analizar todas sus
consecuencias en términos de una posible respuesta empíricamente construida. Desde cierto
1) Declaraciones condicionales
OM
2) Funciones matemáticas
3) Declaraciones continuas
4) Declaraciones diferenciales
.C
central y la función rectora de la investigación. No podemos no contar con preguntas.
Para hacer operativo un problema de investigación, se lo puede pensar como la explicitación
del interés del investigador por conocer algo de alguien. Ese “algo” o “que” que se quiere
conocer se expresa a través de las propiedades conceptuales (y sus relaciones) cristalizadas
DD
verbalmente en las preguntas que guían la investigación. Por otra parte, ese “algo” se refiere
siempre a “alguien”, un “quien” que esta temporal y especialmente situado y que
técnicamente se denomina unidad de análisis.
recolección”.
Solo cuando todas las decisiones hayan sido tomadas resultará posible realizar el trabajo de
campo.
Formalización del diseño: el proyecto de investigación- Como sostiene Samaja, el objetivo central
OM
¿Cómo se originan las investigaciones cuantitativas, cualitativas o mixtas?
Las investigaciones se originan por ideas.
Las ideas constituyen el primer acercamiento a la realidad objetiva (desde la perspectiva
.C
cuantitativa), a la realidad subjetiva (desde la perspectiva cualitativa) o a la realidad intersubjetiva
(desde la óptica mixta) que habrá de investigarse.
Internet.
personas o al recordar alguna vivencia; mientras se "navega" por internet, o bien a raíz de algún
suceso que esté ocurriendo en el presente. A veces las ideas nos las proporcionan otras personas y
responden a determinadas necesidades.
La mayoría de las ideas iniciales son vagas y requieren analizarse con cuidado para que se
transformen en planteamientos más precisos y estructurados, en particular en el proceso
cuantitativo. Cuando una persona desarrolla una idea de investigación debe familiarizarse con el
campo de conocimiento donde se ubica la idea.
OM
Criterios para generar ideas.
Las buenas ideas intrigan, alientan y excitan al investigador de manera personal.
Las buenas ideas de investigación no son necesariamente nuevas pero sí novedosas.
Las buenas ideas de investigación pueden servir para elaborar teorías y solucionar
problemas.
Las buenas ideas pueden servir para generar nuevos interrogantes y cuestionamientos.
Conclusión. .C
DD
En este capítulo se define que toda investigación se inicia por medio de ideas. De igual manera se
enlistan diversas fuentes que inspiran dichas ideas de investigación y se habla de maneras de
desarrollarlas para formular planteamientos de investigación.
Las ideas deben ser afinadas mediante una investigación previa de los temas relacionados con
dichas ideas, esto con el fin de estructurar un mejor planteamiento.
LA
Módulo 2
FI
La matriz tiene una gran importancia en el “método de la asociación”, son las llamadas “matrices de
datos”, que es un cruce entre vectores horizontales y verticales, donde los horizontales son objetos y
los verticales son propiedades de estos objetos.
OM
Un amuestra es cualquier subconjunto de miembros de una población que se investiga con el fin de
extender a toda la población las conclusiones resultantes del análisis de las informaciones relativas
al subconjunto. Esta extrapolación (de los resultados del análisis) de la muestra a la población
entera es llamada “inferencia estadística” y tiene reglas precisas que veremos pronto.
Muestras aleatorias y no aleatorias- Una muestra se dice aleatoria cuando todos los miembros de la
.C
población tienen la misma posibilidad de ser extraídos y entrar en la muestra. La naturaleza
aleatoria de una muestra depende integralmente del procedimiento de extracción y no tiene nada
que ver con el resultado.
DD
Algunos estadísticos hablan de “muestra aleatoria simple” cuando los miembros de una población
tienen la misma posibilidad de ser extraídos, y de “muestra aleatoria” cuando cada miembro de la
población tiene la misma probabilidad conocida y no nula de ser extraído. Pero esta distinción
ofrende una cobertura científica a procedimientos que tienen poco que ver con la ciencia y mucho
con los presupuestos de quien hace el sondeo.
LA
Después de ahorrar dinero con estos procedimientos, las empresas tratan de remediar su obvia
consecuencia (subrepresentación de todas las áreas periféricas) con otro procedimiento discutible: la
ponderación.
FI
Otro problema con los entrevistados, es que a veces simplemente no están en su casa, o se niegan a
ser entrevistados, esto también afecta el concepto de extracción aleatoria, haciendo que una muestra
perfectamente aleatoria se vuelva casi siempre no aleatoria, por ejemplo, seguro atenderán más el
teléfono las amas de casa, los desempleados y los jóvenes que otro tipo de sujetos.
¿Representativo de qué?
Para juzgar si una muestra es representativa debemos mirar el resultado, independientemente del
procedimiento con el que haya sido extraída.
Mientras que para juzgar si una muestra es aleatoria tenemos una pauta clara (misma probabilidad
de entrar en la muestra para todos los miembros de la población), para juzgar si es representativa
debemos recurrir a consideraciones difusas y subjetivas. La difusión y subjetividad caracterizan
todo el campo semántico de la representatividad.
1. La representatividad tiene que ser controlada y eventualmente afirmada por cada propiedad por
separado
2. Debido a que la representatividad se evalúa comparando la distribución de una propiedad en la
muestra con la distribución de la misma propiedad en la población, únicamente se puede evaluar
Se puede afirmar que la extracción aleatoria no da ninguna garantía absoluta de que la distribución
de una propiedad cualquiera en la muestra sea representativa de la distribución de la misma
propiedad en la población. Solo da:
Una garantía absoluta de los sesgos (en el sentido de diferencias entre estas dos distribuciones)
no sean introducidos por el investigador, sino producidos al azar.
Una garantía razonable de que estos sesgos sean de magnitud limitada.
OM
Como garantizar una (limitada) representatividad de una muestra aleatoria
¿No hay ninguna manera de asegurar algo más que esta garantía negativa con una muestra
aleatoria? Si la hay, pero con respecto a un número limitado de propiedades, bajo algunas
condiciones, y solo con un tipo particular de extracción dominada sistemática.
.C
DD
Capítulo 7: Conceptos de propiedades. Variables, fidelidad y
fiabilidad
LA
La definición operativa- En las columnas de una matriz de datos se encuentran las variables. Una
variable es un vector de signos que representan los estados de los casos en las propiedades que
FI
Solo se puede hablar de una matriz de datos si todos los números (y más generalmente, los signos)
que se ven son interpretativos, es decir, son datos.
Para poner información en celdas necesitamos una convención que relacione “algo” con un número.
Esto se llama “plan de codificación”. Por ejemplo, si alguien tiene un título de estudio, un plan de
codificación puede ser: 0 es sin título, 1 con primaria, 2 con secundaria, 3 licenciada, etc.
El plan de codificación es parte de un conjunto de reglas y convenciones que permiten convenir una
propiedad de los objetos o sujetos en la realidad en una variable en la matriz de datos. Este conjunto
se llama “definición operativa” y las partes que lo integran verían según la naturaleza de la
propiedad. La variación más considerable está vinculada al tipo de unidad de análisis, y por
consiguiente al tipo de técnica de recolección.
Una definición operativa es el conjunto de todas las operaciones, intelectuales y materiales, que
permitan pasar de estados reales a números que representan esos estados en la matriz, debemos
concluir que, junto con las reglas y convenciones específicas de la propiedad en cuestión, una
OM
definición operativa incluye las reglas y convenciones más generales y comunes a todas las
propiedades que se indaguen en esa investigación específica y en todas aquellas análogas.
.C
Los investigadores saben que los entrevistados tienden a declarar como propias las opiniones que
creen ortodoxas y compartidas por la mayoría, este fenómeno es conocido como “deseabilidad
social”, y es tan difundido que hace poco fiables los resultados de encuestas sobre opiniones
realizadas con preguntas sencillas y directas, ya que es fácil para el entrevistado imaginar cual sea
DD
la respuesta convencional, y por lo tanto, socialmente deseable.
Además pueden dar involuntariamente informaciones que generan datos no fidedignos. Por ejemplo
que no entiendan bien la pregunta, mala memoria, etc.
LA
Para controlar la fidelidad- Dada que la escasez de fidelidad empeora la calidad y reduce la
credibilidad de una investigación, se debería dedicar mucha más atención al control de la fidelidad.
El más simple es una inspección de las distribuciones de frecuencia de cada variable, o sea, cuantos
datos tiene cada uno de los códigos numéricos posibles en esa variable. Esto nos permite tomar
contacto con los datos que hemos recogido, además, nos permite descubrir si algunos datos tienen
Otro dato es corroborar si las combinaciones de categorías son social o jurídicamente imposibles en
una sociedad dada. Esto se llama control de coherencia.
Todas las otras formas de control se aplican confrontando los datos con informaciones que se
encuentran fuera de la matriz.
OM
b) La primera suministración puede cambiar artificialmente el estado del sujeto en la propiedad, y
esto en varias formas
a) El sujeto puede recordar las respuesta que dio antes y repetirlas para ser coherente
b) Si el test concierne a cualquier forma de habilidad, la primera suministración puede actuar como
entrenamiento, entonces la prestación de algunos sujetos mejora en el retest.
c) La primera puede acrecentar el interés de algunos sujetos hacia los problemas investigados y eso
los hace investigar, reflexionar, etc.
.C
d) Pueden haber otros efectos como acostumbramiento, desencanto, etc.
Por estos motivos se aconseja señalar el intervalo entre ambos test, lo cual sería determinante si
ambos resultados cambiasen.
DD
Una solución fue la de realizar dos tests sobre el mismo tema, con las mismas preguntas o pruebas,
formuladas de manera análoga, que se bautizaban como “paralelos”. Los dos vectores deseados se
producían sumando ambos puntajes. SI la correlación resultaba alta, eso confirmaba el supuesto de
equivalencia de los dos tests y simultáneamente la fiabilidad de uno con el otro.
Se propuso otra técnica más sencilla: hace un solo test y luego crear los dos vectores deseados
LA
simplemente sumando por separado los puntajes conseguidos por un sujeto en las preguntas que
tienen un numero par en la secuencia del test y en los que tienen un número impar. El coeficiente de
correlación así producido fue bautizado “subdivisión a la mitad”
Quien tiene experiencia con los sujetos investigados sabe que muchos tienden a acordar con las
FI
respuestas sin reflexionar sobre ellas, por prisa o por malentendido, o solo por quitarse un peso de
encima. Esto se conoce como “respuesta self”.
Un progreso técnico se produjo a finales de los 30 que se propuso el “coeficiente alfa” aplicable a
toda batería.
Un punto a destacar es que la línea de herramientas para controlar la fiabilidad está vinculada a los
test en sus laboratorios, es decir, baterías de preguntas o pruebas de formato igual. No es aplicable a
ninguna de las otras herramientas que se usan en un sondeo. Además, asignar un coeficiente de
fiabilidad de un test como si fuera un atributo permanente lleva a una falla de conceptos y además
roza un problema de generalizabilidad.
No es bueno generalizar a todas las poblaciones en todos los tiempos y situaciones. Esto parece
obvio, pero la realidad es que los coeficientes de fiabilidad encontrados en un grupo son
transferidos a todos los otros grupos sin cuestionamiento.
La generalización es ilegítima, incluso entre el mismo grupo de sujetos a los que se le aplica el test
para calcular su coeficiente de fiabilidad:
Reducir todo esto a un coeficiente universal y definitivo es incorrecto. Los controles se siguen
volviendo más técnicos con los años y más alejados de la realidad.
Hemos visto que limitándose al análisis de datos de la matriz y olvidando mirar afuera, se pueden
lograr coeficientes de fiabilidad tranquilizadores que, sin embargo, no tienen ninguna relación con
las situaciones reales.
OM
Esta manera de proceder no es problema de la matriz, sino de quienes la usan. La matriz es un
instrumento neutro, que se puede usar para descubrir indicaciones significativas sobre situaciones
reales.
.C
Definición de análisis estadístico. Runyon
¿Qué es la estadística?
DD
LA
También puede ser considerada como un método para manejar los datos. Esto destaca de que la
estadística es una herramienta para la recopilación, organización y análisis de hechos números o de
observaciones. Esta definición es la más acertada para el tratamiento que le daremos.
Se pueden diferenciar entre las técnicas estadísticas descriptivas y las inferenciales o inductivas. La
Estadística descriptiva- Un científico recolecta mucha información numérica o datos acerca del
problema en cuestión. Los datos pueden tomar diversas formas. Al realizar la función descriptiva el
estadístico formula reglas y procedimientos para la presentación de los datos en una forma más útil
y significativa. Así, establece la representación gráfica, también formula reglas para el cálculo de
diversos estadígrafos a partir de datos en bruto.
OM
Reordenar los punteos y agruparlos para tener una imagen global de los datos
Construir tablas, graficas, etc.
Puede convertir los datos originales de forma que sean más útiles, como pasar los números a
porcentajes, etc.
Calcular promedios
Puede calcular dispersión a partir del promedio
Se pueden obtener relaciones entre dos instrumentos de medida diferentes.
.C
Estadística inferencial- Para muchos, el trabajo comienza al haber completado la función
descriptiva, ya que el propósito es explorar hipótesis de naturaleza general y no simplemente
comparar algunas muestras limitadas.
DD
A partir de las dudas que surgen, se ingresa en el análisis estadístico conocido como estadística
inductiva o inferencial, lo que permite lograr conclusiones que se extiendan más allá de las muestras
estadísticas mismas.
LA
investigación cuantitativa?
Los elementos para plantear un problema son cinco y están relacionados entre sí:
Objetivos que persigue la investigación.- Señalan a lo que se aspira en la investigación y deben
expresarse con claridad, pues son las guías del estudio.
Las preguntas de investigación.- Orientan hacia las respuestas que se buscan con la investigación.
OM
Las preguntas no deben utilizar términos ambiguos ni abstractos.
.C
resulta indispensable que rengamos acceso al lugar o contexto donde se realizará la investigación.
Evaluación de las deficiencias en el conocimiento del problema.
Se enlistan los elementos principales del planteamiento del problema: objetivos, preguntas de
FI
Después de definir que nuestra investigación vale la pena realizarla, el siguiente paso consistirá en
visualizar el alcance que tendrá.
El alcance depende de la estrategia de investigación. Así, el diseño, los procedimientos y otros
Se realizan cuando el objetivo es examinar un tema o problema de investigación poco estudiado, del
cual se tienen muchas dudas o no se ha abordado antes.
Valor- Los estudios exploratorios sirven para familiarizarnos con fenómenos relativamente
desconocidos, obtener información sobre la posibilidad de llevar a cabo una investigación más
completa respecto de un contexto particular, investigar nuevos problemas, identificar conceptos o
OM
variables promisorias, establecer prioridades para investigaciones futuras, o sugerir afirmaciones y
postulados.
Con frecuencia, la meta del investigador consiste en describir fenómenos, situaciones, contextos y
DD
eventos; esto es detallar como y son y se manifiestan. Los estudios descriptivos buscan especificar
las propiedades, características y los perfiles de personas, grupos, comunidades, procesos, objetos o
cualquier otro fenómeno que se someta a un análisis. Se seleccionan una serie de cuestiones y se
mide o recolecta información sobre cada una de ellas.
LA
Pretenden medir o recoger información de manera independiente o conjunta sobre los conceptos o
variables que se prefieran, esto es, su objetivo no es indicar como se relacionan las variables
medidas.
FI
Valor
Los estudios descriptivos son útiles para mostrar con precisión los ángulos o dimensiones de un
fenómeno, suceso, comunidad, contexto o situación. En esta clase de estudios, el investigador debe
ser capaz de definir, o al menos visualizar, que se medirá y sobre que o quienes se recolectarán los
datos.
Pretenden responder a preguntas de investigación como las siguientes: ¿aumenta la autoestima del
paciente conforme transcurre una psicoterapia orientada a él? ¿ a mayor variedad y autonomía del
trabajo corresponde mayor motivación intrínseca respecto de las tareas laborales?, entre otras. Este
tipo de estudios tiene como propósito conocer la relación que exista entre dos o más conceptos,
categorías o variables en un contexto particular.
Miden el grado de asociación entre dos o más variables. Es decir, miden cada variable
presuntamente relacionada, y después, miden y analizan su correlación. Tales correlaciones se
sustentan en hipótesis sometidas a prueba. Es importante recalcar que en la mayoría de los casos, las
Utilidad
La principal es saber cómo se puede comportar un concepto o una variable al conocer el
comportamiento de otras variables relacionadas. Es decir, intentar predecir el valor aproximado que
tendrá un grupo de individuos o casos en una variable, a partir del valor que poseen en la o las
variables relacionadas.
Valor
Tiene en alguna medida un valor explicativo, aunque parcial, ya que el hecho de saber que dos
conceptos o variables se relacionan aporta cierta información explicativa.
La explicación es parcial porque hay otros factores vinculados con la adquisición de conceptos.
OM
Cuando mayor sea el número de variables que se asocien en el estudio y mayor la fuerza de las
relaciones, más completa será la explicación.
Estos van más allá de la descripción de conceptos o fenómenos, o del establecimiento de relaciones
entre conceptos; están dirigidos a responder por las causas de los eventos y fenómenos físicos o
DD
sociales. Su interés se centra en explicar porque ocurre un fenómeno y en qué condiciones se
manifiesta, o por qué se relacionan dos o más variables.
Son más estructuradas que los estudios con los demás alcances, y de hecho, implican los propósitos
de éstos (exploración, descripción y correlación); además se proporcionan un sentido de
entendimiento a los fenómenos a que se hacen referencia.
¿Una misma investigación puede incluir diferentes alcances?
FI
Algunas veces una investigación puede caracterizarse como cualquiera de las anteriores, pero no
situarse únicamente como tal, esto es, aunque un estudio sea en esencia de un tipo, puede tener
elementos de otro. Además, una investigación puede iniciarse como “de un tipo” y terminar de
“otro”.
Los factores que influyen en que una investigación se inicie en alguno de los tipos son
a. El conocimiento actual que nos revele la investigación literaria
b. La perspectiva que el investigador pretende dar a su estudio
El conocimiento actual- Este factor nos enseña cuatro posibilidades de influencia. En principio, la
literatura puede revelar que no hay antecedentes sobre el tema o que no son aplicables al contexto
en el que se desarrollará el estudio, en este caso, la investigación deberá iniciarse como
exploratoria. Si se nos revelan guías aún no estudiadas e ideas vagamente vinculadas con el
problema, la situación resulta ser similar, es decir, será exploratorio.
En segundo término, la literatura nos puede revelar que hay piezas y trozos de teorías con apoyo
empírico moderado, esto es, estudios descriptivos que han detectado y definido ciertas variables y
Finalmente, la literatura puede revelar que existe una o varias teorías que se aplican a nuestro
problema de investigación, en estos casos, el estudio pueden iniciarse como explicativo.
Los 4 son igualmente validos e importantes, y han contribuido al avance de las diferentes ciencias.
Cuando uno tiene sus objetivos y su razón de ser.
OM
Después de la revisión de la literatura, el planteamiento del problema puede permanecer sin
cambios, modificarse radicalmente o experimentar algunos ajustes. Lo mismo ocurre una vez que
hemos definido el alcance o los alcances de nuestra investigación. En esta etapa, recomendamos que
el planteamiento sea visualizado gráficamente de acuerdo con el alcance.
En el caso del alcance exploratorio, podemos visualizar el planteamiento al escribir los conceptos
.C
clave. Los conceptos son tentativos, puesto que estamos trabajando dentro de un tema o área no
estudiada o con antecedentes mínimos. Lo primero a considerar es si los conceptos clave reflejan mi
problema específico que deseo investigar. Si la respuesta es positiva, confirmo mi planteamiento y
me aboco a tales conceptos, si es negativa, cambio mis conceptos clave.
DD
Puedo limitar mi exploración a tales conceptos generales o agregar otros conceptos.
LA
Con el propósito de responder a las preguntas de investigación planteadas y cumplir con los
objetivos del estudio, el investigador debe seleccionar o desarrollar un diseño de investigación
especifico.
Como parte de lo que es el proceso de investigar el investigador tiene que tener clara idea de lo que
es elaborar un diseño de investigación. Una vez que se precisó el planteamiento del problema, se
definió el alcance inicial de la investigación y se formularon las hipótesis (o no se establecieron
debido a la naturaleza del estudio). El investigador debe visualizar la manera práctica y concreta de
responder a las preguntas de investigación, además de cubrir los objetivos fijados. Esto implica
seleccionar o desarrollar uno o más diseños de investigación y aplicarlos al contexto particular de su
estudio. EI termino diseño se refiere al plan o estrategia concebida para obtener la información que
se desea.
Dentro del enfoque cuantitativo, la calidad de una investigación se encuentra relacionada con el
En este proceso se tienen dos tipos de diseño para investigar que son la investigación experimental
y la no experimental, la primera puede dividirse en experimentos "puros" y cuasiexperimentos. La
investigación no experimental la subdividimos en diseños transversales y diseños longitudinales.
Diseños experimentales
¿Qué es un experimento?
OM
EI termino experimento tiene al menos dos acepciones, una general y otra particular. La general se
refiere a "elegir o realizar una acción" y después observar las consecuencias (Babbie, 2001). Este
uso del término es bastante coloquial; así, hablamos de "experimentar" cuando mezclamos
sustancias químicas y vemos la reacción provocada, 0 cuando nos cambiamos de peinado y
observamos el efecto que suscita en nuestras amistades dicha transformación. La esencia de esta
concepción de experimento es que requiere la manipulación intencional de una acción para analizar
.C
sus posibles resultados.
DD
LA
(por ejemplo, decir que el tratamiento psicológico reduce la depresión), se deben cubrir varios
requisitos que a continuación se expondrán.
.C
Situacion de control en la cual se manipulan, de manera intencional, una o más variables
independientes (causas) para analizar las consecuencias de tal manipulación sobre una o más
variables dependientes (efectos).
DD
La variable dependiente se mide
La variable dependiente no se manipula, sino que se mide para ver el efecto que la manipulación de
la variable independiente tiene en ella. Esto se esquematiza de la siguiente manera:
LA
FI
La letra "X" suele utilizarse para simbolizar una variable independiente o tratamiento experimental,
las letras o subíndices "A, B " indican distintos niveles de variación de la independiente y la letra "r
se utiliza para representar una variable dependiente.
La manipulación o variación de una variable independiente puede realizarse en dos o más grados.
EI nivel mínimo de manipulación es de dos grados: presencia ausencia de la variable independiente.
Cada nivel o grado de manipulación involucra un grupo en el experimento.
Presencia-ausencia
Este nivel o grado implica que un grupo se expone a la presencia de la variable independiente y el
otro no. Posteriormente, los dos grupos se comparan para saber si el grupo expuesto a la variable
independiente difiere del grupo que no fue expuesto.
Grupa de control
Se Ie conoce también como grupo testigo
OM
Trasladar el concepto teórico a un estímulo experimental (una serie de operaciones y actividades
concretas a realizar).
Por ejemplo, si la variable independiente a manipular es la exposición a la violencia televisada (en
adultos). El investigador debe pensar cómo va a transformar ese concepto en una serie de
operaciones experimentales.
.C
En ocasiones no resulta tan difícil trasladar el concepto teórico (variable independiente) en
operaciones prácticas de manipulación (tratamientos 0 estímulos experimentales).
DD
Guía para sortear dificultades
de diferente forma?
¿Qué variables es la mejor?
3. Incluir verificadores para la manipulación. Cuando se utilizan seres humanos hay varias formas
de verificar si realmente funciono la manipulación. La primera consiste en entrevistas a los sujetos.
Supongamos que, por medio de la manipulación, pretendemos generar que un grupo este muy
motivado hacia una tarea 0 actividad y el otro no, después del experimento entrevistaríamos a los
participantes para ver si el grupo que debía estar muy motivado en realidad lo estuvo, y el grupo
que no debía estar motivado no lo estuvo.
El segundo requisito consiste en medir el efecto que la variable independiente tiene en la variable
dependiente. Esto es igualmente importante y como en la variable dependiente se observa el efecto,
la medición debe ser válida y confiable.
Las variables dependientes se pueden medir de diversas maneras: cuestionarios, escalas,
observación, entrevistas, mediciones fisiológicas. En la planeación de un experimento se debe
precisar cómo se van a manipular las variables independientes y como medir las dependientes.
No hay reglas para ello; depende de cómo se haya planteado el problema de investigación y de las
limitaciones que existan.
El tercer requisito que todo experimento debe cumplir es el control o la validez interna de la
situación experimental. El término "control" tiene diversas connotaciones dentro de la
experimentación. Sin embargo, su acepción mas común es que, si en el experimento se observa que
una o mas variables independientes hacen variar a las dependientes, la variación de estas últimas se
debe a la manipulación de las primeras y no a otros factores o causas; y si se observa que una o más
OM
independientes no tienen un efecto sobre las dependientes, se puede estar segura de ello.
Validez interna:
Grado de confianza que se tiene de que los resultados del experimento se interpreten
adecuadamente y sean validos (se logra cuando hay control).
.C
DD
Dicho de una tercera forma, lograr control en un experimento es contener la influencia de otras
variables extrañas en las variables dependientes, para asi saber en realidad si las variables
LA
Lo mismo ocurre con un método de enseñanza, cuando por medio de un experimento se desea
evaluar su influencia en el aprendizaje. Si no hay control, no sabremos si un buen aprendizaje se
debió al método, a que los participantes eran sumamente inteligentes, a que estos tenían
conocimientos aceptables de los contenidos o a cualquier otro motivo. Si no hay aprendizaje no
sabremos si se debe a que los sujetos estaban muy desmotivados hacia los contenidos a enseñar, a
que eran poco inteligentes o a cualquier otra causa.
Existen diversos factores que tal vez nos confundan y sean causa de que ya no sepamos si la
Se trata de explicaciones rivales frente a la explicaci6n de que las variables independientes afectan a
las dependientes. A estas explicaciones se les conoce como fuentes de invalidación interna porque
precisamente atentan contra la validez interna de un experimento. Esta se refiere a cuanta confianza
tenemos en que sea posible interpretar los resultados del experimento y estos sean válidos. La
validez interna se relaciona con la calidad del experimento y se logra cuando hay control, cuando
los grupos difieren entre sl solamente en la exposición a la variable independiente (ausencia-
presencia o en grados o modalidades). cuando las mediciones de la variable dependiente son
confiables y validas, y cuando el análisis es el adecuado para el tipo de datos que estamos
manejando.
OM
Explicaciones rivales:
Son las fuentes de invalidaci6n interna, el control de un experimento se alcanza al ser eliminadas
estas.
Se presentan 12 explicaciones rivales que deben ser analizadas minuciosamente para tener un buen
control de estas que son:
.C
1 Historia. Son acontecimientos que ocurren durante el desarrollo del experimento, que pueden
afectar a la variable dependiente y llegan a confundir los resultados experimentales.
2. Maduración. Son procesos internos de los participantes que operan como consecuencia del
DD
tiempo y afectan los resultados del experimento, tales como cansancio, hambre, aburrimiento,
aumento en la edad y cuestiones similares.
4. Administrad6n de pruebas. Se refiere al efecto que puede tener la aplicación de una prueba sobre
las puntuaciones de pruebas subsecuentes.
FI
puntuaciones extremas y cuando son medidos por primera vez se encuentran en valores muy altos o
bajos en la variable que nos interesa
7. Selección. Puede presentarse al elegir a las personas para los grupos del experimento, de tal
manera que los grupos no sean equiparables.
10. Difusión de tratamientos experimentales. Se refiere a que los participantes de los grupos
experimentales y de control intercambien entre si información sobre la naturaleza del experimento,
11. Actuadores anormales del grupo de control. Consiste en que si el grupo testigo conoce su
condición, se esfuerce en un grado superlativo con el fin de obtener puntuaciones más favorables en
la variable dependiente.
12. Otras interacciones. Es posible que haya diversos efectos provocados por la interacción de las
fuentes de invalidación interna.
OM
grupos de comparación (dos como mínima) y 2) equivalencia de los grupos en todo, excepto en la
manipulación de la o las variables independientes.
Otro método para intentar hacer inicialmente equivalentes a los grupos es el emparejamiento o la
.C
técnica de apareo (en ingles, matching). Existen diversas modalidades de este método; sin
embargo, la más común es la que a continuación se va a describir. El proceso consiste en igualar a
los grupos en relación con alguna variable específica, que puede influir de modo decisivo en la o las
variables dependientes.
DD
El primer paso es elegir la variable específica de acuerdo con algún criterio teórico. Es obvio que
esta variable debe estar muy relacionada con las variables dependientes. Si se pretendiera analizar el
efecto que causa utilizar distintos tipos de materiales suplementarios de instrucción sobre el
desempeño en la lectura, el apareamiento podría basarse en la variable "agudeza visual".
LA
pensarse cual! es la variable cuya influencia sobre los resultados del experimento resulta más
necesario controlar y buscar el apareamiento de los grupos en esa variable.
El segundo paso consiste en obtener una medición de la variable elegida para emparejar a los
grupos. Esta medición puede existir o efectuarse antes del experimento. Vamos a suponer que
nuestro experimento fuera sobre métodos de enseñanza, el emparejamiento llegaría a hacerse sobre
la base de la inteligencia. Si fueran adolescentes, se obtendrían registros de inteligencia de ellos o se
les aplicaría una prueba de inteligencia.
El tercer paso es ordenar a los sujetos en la variable sobre la cual se va a efectuar el emparejamiento
(de las puntuaciones más altas a las más bajas).
Técnica de apareo:
En igualar a los grupos en relación con alguna
Variable específica, que puede influir de modo Decisivo en la variable dependiente.
Como comenta Nunnally (1975), la bondad de la asignaci6n al azar de los participantes o sujetos a
los grupos de un diseño experimental es que el procedimiento asegura absolutamente que, en
promedio, los grupos no diferirán (antes de que participen en los tratamientos experimentales) en
ninguna característica más de lo que pudiera esperarse por pura casualidad.
OM
los diseños experimentales en tres clases: a) pre experimentos, b) experimentos "puros"y c) cuasi
experimentos. Se utilizara la simbología que generalmente se emplea en los textos sobre
Experimentos.
R Asignación al azar o aleatoria. Cuando aparece quiere decir que los sujetos han sido asignados a
.C
un grupo de manera aleatoria (proviene del inglés randomization).
G Grupo de sujetos (GJ, grupo 1; G" grupo 2; etcétera).
X Tratamiento, estimulo 0 condición experimental (presencia de algún nivel 0 modalidad de la
Variable independiente).
DD
o Una medicion de los sujetos de un grupo (prueba, cuestionario, observación, etc.). Si aparece
antes del estímulo o tratamiento, se trata de un pre prueba (previa al tratamiento). Si aparece
después del estímulo se trata de un pre prueba (posterior al tratamiento).
LA
Ausencia de estímulo (nivel "cero" en la variable independiente). Indica que se trata de un grupo de
control o testigo.
Pre experimentos
FI
Consiste en administrar un estímulo o tratamiento a un grupo y después aplicar una medición de una
o más variables para observar cual es el nivel del grupo en estas variables.
Este diseño no cumple con los requisitos de un experimento "puro". No hay manipulación de la
variable independiente (no hay varios niveles de ella, ni siquiera los niveles mínimos de presencia
-ausencia). Tampoco hay una referencia previa de cuál era el nivel que tenía el grupo en la(s)
variable(s) dependiente(s) antes del estímulo, ni existe grupo de comparación. EI diseño adolece de
los defectos que fueron mencionados al hablar de uno de los requisitos para lograr el control
experimental: tener varios grupos de comparación. Noes posible establecer causalidad con certeza
ni se controlan las fuentes de invalidación interna.
Los dos diseños pre experimentales no son adecuados para el establecimiento de relaciones
causales entre la(s) variable(s) independiente(s) y la(s) variable(s) dependiente(s). Son diseños que
han recibido bastante critica en la literatura experimental (por ejemplo, Kerlinger y Lee,2002).
OM
porque se muestran vulnerables en cuanto a la posibilidad de control y validez interna.
Algunos autores consideran que deben usarse solo como ensayos de otros experimentos con mayor
control.
En ciertas ocasiones los diseños pre experimentales sirven como estudios exploratorios, pero sus
resultados deben observarse con precaución. De ellos no es posible obtener conclusiones seguras.
Son útiles como un primer acercamiento al problema de investigación en la realidad, aunque no
más profundos.
.C
como el Único y definitivo acercamiento. Abren el camino, pero de ellos deben derivarse estudios
Experimentos "puros"
DD
Los experimentos "puros" son aquellos que reúnen los dos requisitos para lograr el control y la
validez interna: 1) gropos de comparación (manipulación de la variable independiente o de varias
independientes) y 2) equivalencia de los gropos. Estos diseños llegan a incluir una o más variables
independientes y una o más dependientes. Asimismo, pueden utilizar pre pruebas y pos pruebas
LA
para analizar la evolución de los gropos antes y después del tratamiento experimental. Desde luego,
no todos los diseños experimentales "puros" utilizan pre prueba; aunque la pos prueba si es
necesaria para determinar los efectos de las condiciones experimentales (Wiersma y Jurs, 2005).
A continuación se muestran varios diseños experimentales "puros"
FI
Este diseño incluye dos grupos, uno recibe el tratamiento experimental y el otro no (grupo de
control). Es decir, la manipulación de la variable independiente alcanza solo dos niveles: presencia
y ausencia. Los sujetos se asignan a los grupos de manera aleatoria. Cuando concluye la
manipulación, a ambos grupos se les administra una medición sobre la variable dependiente en
estudio.
Experimentos "puros”: Son aquellos que logran el control y la validez interna al reunir dos
requisitos: 1) grupos de comparación y 2) equivalencia de los grupos.
Ejemplo del diseño con pos prueba Únicamente. Varios Grupos y uno de control
Un investigador lleva a cabo un experimento para analizar cómo influye el tipo de liderazgo del
supervisor en la productividad de los trabajadores.
Pregunta de investigación: ¿influye el tipo de liderazgo que ejerzan los supervisores de producción
en una maquiladora sobre la productividad de los trabajadores en línea?
Hipótesis de investigación: distintos tipos de liderazgo que ejerzan los supervisores tendrán
Noventa trabajadores de línea en una planta maquiladora son asignados al azar a tres condiciones
experimentales: 1) 30 realizan una tarea bajo el mando de un supervisor con rol autocrático, 2) 30
ejecutan la tarea bajo el mando de un supervisor con rol democrático y 3) 30 efectúan la tarea bajo
el mando de un supervisor con rollaissezjaire (que no supervisa directamente, no ejerce presión y es
permisivo)15 Por Ultimo, 30 más son asignados en forma aleatoria al grupo de control donde no
hay supervisor. En total, son 120 trabajadores.
OM
cables para vehículos automotores). Por lo tanto, habrá 12 grupos de trabajo repartidos en tres
tratamientos experimentales y un grupo de control. La tarea es la misma para todos y los
instrumentos de trabajo también, al igual que el ambiente físico (iluminación, temperatura, etc.).
Las instrucciones son uniformes.
.C
Este diseño incorpora la administración de pre pruebas a los grupos que componen el experimento.
Los sujetos se asignan al azar a los grupos, después a estos se les aplica simultáneamente la pre
prueba; un grupo recibe el tratamiento experimental y otro no (es el grupo de control); por Ultimo,
se les administra, también simultáneamente, una pos prueba.
DD
Ejemplo del diseño de preproeba-posproeba con grupo de control
Un investigador desea analizar el efecto de utilizar un DVD (o cualquier otro formato de video,
Analógico o digital) didáctico con canciones para ensenar hábitos higiénicos a los niños de cuatro a
cinco años de edad.
LA
Pregunta de investigación: los videos didácticos musicalizados son más efectivos para ensenar
hábitos higiénicos a los niños de cuatro a cinco años de edad, en comparación con otros métodos
tradicionales de enseñanza.
FI
Hipótesis de investigación: los videos didácticos constituyen un método más efectivo de enseñanza
de hábitos higiénicos a niños de cuatro a cinco años, que la explicación verbal y los libros impresos.
Hipótesis estadística: N, * N, * N3 * N,
(N = número de hábitos higiénicos aprendidos en promedio por cada grupo.)
R. 1. Solomon (1949) describió un diseño que era la mezcla de los dos anteriores (diseño con pos
prueba Únicamente y grupo de control más diseño de prepruebaposprueba con grupo de control).
La suma de estos dos diseños origina cuatro grupos: dos experimentales y dos de control, los
primeros reciben el mismo tratamiento experimental y los segundos no reciben tratamiento.
Solo a uno de los grupos experimentales y a uno de los grupos de control se les administra la pre
prueba; a los cuatro grupos se les aplica la pos prueba. Los participantes se asignan en forma
aleatoria.
Los tres diseños experimentales que se han comentado sirven más bien para analizar efectos
inmediatos o a corto plazo. En ocasiones el experimentador está interesado en analizar efectos en el
mediano o largo plazo, porque tiene bases para suponer que la influencia de la variable
independiente sobre la dependiente tarda en manifestarse. Por ejemplo, programas de difusión de
innovaciones, métodos educativos, modelos de entrenamiento o estrategias de las psicoterapias.
Asimismo, en otras situaciones se busca evaluar la evolución del efecto en el corto, mediano y largo
plazos (no solamente el resultado). También, en ocasiones la aplicación del estímulo por una sola
vez no tiene efectos (una dosis de un medicamento, un único programa televisivo, unos cuantos
OM
anuncios en la radio, etc.). En tales casos es conveniente adoptar diseños con varias pos pruebas, 0
bien con diversas pre pruebas y pos pruebas, con repetición del estímulo, con varios tratamientos
aplicados a un mismo grupo y otras condiciones. A estos diseños se les conoce como series
cronol6gicas experimentales.
Serie cronológica Diseño que efectúa a través del tiempo varias observación o mediciones
sobre una o más variables, sea o no experimental (véase capítulo 5 del CD anexo).
.C
"serie cronológica" se aplica a cualquier diseño que efectué a través del tiempo varias observaciones
o mediciones sobre una o más variables, sea o no experimental, 18 solo que en este caso se les
llama experimentales porque reúnen los requisitos para serlo.
DD
En estos diseños se pueden tener dos o más grupos y los participantes son asignados al azar.
experimental.
Existen diversos factores que llegan a amenazar la validez externa, los más comunes son los
siguientes:
Este factor se refiere a que se elijan personas con una o varias características que hagan que el
A veces este factor se presenta cuando se reclutan voluntarios para la realización de algunos
experimentos.
OM
La "artificialidad" de las condiciones puede hacer que el contexto experimental resulte atípico,
respecto a la manera en que se aplica regularmente el tratamiento (Campbell, 1975). Por ejemplo, a
causa de la presencia de observadores y equipo, los participantes llegan a cambiar su conducta
normal en la variable dependiente medida, la cual no se alteraría en una situación común donde se
aplicara el tratamiento. Por ello, el experimentador tiene que ingeniárselas para hacer que los
sujetos se olviden de que estan en un experimento y no se sientan observados. A esta fuente también
.C
se Ie conoce como "efecto Hawthorne", por una serie de experimentos muy famosos desarrollados -
entre 1924 y 1927- en una planta del mismo nombre de la Western Electric Company, donde al
variar las condiciones de iluminación se obtenían incrementos en la productividad de los
trabajadores, pero por igual al aumentar la luz que al disminuirla y, más bien, los cambios en la
DD
productividad se debieron a que los participantes se sentían atendidos (Ballantyne, 2000; Mayo,
1933).
Si se aplican varios tratamientos a un grupo experimental para conocer sus efectos por separado y
en conjunto (por ejemplo, en infantes enseñarles métodos higiénicos con un video, más una di·
n8.mica que implique juegos, más un libro explicativo); incluso, si los tratamientos no son de efecto
reversible, es decir, si no es posible borrar sus efectos, las conclusiones solamente podrán hacerse
extensivas a los infantes que experimenten la misma secuencia de tratamientos, sean múltiples o la
FI
Cuando los y las participantes reciben más de un estímulo, resulta complejo saber cuál de los
tratamientos o Combinaciones de estos logran el cambia en la{s) variable{s) dependiente(s.
Asimismo, puede presentarse la interferencia de tratamientos múltiples cuando diversos
Cuando los tratamientos son tan complejos que no pueden replicarse en situaciones no
experimentales. Es difícil generalizar estas.
Un nuevo tratamiento puede tener resultados positivos simplemente por ser percibido como
novedoso. O bien. Lo contrarios: tener un efecto negativo porque interrumpe las actividades
normales de los participantes. En este caso. Es recomendable inducir a los sujetos paulatinamente al
tratamiento (no de manera intempestiva) y esperar a que asimilen los cambios provocados por este.
8. El experimentador
Que también lo consideramos una fuente de invalidación interna. Puede generar alteraciones o
Cambios que no se presentan en situaciones no experimentales (Mertens. 2005). Es decir. Que el
tratamiento solamente tenga efecto con la intervención del experimentador.
OM
9. Interacción entre la historia o el lugar y los efectos del tratamiento experimental
.C
ocasiones los resultados del experimento no pueden generalizarse a otros lugares o ambientes.
Si se lleva a cabo una investigación en una escuela pública recientemente inaugurada y que cuenta
con los máximos avances tecnológicos educativos. ¿Podemos extrapolar los resultados a todas las
DD
escuelas públicas de la localidad? A veces el efecto del tratamiento lo tenemos que analizar en
distintos lugares y tiempos (Creswell. 2005).
experimentales).
Para lograr una mayor validez externa es conveniente tener grupos lo más parecidos posible a la
mayoría de las personas a quienes se desea generalizar, y repetir el experimento varias veces con
diferentes grupos (hasta donde el presupuesto y los costos de tiempo lo permitan). También, desde
luego, tratar de que el contexto experimental sea lo más similar al contexto que se pretende
generalizar. Por ejemplo, si se trata de métodos de enseñanza resultaría muy conveniente que se
usen aulas similares a las que normalmente utilizan los participantes y que las instrucciones las
proporcionen los maestros de siempre. Claro que a veces no es posible. Sin embargo, el
experimentador debe esforzarse para que quienes participan no sientan, o que sea lo menos posible,
que se está experimentando con ellos.
En la literatura sobre la investigación del comportamiento se distinguen dos contextos en los que
llega a tomar lugar un diseño experimental: laboratorio y campo. Así, se habla de experimentos de
Laboratorio y experimentos de campo. Kerlinger y Lee (2002) definen al experimento de
Laboratorio como:
Un estudio de investigación en el que la varianza [efecto de todas, o de casi todas, las posibles
Debido a que analizan las relaciones entre una o más variables independientes y una o más
dependientes, asi como los efectos causales de las primeras sobre las segundas, son estudios
explicativos (que obviamente determinan correlaciones). Se trata de diseños que se fundamentan en
OM
el enfoque cuantitativo y en el paradigma deductivo. Se basan en hipótesis preestablecidas, miden
variables y su aplicación debe sujetarse al diseño preconcebido; al desarrollarse, el investigador está
centrado en la validez, el rigor y el control de la situación de investigación. Asimismo, el análisis
estadístico resulta fundamental para lograr los objetivos de conocimiento.
emparejamiento.
.C
Como ya se comentó, otra técnica para hacer inicialmente equivalentes a los grupos es el
Desde luego, este método es menos preciso que la asignación al azar. Sin embargo, si se lleva a
DD
cabo con rigor, se tienen grupos grandes y se obtiene información que indica que los grupos no son
diferentes (por ejemplo, en un experimento sobre métodos de enseñanza, antes de comenzarlo
valdría la pena comparar, entre los grupos emparejados, las puntuaciones obtenidas en cursos
recientes), es posible lograr un alto grado de equivalencia inicial entre grupos. Así, los
diseños se representan con una "E" de emparejamiento, en lugar de la "R" (asignación aleatoria o al
LA
azar).
Los diseños cuasi experimentales también manipulan deliberadamente, al menos, una variable
independiente para observar su efecto y relación con una o más variables dependientes, solo que
difieren de los experimentos "puros" en el grado de seguridad o confiabilidad que pueda tenerse
sobre la equivalencia inicial de los grupos. En los diseños cuasiexperimentales los sujetos no se
asignan al azar a los grupos ni se emparejan, sino que dichos grupos ya están formados antes del
experimento: son grupos intactos (Ia razón por la que surgen y la manera como se formaron es
independiente o aparte del experimento).
Pasos de un experimento
OM
Los sujetos deben encontrar motivante su participación en el experimento. Por lo tanto, resulta muy
conveniente darles algún regalo atractivo (a veces simbólico). Por ejemplo, a amas de casa, una
canasta de productos básicos; a ejecutivos o gerentes, una canasta con dos o tres artículos; a
estudiantes, créditos escolares, etc., además de expedirles una carta de agradecimiento. A veces
resulta adecuado que quienes traten con los sujetos participantes sean personas que les resulten
atractivas (si son hombres, un grupo de muchachas bonitas sería muy efectivo para reclutar a los
.C
sujetos en el experimento)."
Paso 9: Aplicar las pre pruebas (cuando las haya), los tratamientos respectivos (cuando no se trate
de grupos de control) y las pos pruebas.
Asimismo, resulta conveniente tomar nota del desarrollo del experimento, llevar una bitácora
minuciosa de todo lo ocurrido a lo largo de este. Ello nos ayuda a analizar la posible influencia de
variables extrañas que generan diferencias entre los grupos y será un material invaluable para la
FI
Diseños no experimentales
Podría definirse como la investigación que se realiza sin manipular deliberadamente variables.
Es decir, se trata de estudios donde no hacemos variar en forma intencional las variables
independientes para ver su efecto sobre otras variables. Lo que hacemos en la investigación no
experimental es observar fenómenos tal como se dan en su contexto natural, para después
analizarlos. Como señalan Kerlinger y Lee (2002): "En la investigación no experimental no es
posible manipular las variables 0 asignar aleatoriamente a los participantes o los tratamientos". De
hecho, no hay condiciones o estímulos planeados que se administren a los participantes del estudio.
En un experimento, el investigador construye deliberadamente una situación a la que son expuestos
varios individuos. Esta situación consiste en recibir un tratamiento, una condición o un estímulo
bajo determinadas circunstancias, para después evaluar los efectos de la exposición o aplicación de
dicho tratamiento 0 tal condición. Por decirlo de alguna manera, en un experimento se "construye"
una realidad.
En cambio, en un estudio no experimental no se construye ninguna situación, sino que se observan
Investigación no experimental
Estudios que se realizan sin la manipulación deliberada de variables y en los que solo se observan el
control directo sobre dichas variables ni se puede influir sobre ellas, porque ya sucedieron, al igual
que sus efectos.
OM
consumir una bebida que afecta gravemente la salud. EI ejemplo es solo para ilustrar lo expuesto y
quizá aparezca un tanto burdo, pero es ilustrativo no provocadas intencionalmente en la
investigación por quien la fenómenos en su realiza. En la investigación no experimental las
variables independientes ocurren y no es posible manipularlas, no se tiene
.C
Características inherentes de personas u objetos que son complejas de manipular.
Características que no pueden ser manipuladas por razones éticas.
Características que no es posible manipular.
DD
Ejemplos
Distintos autores han adoptado diversos criterios para clasificar la investigación no experimental.
Sin embargo, en este libro consideramos la siguiente manera de clasificar dicha investigación: por
su dimensión temporal o el número de momentos o puntos en el tiempo, en los cuales se recolectan
datos.
Puede abarcar varios grupos o subgrupos de personas, objetos o indicadores, así como diferentes
comunidades, situaciones o eventos. Por ejemplo, medir los niveles de aprovechamiento de grupos
de primero, segundo y tercer amos de instrucción básica o primaria. Pero siempre, la recolección de
los datos ocurre en un momento único.
OM
A su vez, los diseños transeccionales se dividen en tres: exploratorios, descriptivos y
correlacionales-causales.
.C
exploración inicial en un momento específico. Por lo general, se aplican a problemas de
investigación nuevos o poco conocidos; además, constituyen el preámbulo de otros diseños.
Son, por lo tanto, estudios puramente descriptivos y cuando establecen hipótesis, éstas son también
descriptivas.
un grupo).
Estos diseños describen relaciones entre dos o más categorías, conceptos o variables en un
Estos diseños pueden ser sumamente complejos y abarcar diversas categorías, conceptos o
variables. Cuando establecen relaciones causales son explicativos. Su diferencia con los
experimentos es la base de la distinción entre experimentación y no experimentación. En los
diseños transeccionales correlacionales- causales, las causas y los efectos ya ocurrieron en la
realidad (estaban dados y manifestados) o están ocurriendo durante el desarrollo del estudio, y
OM
evalúa la estructura causal completa.
Encuestas de opinión
.C
Las encuestas de opinión (surveys) son consideradas por diversos autores como un diseño. En
nuestra clasificación serian investigaciones no experimentales transversales o transeccionales
descriptivas o correlacionales-causales, ya que a veces tienen los propósitos de unos u otros diseños
DD
y a veces de ambos. Generalmente utilizan cuestionarios que se aplican en diferentes contextos.
Los diseños longitudinales, los cuales recolectan datos a través del tiempo en puntos o periodos,
LA
Los diseños longitudinales suelen dividirse en tres tipos: diseños de tendencia, diseños de análisis
evolutivo de grupos y diseños panel.
FI
Los diseños de tendencia (trend) son aquellos que analizan cambios a través del tiempo (en
categorías, conceptos, variables o sus relaciones) , dentro de alguna población en general. Su
característica distintiva es que la atención se centra en una población.
Con los diseños de evolución de grupo o cohortes se examinan cambios a través del tiempo en
subpoblaciones o grupos específicos. Su atención son las cohorts o grupos de individuos vinculados
de alguna manera o identificados por una característica común, generalmente la edad o la época
(Glenn, 1977).
Los diseños panel son similares a las dos clases de diseños vistos anteriormente, sólo que el mismo
grupo de participantes es medido u observado en todos los tiempos o momentos.
Diseños panel: Toda una población o grupo es seguido a través del tiempo.
En los diseños panel se tiene la ventaja de que, además de conocer los cambios grupales, se conocen
los cambios individuales. Se sabe qué casos específicos introducen el cambio. La des ventaja es que
a veces resulta muy difícil obtener con exactitud a los mismos sujetos para una segunda medición u
observaciones subsecuentes. Este tipo de diseños sirve para estudiar poblaciones o grupos más
específicos y es conveniente cuando se tienen poblaciones relativamente estáticas.
OM
¿Cuáles son las características de la investigación no experimental en comparación con la
investigación experimental?
Una vez más enfatizamos que tanto la investigación experimental como la no experimental son
herramientas muy valiosas y ningún tipo es mejor que el otro. El diseño a seleccionar en una
investigación depende más bien del problema a resolver y del contexto que rodea al estudio. Desde
luego, ambos tipos de investigación poseen características propias que es necesario resaltar.
.C
El control sobre las variables es más riguroso en los experimentos que en los diseños cuasi
experimentales y; a su vez, ambos tipos de investigación logran mayor control que los diseños no
experimentales.
DD
En un experimento se analizan relaciones ‘puras" entre las variables de interés, sin contaminación
de otras variables y, por ello, es posible establecer relaciones causales con mayor precisión.
Ahora bien, como menciona Kerlinger (1979), en los experimentos las variables independientes
pocas veces tienen tanta fuerza como en la realidad o la cotidianidad. Es decir, en el laboratorio
tales variables no muestran la verdadera magnitud de sus efectos, la cual suele ser mayor fuera del
LA
laboratorio. Por lo tanto, si se encuentra un efecto en el laboratorio, éste tenderá a ser mayor en la
realidad.
Una desventaja de los experimentos es que normalmente se selecciona un número de personas poco
o medianamente representativo respecto a las poblaciones que se estudian. La mayoría de los
experimentos utilizan muestras no mayores de 200 personas, lo que dificulta la generalización de
resultados a poblaciones más amplias. Por tal razón, los resultados de un experimento deben
observarse con precaución y es por medio de la réplica de éste como van generalizándose dichos
resultados.
Los estudios de caso son considerados por algunos autores y autores como una clase de diseños, a la
par de los experimentales, no experimentales y cualitativos (por ejemplo: Mertens, 2005 y
Vi1liams, Grinnell y Unrau, 2005), mientras que otros(as) los ubican como una clase de diseño
experimental (v. gr., León y Montero, 2003) o un diseño etnográfico (Creswell, 2005). También han
sido concebidos como un asunto de muestreo (Hernández, Fernández y Baptista, 2003) o un método
(Yin, 2003).
La realidad es que los estudios de caso son todo lo anterior. Poseen sus propios procedimientos y
clases de diseños. Los podríamos definir como “estudios que al utilizar los procesos de
OM
Capitulo 8- sampieri
Selección de la muestra
Selección de la muestra. Sampieri
.C
No siempre en una investigación tenemos una muestra, pero en la mayoría de las situaciones sí.
DD
Lo primero ¿sobre qué o quienes se recolectarán datos?
El interés se centra en los sujetos, objetos, sucesos o comunidades de estudios (las unidades de análisis), lo
cual depende del planteamiento de la investigación.
LA
Para seleccionar una muestra, lo primero que debemos definir es la unidad de análisis (personas,
organizaciones, etc.). El sobre que o quienes se van a recolectar datos depende del planteamiento del
problema de investigación y de los alcances del estudio.
investigador pretende que los resultados encontrados en la muestra logren generalizarse o extrapolarse a la
población. El interés es que la muestra sea estadísticamente representativa.
Una vez definido cuál será la unidad de análisis, se procede a delimitar a la población que va a ser estudiada.
Una población es el conjunto de todos los casos que concuerdan con una serie d especificaciones, las cuales
deben ser establecidas con claridad. La delimitación no solo depende de los objetivos del estudio, sino de
otras razones prácticas, ya que no será mejor tener una población más grande.
Tipos de muestra- Categorizamos las muestras en dos grandes ramas: las no probabilísticas y las
probabilísticas. En estas últimas todos los elementos de la población tienen la misma posibilidad de ser
escogidos y se obtienen definiendo las características de la población y el tamaño de la muestra, y por medio
de una selección aleatoria o mecánica de las unidades de análisis.
Las probabilísticas son esenciales en los diseños de investigación transeccionales, tanto descriptivos como
correlacionales causales, donde se pretende hacer estimaciones de variables en la población. Estas variables
se miden y analizan con pruebas estadísticas en una muestra, donde se presupone que ésta es probabilística y
OM
todos los elementos de la población tienen la misma probabilidad de ser elegidos. Las unidades o elementos
muestrales tendrán valores muy parecido a los de la población, las mediciones aquí nos darán estimaciones
precisas del con junto mayor. La precisión depende del error de muestreo, el cual es posible calcular.
Muestra probabilística estratificada- A veces el interés del investigador es comparar resultados entre
segmentos, grupos o nichos de población, porque así lo señala el planteamiento del problema. La
estratificación aumenta la precisión de la muestra e implica el uso deliberado de diferente tamaño de muestra
.C
para cada estrato, a fin de lograr reducir la varianza de cada unidad de la media muestral.
población a partir de un intervalo. Este intervalo se determina por el tamaño de la población y de la muestra.
El marco muestral constituye un marco de referencia que nos permite identificar físicamente los elementos
de la población, la posibilidad de enumerarlos y de proceder a la selección de los elementos muestrales.
FI
Normalmente, se trata de un listado existente o una lista que es necesario confeccionar ad hoc con los casos
de la población.
Los listados existentes sobre una población son variados: guía de teléfonos, lisat de miembros de una
asociación, direcciones, listas oficiales de escuela, etc.
Muestra por racimos implica diferenciar la unidad de análisis y la unidad muestral. La unidad de análisis
indica quienes van a ser medidos. La unidad muestral se refiere al racimo por medio del cual se logra el
acceso a la unidad de análisis. El muestreo por racimos supone una selección de dos etapas: en la primera se
seleccionan los racimos, en la segunda, y dentro de los racimos, se selecciona a los sujetos u objetos que van
a medirse. Para ello, se hace una selección que asegure que todos los elementos del racimo tienen la misma
probabilidad de ser elegidos.
La única ventaja de una muestra no probabilística, desde lo cuantitativo, es su utilidad para determinado
diseño de estudio que no requiere una representatividad, sino una cuidadosa y controlada elección de sujetos
con ciertas características previamente planteadas en el problema
Algunos procedimientos para una muestra aleatoria simple son los siguientes:
Muestreo al azar por marcado telefónico: se involucra un área geográfica y sus correspondientes números
OM
telefónicos que luego son seleccionados al azar.
Muestra multietapas o polietápica: significa que para extraer la muestra se han utilizado diversos
procedimientos (estratos y racimos, etc).
.C
CAPITULO 6- Recolección de datos, medición y
análisis de datos, Recolección de datos
DD
cuantitativos
LA
La medición es el proceso de vincular conceptos abstractos con indicadores empíricos, el cual se realiza
mediante un plan explícito y organizado para clasificar los datos disponibles. En este proceso, el instrumento
de recolección de datos tiene un papel central.
FI
Un instrumento de medición adecuado es aquel que registra datos observables que representan
verdaderamente los conceptos o las variables que le investigador tiene en mente, o sea, la realidad que se
desea capturar.
En toda investigación cuantitativa, aplicamos un instrumento para medir las variables contenidas en la
hipótesis.
Confiabilidad
La confiabilidad de un instrumento se refiere al grado en que su aplicación repetida al mismo sujeto u objeto
produce resultados iguales. La confiabilidad se determina mediante diversas técnicas.
La validez
Se refiere al grado en que un instrumento realmente mide la variable que pretende medir.
La validez es un concepto del cual pueden tenerse diferentes tipos de evidencia:
Evidencia relacionada con el contenido: se refiere al grado en que un instrumento refleja un dominio
específico de contenido de lo que se mide. Es el grado en el que la medición representa al concepto o
variable medida.
Evidencia relacionada con el constructo: se refiere a que tan exitosamente un instrumento representa y
mide un concepto teórico. A esta validez le concierne en particular el resultado del instrumento, eso es, que
está midiendo y como opera para medirlo. Se incluyen tres etapas
o Se establece y especifica la relación teórica entre los conceptos (sobre la base del marco teórico)
o Se correlacionan los conceptos y se analiza cuidadosamente la correlación
OM
o Se interpreta la evidencia empírica de acuerdo con el nivel en el que clarifica la validez de constructo de
una medición en particular.
Autores consideran también la validez de expertos, la cual se refiere al grado en que aparentemente un
instrumento de medición mide la variable en cuestión, de acuerdo con un grupo de “voces calificadas”. Es
una evaluación del instrumento ante expertos.
.C
La validez total
La validez de un instrumento de medición se evalúa sobre la base de todos los tipos de evidencia. Cuanto
mayor evidencia de validez de contenido, criterio y constructo, este se acercará más a representar las
DD
variables que pretende medir.
Relación entre confiabilidad y validez
Un instrumento puede ser confiable pero no necesariamente válido, es por ello que el instrumento demuestre
ser ambas cosas, de no ser así, los resultados de la investigación son poco serios.
Factores que pueden afectar la confiabilidad y validez son:
LA
Improvisación: elegir un instrumento o crear uno no es algo que se puede tomar a la ligera
A veces se utilizan instrumentos desarrollados en el extranjero que no han sido validados para nuestro
contexto: cultura y tiempo
El instrumento resulta inadecuado para las personas a quienes se aplica: no es empático (lenguaje difícil,
no tomar en cuenta sexo, edad, etc)
Otro factor agrupa cuestiones vinculadas con los estilos personajes de los suejtos participantes tales como:
FI
deseabilidad social (tratar de dar una impresión favorable), tendencia a asentir con respecto a todo lo que se
pregunta, dar respuestas inusuales o contestar siempre negativamente.
Condiciones en las que se aplica el instrumento de medición (ruido, iluminación, etc)
La falta de estandarización (las instrucciones no son las mismas para todos los participantes)
Aspectos mecánicos (por ejemplo que no sea legible si es escrito).
Con respecto a la validez de constructo, dos factores pueden afectarlo significativamente: la estrechez del
contenido, es decir, que se excluyan dimensiones importantes de la variable o las variables medidas, y la
amplitud exagerada, donde el riesgo es que le instrumento contenga excesiva intrusión de otros constructos.
La objetividad- Se refiere al grado en que éste sea permeable a la influencia y tendencias del investigador
que lo administra, califica o interpreta. En este sentido, los aparatos y sistemas calibrados son más objetivos
que otros que requieren interpretación.
En la práctica es casi imposible que una medición sea perfecta, generalmente tiene un grado de error, lo cual
se intenta que sea mínimo. Cuanto mayor sea el error, más se aleja nuestra medición de la realidad.
Cálculo de la confiabilidad
Existen diversos procedimientos para calcularla, todos producen coeficientes de confiabilidad que oscilan
entre 0 y 1, con 0 mala confiabilidad y una representa el máximo de confiabilidad. Los procedimientos más
utilizados son:
Medida de estabilidad (confiabilidad por test-retest): un mismo instrumento se aplica dos o más veces a un
mismo grupo de personas después de un cierto período. Si la correlación entre los resultados es altamente
positiva, el instrumento se considera confiable
OM
Métodos de formas alternativas o paralelas: en este procedimiento no se administra el mismo instrumento
de medición, sino dos o más equivalentes de éste. Casi siempre se administran en un mismo grupo
simultáneamente o en un período de tiempo corto. El instrumento es confiable si la correlación es positiva.
Método de mitades partidas (Split-halves): necesita solo una aplicación de la medición. Específicamente el
conjunto total de ítems o reactivos se divide en dos mitades equivalentes y se comparan las puntuaciones por
.C
separado de ambas. Si el instrumento es confiable, las puntuaciones de ambas mitades deben estar muy
correlacionadas.
Medidas de consistencia interna: son coeficientes que estiman la confiabilidad: el alfa de Cronbach, los
DD
coeficientes KF-20 y KR-21 de Kruder y Richardson. El método de cálculo requiere una sola aplicación del
instrumento de medición. Su ventaja es uqe no se necesita dividir en dos mitades a los ítems del instrumento,
simplemente se aplica la medición y se calcula el coeficiente.
Cálculo de validez- Primero es necesario revisar cómo ha sido medida la variable por otros investigadores.
Con base en dicha revisión, elaborar un universo de ítems posibles para medir la variable y sus dimensiones
LA
(lo más exhaustivo posible). Después se consulta a investigadores familiarizados con la variable para ver si el
universo es realmente exhaustivo. Se seleccionan los ítems bajo una cuidadosa evaluación, uno por uno. Y si
la variable está compuesta por diversas dimensiones, se extrae una muestra probabilística de reactivos, ya sea
al azar o estratificada. Se administran los ítems, se correlacionan las puntuaciones de estos entre si y se hacen
estimaciones estadísticas para ver si la muestra es representativa. Para calcular la validez de contenidos es
necesario varios coeficientes. Este sería un procedimiento ideal, pero a veces ni se calculan los coeficientes
FI
La validez de criterio se estima al correlacionar la medición con el criterio externo, y este coeficiente se
coma como coeficiente de validez.
Al evaluar instrumentos utilizados previamente, conviene identificar el propósito del instrumento tal como
fue concebido, y analizar si su propósito es similar al nuestro. Ademas, se recomienda considerar los
siguientes elementos:
Es simultánea a la anterior y se refiere a la definición del dominio de las variables que habemos de medir,
OM
fundamentándonos en la revisión de otros instrumentos. Es decir, señalar con precisión los componentes,
dimensiones y factores que teóricamente integran la variable.
Una vez evaluados varios instrumentos, es necesario tomar una serie decisiones fundamentales que
agrupamos en tres rubros
.C
1) Utilizar un instrumento de medición ya elaborado, adaptarlo o desarrollar uno nuevo
2) Resolver el tipo de instrumento y formato
3) Determinar el contexto de la administración
DD
Fase 5: construcción del instrumento Implica la generación de todos los ítems o reactivos y categorías del
instrumento. Esta construcción depende del tipo de instrumento y formato. Al final de esta etapa, el producto
es una primera versión del instrumento. Algo muy importante es ver cómo vamos a registrar sus datos y su
codificación:
Codificación significa asignarles un valor numérico o símbolo que los represente. Es decir, a las categorías
LA
de cada ítem se les asignan valores números o signos que tienen un significado. Por ejemplo sexo puede ser
masculino = 1 y femenino = 2.
Es muy importante indicar el nivel de medición de cada ítem, y por ende, el de las variables, porque es parte
de la codificación y debido a que dependiendo de dicho nivel se seleccionan uno u otro tipo de análisis
estadístico.
FI
1) Nominal: en este nivel hay dos o más categorías del ítem o variables. Las categorías no tienen ni orden ni
jerarquía, lo que se mide se coloca en una u otra categoría. Por ejemplo, en género se poseen dos categorías:
2) Ordinal: hay varias categorías, pero además mantienen un orden de mayor a menor, o sea, hay jerarquía.
Un ejemplo seria (presidente 10, vicepresidente 9, director general 8, etc.)
3) Por intervalos: además del orden o la jerarquía, se establecen intervalos iguales de medición. Las
distancias entre categorías son las mismas a lo largo de toda escala, por lo que hay un intervalo constante,
una unidad de medida. Por ejemplo, un conjunto de personas que resolvió ejercicios matemáticos de una
prueba, la distancia entre cada persona son los ejercicios que resolvieron (a fueron 5, b 10, c 15).
4) De razón: además de tener todas las características del nivel de intervalos, el cero es real y es absoluto.
Cero absoluto implica un punto en la escala donde esta ausente o no existe la propiedad medida. Ej: rating.
Fase 6: prueba piloto- Consiste en administrar el instrumento a personas con características semejantes a las
de la muestra objetivo de la investigación. Se somete a prueba no solo el instrumento de medición, sino
OM
d) La calendarización y tiempos del estudio
e) La confidencialidad
f) La manera como deben vestirse si van a tener contacto con los participantes
g) Respeto y sensibilidad a los participantes
h) No discutir ni molestarse con los participantes
i) Establecimientos de confianza
j) Uso de gafetes identificadores
.C
k) El instrumento de medición y condiciones de administración.
El entrenamiento puede llevarse a cabo en una o varias sesiones, según el caso.
Fase 9: autorizaciones
DD
Es necesario gestionar autorizaciones antes de recolectar los datos. En primer término, por parte de los
representantes de las organizaciones a las cuales pertenecen los participantes. Para este fin conviene producir
una breve presentación del estudio.
En segundo término, es conveniente obtener el consentimiento de los mismos participantes, particularmente
por un medio escrito.
LA
Dependerá del tipo de instrumento que hayamos seleccionado y la experticia de todo el equipo.
¿De qué tipos de instrumentos de medición o recolección de datos cuantitativos disponemos en la
investigación?
FI
Consisten en un conjunto de preguntas respecto de una o más variables a medir. Las preguntas pueden ser
cerradas o abiertas.
Las preguntas cerradas contienen categorías u opciones de respuesta que han sido previamente delimitadas.
Los participantes deben acotarse a éstas.
Las categorías de la respuesta son definidas a priori por el investigador. En algunas preguntas, se puede
seleccionar hasta más de una opción.
Las preguntas abiertas no delimitan de antemano las alternativas de respuesta, por lo cual el número de
categorías de respuesta es muy elevado (infinito en teoría). Nos dan información más amplia y son útiles
cuando no sabemos de antemano cual puede ser la respuesta del entrevistado, pero su mayor desventaja es
que son más difíciles de codificar.
En algunas ocasiones, basta solo una pregunta para medir lo que queremos, pero es necesario hacer solo
Hay una serie de características que debe tener la pregunta, indistintamente de si es abierta o cerrada:
Deben ser claras, precisas y comprensibles para los sujetos
Es aconsejable que las preguntas sean lo más breve posibles, sin sacrificar claridad.
Deben formularse en un vocabulario simple, directo y familiar
No pueden incomodar al sujeto encuestado, ni ser percibidas amenazantes y nunca el entrevistado debe
sentir que se lo enjuicia.
Las preguntas deben referirse a un solo aspecto o una relación lógica.
Las preguntas no deben inducir las respuestas.
Las preguntas no pueden apoyarse en instituciones, respaldadas socialmente o en evidencia comprobada,
ya que es una forma de inducir respuestas.
OM
Es aconsejable evitar preguntas que nieguen el asunto que interroga.
No deben hacerse preguntas racistas o sexistas
En las preguntas con varias categorías de respuesta, y donde el sujeto solo tiene que elegir una, puede
ocurrir que el orden de las opciones pueda afectar las respuestas, por esto, resulta conveniente rotar el orden
de lectura de las respuestas a elegir de manera proporcional
En algunos casos es conveniente iniciar el cuestionario con preguntas neutrales o fáciles de contestar, para
dejar que el sujeto entre en la situación. Se deberá ir de las más generales a las más específicas, al estilo
“embudo”. Las preguntas importantes nunca deben ir al final.
.C
Además de las preguntas o categorías, un cuestionario esta formado básicamente por
Portada: caratula con el nombre del cuestionario, logo, etc
Introducción: debe incluir el propósito, motivaciones, agradecimiento, tiempo aproximado de respuesta
(un promedio o rango) lo suficientemente abierto para no presionar al sujeto, espacio para que firme o
DD
exprese consentimiento, identificación de quienes lo aplican, explicación breve de cómo se procesaran los
cuestionarios y las cláusulas de confidencialidad, instrucciones iniciales, entre otros.
Agradecimiento final
Formato, distribución de instrucciones, preguntas y categorías
No existe una regla al respecto sobre el tamaño del cuestionario, pero si es corto se pierde información y si es
LA
largo resulta tedioso, dando lugar a que las personas hasta se nieguen a responder o que lo hagan de forma
incompleta. Una recomendación es no hacer preguntas innecesarias.
Esto se hace una vez que conocemos todas las respuestas de los sujetos, o al menos las principales tendencias
de una muestra. De esta forma se obtienen ciertas categorías que representan los resultados finales.
El procedimiento consiste en encontrar y darles nombre a los patrones generales de respuesta, listar esos
patrones y después asignar un valor numérico o símbolo a cada uno. Así, un patrón constituirá una categoría
de respuesta. Se sugiere el siguiente procedimiento:
1. Seleccionar determinado número de cuestionarios mediante un método adecuado de muestreo que asegure
representatividad
2. Observar la frecuencia con que aparece cada respuesta a determinadas preguntas
3. Elegir las respuestas que se presentan con mayor frecuencia
4. Clasificar las respuestas elegidas en temas, aspectos o rubros, de acuerdo a un criterio lógico, cuidando
que sean mutuamente excluyentes
5. Darles un nombre o título a cada tema, aspecto o rubro
6. Asignarles el código a cada patrón general de respuesta
Se aplican de dos maneras fundamentales: auto administrado y por entrevista (personal o telefónica).
1. Auto administrado
Significa que el cuestionario se proporciona directamente a los participantes, quienes lo contestan. No hay
Una ventaja de estos estudios es cuando se hacen preguntas personales o con mayor carga emotiva, el sujeto
puede contestar de manera más relajada y sincera, puesto que no tiene a nadie enfrente. Una desventaja es
que no estamos seguros de quien contestó el cuestionario.
2. Por entrevista personal- Implican que una persona calificada aplique el cuestionario a los participantes, y
también anota las respuestas.
Normalmente se tiene a varios entrevistadores entrenados, quienes no deberán influir en las respuestas. Su
OM
propósito es que se culmine cada entrevista con éxito, sin que decaiga el interés del participante ni la
atención. Los entrevistadores solo orientan, y deben transmitir que no hay respuestas correctas o incorrectas.
Con respecto a las instrucciones del cuestionario, algunas son para el entrevistado y otras para el
entrevistador. Al comienzo debe comentarse el propósito general del estudio, las motivaciones y el tiempo de
respuesta, agradeciendo de antemano la colaboración.
3. Por entrevista telefónica- La diferencia con la anterior es el medio de comunicación. Son la forma más
.C
rápida de realizar una encuesta, así como la más económica.
Las habilidades del entrevistador son parecidas al punto anterior, excepto que estos no tienen que confrontar
cara a cara. El nivel de rechazo suele ser menor que ante un entrevistador enfrente.
DD
Una gran ventaja es que se puede acceder a sitios inseguros asi como a lugares geográficamente complejos.
Una desventaja es que están limitadas a unas cuantas preguntas, evitando hacer mediciones complejas.
Escalas para medir las actitudes- Una actitud es una predisposición aprendida para responder coherentemente
de una manera favorable o desfavorable ante un objeto, ser vivo, actividad, concepto persona o sus símbolos.
Las actitudes están relacionadas con el comportamiento que matenemos en torno a los objetos que hacen
LA
referencia.
Las actitudes tienen diversas propiedades, entre las que se destacan: dirección e intensidad, estas propiedades
forman parte de la medición.
A continuación se verán algunos métodos para medir por escalas las variables que constituyen actitudes
FI
objeto de actitud que se está midiendo. El objeto de actitud puede ser cualquier cosa física, un individuo, un
concepto o símbolo, una marca, una actividad, etc.
Las afirmaciones pueden tener una dirección: favorable o positiva y desfavorable o negativa. Y esta
dirección es importante para saber cómo se codifican las alternativas de respuesta. Si la afirmación es
positiva, significa que califica favorablemente al objeto de actitud, de este modo, cuanto más de acuerdo con
la afirmación estén los participantes, su actitud será igualmente más favorable.
Las puntuaciones de la escala de Likert se obtienen sumando los valores alcanzados respuesta de cada frase.
Por ello se denomina escala aditiva.
A veces se disminuye o se incrementa el número de categorías, sobre todo cuando los sujetos potenciales
Se construye con un elevado número de afirmaciones que califiquen al objeto de actitud y se administran a
un grupo piloto para obtener las puntuaciones del grupo en cada afirmación. Estas afirmaciones se
correlacionan con las del grupo a toda la escala, y las afirmaciones, cuyas puntuaciones se correlacionan
significativamente con las puntuaciones de toda la escala, se seleccionan para integrar el instrumento de
medición. Debe calcularse confiabilidad y validez de la escala.
Existen dos formas básicas de aplicar la escala de LIkert. La primera es auto administrada, y la segunda es la
entrevista.
OM
Al construir la escala, debemos asegurarnos de que las afirmaciones y alternativas de respuesta sean
comprendidas por los sujetos a los que se le aplicará y que estos tendrán la capacidad de discriminación
requerida. Ello se evaluará en la prueba piloto.
Análisis de contenido
Es una técnica que para estudiar y analizar la comunicación de una manera objetiva, sistemática y
.C
cuantitativa. Krippendorff extiende esta definición a un método de investigación para hacer inferencias
válidas y confiables de datos con respecto a su contexto.
Resulta una técnica muy útil para analizar los procesos de comunicación en muy diversos contextos. Puede
DD
aplicarse a cualquier forma de comunicación.
Barelson señala varios usos de este análisis de contenido, entre los que se destacan:
Describir tendencias en el contenido de la comunicación
Develar diferencias en el contenido de la comunicación
Comparar mensajes, niveles y medios de comunicación
LA
En análisis se efectúa por medio de la codificación, es decir, el proceso en virtud del cual las características
relevantes del contenido de un mensaje se transforman en unidades que permiten su descripción y análisis
precisos. Lo importante del mensaje se convierte en algo susceptible de describir y analizar. Para hacerlo es
necesario definir el universo, unidades de análisis y categoría de análisis.
Universo - El universo pueden ser las obras de un autor, un noticiero, un diario, canciones de una banda, etc.
Este universo debe delimitarse con precisión. Algunos autores hablan del universo como el contexto de la
unidad, el cuerpo más largo del contenido que puede examinarse al caracterizar una o más unidades de
registro.
Unidades de análisis- Se mencionan 5 unidades importantes de análisis
La palabra
Las unidades se insertan, colocan o caracterizan en categorías y/o subcategorías. Al cuestionarse sobre que
unidades debe seleccionarse, esto depende de los objetivos o preguntas de la investigación. Barelson sugiere:
En un solo estudio es posible utilizar más de una unidad de análisis
Los cálculos de palabras y las unidades amplias, como el ítem y las medidas de espacio tiempo son más
adecuados en los análisis que dan mayor importancia a los asuntos definidos
Las unidades amplias y las más definidas son válidas para la aceptación o rechazo de una categoría
Las unidades amplias generalmente requieren de menos tiempo para su codificación que las unidades
pequeñas
OM
Debido a que los temas o las oraciones agregar otra dimensión al asunto, la mayoría de las veces son más
difíciles de analizar que las palabras y las unidades amplias
El tema es adecuado para el análisis de significados y las relaciones entre éstos.
Categorías- Son los niveles donde serán caracterizadas las unidades de análisis. Son las casillas o cajones en
las cuales las unidades de análisis. Se definen como características o aspectos que presenta la comunicación
con la que estamos trabajando.
.C
Cada unidad de análisis se categoriza o encasilla en una o más sistemas de categorías. La selección de
categorías dependerá del planteamiento del problema.
Se suelen tener varios tipos de categorías que deben cumplir con los siguientes requisitos:
Deben ser exhaustivas (categorías y subcategorías)
Las subcategorías deben ser de preferencia mutuamente excluyentes
Categorías y subcategorías deben derivarse del marco teórico y de una profunda evaluación de la situación
Codificación
FI
Será necesario elaborar las hojas de codificación. Estas hojas contienen las categorías y subcategorías, y los
codificadores anotan en ellas cada vez que una unidad entre en una subcategoría.
Estas hojas de codificación pueden incluir elementos más precisos para describir el material (si se analiza el
diario, incluir datos para identificar el diario, fecha, etc). Una hoja puede servir para una o varias unidades.
Las categorías y subcategorías deben codificarse con sus respectivos valores numéricos. Se deberá
proporcionar entrenamiento a codificadores, para que se familiaricen con las variables, etc. Asimismo, deben
comprender en que consiste en forma cabal cada unidad de análisis.
Parte del entrenamiento será realizar una prueba piloto, así podremos descubrir categorías y/o subcategorías
no contempladas previamente, así como también nos sirve para evaluar a los codificadores.
Será necesario calcular la confiabilidad de los codificadores: todos los codificadores realizan análisis de
contenido provisional de una parte representativa del material, con la finalidad de determinar el grado de
acuerdo entre ellos. Si no hay consenso no puede efectuarse una evaluación confiable de la muestra. Se
calculara la confiabilidad de cada codificador (individual) y la confiabilidad entre codificadores.
OM
5. Establecer y definir las categorías y subcategorías de observación
6. Diseñar la manera de registrar las observaciones
7. Determinar el papel de los observadores
8. Seleccionar a los observadores codificadores
9. Proporcionar entrenamiento a observadores codificadores
10. Efectuar la prueba piloto y calcular la confiabilidad de los observadores
.C
Ventajas de la observación
Una vez recolectados los datos, deben codificarse de la forma que ya comentamos antes, de lo contrario no
se podrán efectuar análisis.
1. Establecer los códigos de las categorías o alternativas de respuesta de los ítems o preguntas y las
categorías y subcategorías de contenido u observación no precodificadas
2. Elaborar el libro de códigos
3. Efectuar físicamente la codificación
4. Grabar y guardar los datos y su codificación en un archivo permanente.
Se pueden utilizar más de un tipo de instrumento de recolección de datos
Hay numerosos tipos de investigaciones cuantitativas que resultan de la aplicación de uno o más criterios de
clasificación. Según el objetivo, pueden clasificarse en descriptivas y en explicativas. Según el tiempo se
distinguen las investigaciones sincrónicas o transversales, que se refieren al objeto de investigación en un
mismo período de tiempo, y las investigaciones diacrónicas o longitudinales, en las cuales los individuos se
analizan durante un cierto tiempo, de manera más o menos continua. A este tipo pertenecen los estudios de
OM
cohortes constituidas por personas que tienen uno o más rasgos comunes, los estudios de paneles (un mismo
grupo estudiado en varios momentos), etc.
Otra clasificación importante se basa en la posibilidad que tiene el investigador de controlar la variable
independiente y otras situaciones del estudio, donde se distinguen los siguientes tipos generales de
investigaciones: a) experimentales; b) cuasiexperimentales; y c) no experimentales.
.C
Investigaciones experimentales- El investigador tiene el control de la variable independiente o variable
estímulo, la cual puede hacer variar en la forma que sea más apropiada a sus objetivos. De igual manera,
puede controlar la conformación de los grupos que necesita para su estudio.
DD
Permiten determinar:
3. Al efectuar un experimento, el investigador debe prestar atención a las conductas de las personas
sometidas al estudio con el propósito de utilizar, si procede, sus opiniones y comentarios al interpretar los
resultados obtenidos.
4. En muchas ocasiones, es útil darle instrucciones un tanto más detalladas que las usuales a las personas que
participan en el experimento, sin llegar a inducir las respuestas o reacciones buscadas. Este procedimiento
puede convenir cuando las condiciones en las cuales se va a realizar el estudio son muy diferentes a aquellas
en las cuales se desenvuelven habitual mente tales personas.
a) Diseño con un grupo experimental, un grupo de control y mediciones “antes” y “después” en ambos
grupos.
Este diseño constituye la forma clásica de la investigación experimental. En él, los sujetos del estudio son
asignados aleatoria mente –al azar– al grupo experimental y al grupo de control. Luego se siguen los pasos
siguientes:
1. En ambos grupos se hace una medición “antes” (pre-test) de la variable dependiente
2. Luego, se aplica la variable independiente sólo en el grupo experimental
3. Se hacen mediciones “después” (pos-test) en ambos grupos.
4. Finalmente, se hacen comparaciones, en ambos grupos entre las mediciones “antes” y las respectivas
La conformación aleatoria de los dos grupos permite eliminar, al nivel del azar, las diferencias que pudieran
existir entre sus sujetos componentes; las mediciones “antes” y “después” en ambos grupos y sus
comparaciones en cada uno de ellos permiten constatar si ha habido diferencias entre ellos, y si éstas fueran a
favor del grupo experimental, entonces el investigador podría decir que ellas se deben a la acción de la
variable independiente o trata miento que sólo fue aplicado a ese grupo.
Debido al mismo hecho de utilizar el azar, en la formación de los grupos se controlan los factores de
selección (no hay elección intencionada) y el de mortalidad (si los grupos son prácticamente iguales, los dos
deberían tener, de ocurrir, similar número de personas que no completan el experimento). Por usar un grupo
de control, el experimento clásico controla también los factores de historia (efecto de circunstancias externas
al experimento que pueden influir en sus resultados, el cual debería ser similar para los dos grupos) y el de
OM
maduración (cambios biológicos y psicológicos que se darían en ambos grupos de manera semejante
mientras se hace el experimento).
Para la constatación de las posibles diferencias entre los grupos experimental y de control, una vez ter
minado el experimento, se debe utilizar análisis de la covarianza con los puntajes “antes” (pretest) como
covariable. Este procedimiento permite ajustar las diferencias de los sujetos de ambos grupos, dejando sola
mente los cambios de la variable independiente como causa de las modificaciones que se darían entre ellos.
.C
Este diseño, como el que exponemos a continuación, puede utilizarse con más de un grupo experimental.
b) Diseño con un grupo experimental y un grupo de control con mediciones sólo “después”.
Es un diseño que sólo se diferencia del clásico que acabamos de ver en cuanto, por alguna razón o
impedimento, no se hacen mediciones “antes” de la variable dependiente en ninguno de sus dos grupos.
DD
Comprende los siguientes pasos:
1. Conformación aleatoria de los grupos experimental y de control (puede utilizarse más de un grupo
experimental, por ejemplo, al comparar dos métodos de exposición sobre las drogas).
2. Aplicación de la variable independiente, trata miento o prueba sólo al grupo experimental.
3. Medición “después” (postest) de la variable dependiente (por ejemplo, actitud frente a las drogas) en
LA
ambos grupos.
4. Comparación de las dos mediciones “después”.
El diseño controla los factores que pueden actuar contra la validez interna del experimento, como lo son la
historia y la maduración , por utilizar un grupo de control. También controla los factores de la selección
FI
(sesgos) y de la mortalidad experimental. Debido al hecho que no se hacen mediciones “antes” no puede
haber efecto sobre la prueba que se utiliza en la medición “después”. Pero por no utilizar medición “antes”,
el diseño tiene varias desventajas, entre las cuales se destacan las siguientes:
1. No es posible usar el análisis de la covarianza para controlar las diferencias iniciales que podrían tener los
1. Se aplica una prueba a un grupo de sujetos, destinada a medir la variable dependiente (digamos, la actitud
hacia la política), o una variable estrecha mente correlacionada con ella, cuya modificación se desea
establecer por una cierta variable independiente.
2. Con base en los puntajes obtenidos por los sujetos en la prueba mencionada en el paso anterior, se forman
pares de sujetos con puntajes iguales o con pequeñas diferencias entre sí.
3. De cada par, se asigna un sujeto al grupo que será el grupo experi mental y el otro al que será el grupo de
control (puede haber más de un grupo experimental)
4. Se aplica el tratamiento (por ejemplo, una exposición sobre las funciones de la política en la sociedad) al
grupo experimental y, si es necesario, un placebo al grupo de control.
5. Como medición “después” se aplica a los dos grupos la misma prueba de la medición “antes”, o una
prueba equivalente a ella.
OM
6. Finalmente se comparan las diferencias entre los valores “después” de los dos grupos.
Todos los diseños que hemos presentado hasta aquí trabajan con una sola variable independiente. Sin
embargo, se debe tener en cuenta que en muchas investigaciones se utilizan dos o más variables
independientes, con el propósito de determinar los efectos combinados de ellas en la variable dependiente del
caso.
Investigaciones cuasiexperimentales
.C
En todos los diseños experimentales, propia mente tales, la asignación a los grupos experimentales y de
control se realiza en forma aleatoria, con la finalidad principal de lograr una igualación, lo más cercana
posible, de las características de los sujetos que conforman esos grupos. Esto, en definitiva, para descartar
DD
variables (propiedades) distintas a la variable independiente cuyo efecto particular se desea establecer en la
variable dependiente.
Con toda la importancia que tiene la aleatorización de los grupos, en muchas circunstancias no es posible
cumplir con el propósito de control señalado anterior mente. Sin embargo, como lo han señalado Campbell y
Stanley, en ausencia de esa posibilidad, aún es posible realizar experimentos que pueden tener validez
LA
interna y externa, si bien no eliminan todos los factores que las debilitan. De manera general, los diseños en
los cuales no se ha podido utilizar el azar en la formación de los grupos reciben el nombre de diseños cuasi-
experimentales, de los cuales presentamos los de mayor utilización.
un cierto grado o de una cierta escuela, personas que han sido sometidas a una intervención social (de la cual
se podría tomar una muestra), etc. Tales grupos forman el grupo experimental; el grupo de control se forma
con sujetos, no elegidos al azar, que tengan características muy semejantes a los sujetos del grupo
experimental.
La principal debilidad del diseño es la no aleatorización de los grupos, en la medida que el grupo de control
sea diferente del grupo experimental, más allá de la diferencias debidas al azar. En esa medida, no podrán
controlarse los factores extraños cuyos efectos podrían confundirse con el efecto de la variable
independiente, que es el foco de la investigación. Esta situación, sin embargo, puede resolverse, en buena
proporción, con el uso del análisis de la covarianza en el trata miento final de los datos, con la elección de
una covariable adecuada.
El principal problema de este diseño es el factor denominado historia, constituido por la influencia que
pudieron tener factores externos al experimento, ocurridos durante su desarrollo. Otro problema tiene que ver
con la elección de las técnicas de análisis que permitan establecer el efecto de la variable independiente en
OM
A este tipo de investigaciones pertenecen, entre las principales, la encuesta social, el estudio de casos, el
estudio de cohortes, la observación estructurada, la investigación- acción participativa y la investigación
evaluativa.
Encuestas seccionales y longitudinales- La encuesta seccional es aquella que se realiza en una cierta
población o en una muestra de ella en un período corto de tiempo. Son estudios sincrónicos, en un mismo
.C
tiempo. Corresponden a “fotografías instantáneas” que se toman en un momento dado. El nombre de
seccionales proviene del hecho de que la encuesta entrevista a personas que pertenecen a los principales
estratos del colectivo estudiado. Los casos típicos los constituyen las encuestas de opinión pública.
La encuesta longitudinal, a diferencia de la anterior, es un estudio diacrónico , es decir, un estudio que sigue
DD
en un cierto período de tiempo el desarrollo del fenómeno estudiado. Este desarrollo puede hacerse en un
período ya pasado, y se tiene, entonces, un estudio longitudinal retrospectivo. Por ejemplo, la reconstitución
de la historia ocupacional de una cohorte de personas. La limitación de estos estudios –no insalvable– es el
olvido de las personas de las situaciones estudiadas.
Los estudios longitudinales prospectivos , constituidos por estudio de seguimiento de cohortes, por
LA
seguimiento de paneles (un mismo grupo heterogéneo), analizan los cambios que se producen en los sujetos
en un cierto período de tiempo (a veces, bastante largo) mediante entrevistas sucesivas o con datos
provenientes de otras fuentes.
Etapas de la encuesta
FI
2. Formulación de objetivos descriptivos o explicativos. Estos últimos deberían formularse como hipótesis,
es decir, como relaciones supuestas entre variables o bien como hipótesis estadísticas.
5. Construcción de los instrumentos para recoger la información. Sin perjuicio de otros, el instrumento
básico es un cuestionario con preguntas abiertas o cerradas que corresponden a las variables anterior mente
mencionadas. Si el estudio comprende la medición de una variable mediante una determinada técnica, como
podría ser una técnica Likert, se deben incluir las proposiciones pertinentes, con sus respectivas gradaciones
de aceptación o rechazo (acuerdo, desacuerdo, etc.).
6. Prueba de los instrumentos elaborados en un grupo relativa mente pequeño, de características semejantes a
las de la población que se va a estudiar.
OM
cuestionario, hay que supervisar el trabajo que se va realizando, controlando un cierto nú mero de las
entrevistas hechas por los entrevistadores.
.C
información comprende la preparación de un código para clasificar las respuestas y su aplicación a cada
cuestionario.
9. 9. Análisis e interpretación de los resultados. La última etapa de la encuesta la constituye el análisis de los
DD
datos y su interpretación. El análisis, que se hace con base en un “plan de análisis” previa mente preparado,
comprende, básica mente, el estudio de los resultados estadísticos obtenidos con los datos. Son las
“respuestas cuantitativas” a las preguntas y objetivos de la investigación: tablas de frecuencia, cuadros de
doble entrada, asociaciones, correlaciones, etc. La interpretación no tiene el significado que se le da en la
investigación cualitativa. Comprende comparaciones entre resultados, evaluación de magnitudes,
consecuencias de ellas, relaciones con el marco problemático, probables consecuencias de los resultados, etc.
LA
En la investigación explicativa, el análisis comprende la explicación de relaciones entre las variables entre
las cuales se ha constituido una o más hipótesis.
10. Informe final. Este informe comprende la exposición del problema estudiado, su marco teórico o
problemático, la población o muestra estudiada, período en el cual se realizó el trabajo de campo, la
metodología empleada, problemas encontrados y los resultados obtenidos por el análisis, las explicaciones
FI
que procedan, etc. Como anexos van los cuestionarios empleados y otros instrumentos usados en la
recolección de los datos.
Algunas propiedades, sean de objetos o de personas, tienen un numero finito de estados, claramente distintos
y distinguibles uno del otro, en una palabra, son discretos. Discretas se le llaman a las propiedades que tienen
estos estados discretos. Las propiedades que tienen un número infinito de estados son llamadas “continuas”.
La distinción entre discreto y continuo es lo más importante al momento de recolectar información y
transformarla en datos por medio de una definición operativa.
OM
Propiedades y variables categoriales
En la realidad hay una gran variedad de estados en las propiedades, se debe decidir qué estados se
convertirán en categorías de la variable que va a representar la propiedad de la matriz. Se necesitará
intervención de expertos para resolver estas situaciones, inclusive cuando la transformación de estados en
categorías parece simple y automática.
.C
Las operaciones de creación y/o delimitación de categorías se realizan siguiendo los principios de una
operación intelectual (la clasificación). Esta operación se puede llevar a cabo en abstracto, considerando las
diversas formas que puede tomar un objeto o evento (por ejemplo, los múltiples estados que puede concebir
una propiedad).
DD
El criterio que se sigue para dividir la intensión de un concepto o para agrupar ejemplares tiene el nombre de
“fundamentum divisionis”. Un ejemplo es dividir un grupo por el color del pelo (morocho, rubio, etc).
Si se adoptan 2 o más criterios (morochos hombres o mujeres, rubios hombres o mujeres) la operación se
llama “tipología”.
LA
Lo importante es que las categorías sean mutuamente excluyentes. Este requisito de la mutua exclusividad
vale tanto para tipologías como para clasificaciones.
Otro requisito de la clasificación es la exhaustividad de las categorías: todos los estados posibles deben estar
asignados a una categoría. Como esto no es posible, muchas veces se prevé la categoría “otro” donde
finalizan todos los estados no previstos. Que nada tiene que ver con una categoría de “no contesta” o “no
FI
sabe”.
Una cuota muy alta de “no sabe” puede significar que algunos temas no interesan, o que han sido formuladas
con un lenguaje lejano al del entrevistado. Una cuota demasiado alta de “no contesta” puede significar que
algunas preguntas tocan temas delicados o privados. Una cuota muy alta de “otro” significa que la
Estas faltas ocurren en muchos sondeos, y se podrían evitar con una prueba “piloto”, es decir, sometiendo
preliminarmente el cuestionario a algunos miembros de la población a examinar. Reflexionando sobre estos
resultados, se pueden obtener mejoras. Estas pruebas piloto a veces se ejecutan solo como “ritual” y antes del
sondeo, donde no hay tiempo para analizar nada.
Otro problema es la división de fundamentum divisionis, o sea, la forma en que se establecen las categorías
(que debe ser relevante para nuestros intereses). Se aconseja siempre el máximo detalle cada vez que las
informaciones sean recogidas sin interacción oral con un sujeto. Un detalle mucho menor (pocas categorías y
claramente distintas) si el sujeto tiene que escuchar las alternativas y elegir una sin poder apoyarse en un
texto escrito. SI la entrevista es telefónica, se aconseja limitarse a dicotomías (si/no) o a propiedades
sencillas.
Cuando se establecen categorías, se asigna un código, y con esto se cumple el paso más importante en la
Sea cual sea (numérico o no) el código que se le asigna, cuando tenga un código y este siendo analizado con
técnicas estadísticas, una categoría cambia de nombre y se llama “modalidad”. Con la expresión “frecuencia
de una modalidad” se entiende el número de datos a los cuales se atribuyó aquella modalidad. La modalidad
con la frecuencia más alta se llama “moda” (o modo) y esto en todos los tipos de variables.
El primer paso de análisis de una variable categorial es la producción de su distribución de frecuencia, es
decir, una tabla que tiene habitualmente tres columnas: código, nombre de la categoría/modalidad, frecuencia
(absoluta) y en la última el porcentaje correspondiente (frecuencia relativa).
OM
la codificación, si en la distribución aparecen códigos que no se habían visto previstos en nuestro plan. Ella
señala también el desequilibrio en las frecuencias (modalidades con un numero demasiado alto o bajo), que
pueden también indicar errores en la codificación y que de todas formas provocan problemas en algunos
tipos de análisis estadísticos.
Una vez realizado este paso preliminar, una variable categorial está casi lista para ser puesta en relación con
otras variables categoriales u ordinales mediante una tabla bivariable, o con variables cardinales mediante el
.C
análisis de la varianza. Se dijo “casi lista” porque si se quiere investigar de manera eficiente las relaciones de
las variables categoriales con otras variables, hay que someter casi todas a una especie de “maquillaje” que
constituye una verdadera fase intermedia entre recolección y análisis. Esta es una fase descuidada
generalmente.
DD
Cuando se quieren analizar las relaciones de una variable categorial con otra variable, cabe decir que el
mismo nivel de detalle que es positivo en la recolección y análisis univariado (detalle y sensibilidad), se
convierte en negativo. El grado de negatividad depende de la otra variable con la cual establecemos relación:
si es un cardinal, el problema no es grave, si es un ordinal, este resulta mayor, pero aún no tan grave; si es un
categorial, un alto nivel de detalles (muchas categorías) puede producir dificultades importantes. Esto es
LA
porque la herramienta con la que se analizan las relaciones entre dos variables, la tabla bivariable, el número
de las celdas equivale al producto de las modalidades de las dos variables que forman la tabla. Con dos
variables de diez modalidades, el número es cien, etc. Esto crea dos problemas, uno numérico y otro
semántico.
Supongamos una matriz con algunas combinaciones de datos, siempre alguna es más frecuente que otra,
FI
siempre estando algunas celdas vacías y otras no. De celdas vacías o casi vacías no se pueden sacar
conclusiones, o sea, una matriz vacía o semi vacía no sirve para mucho análisis.
Para hablar del problema numérico, es necesario hablar del concepto de autonomía semántica. Una categoría
tiene plena autonomía semántica si puede ser interpretada sin hacer referencia al significado de la propiedad
o de las otras categorías. Por su naturaleza, las categorías de las variables categoriales tienen plena
autonomía semántica. Lo que significa que cada combinación de las categorías de dos variables categoriales
tiene su sentido y necesita atención y concentración para enfocar su pleno significado.
El investigador experto prefiere enfocar su atención en pocas tablas elegidas con cuidado y hacerlas
manejables, reduciendo al mínimo las celdas vacías o casi vacías, de manera de poder aprehender todo lo que
indica la tabla en un tiempo razonable. Para lograr este objetivo habrá que reducir el número de las
categorías en ambas variables.
Esta operación se puede llevar a cabo de forma correcta y eficaz si se siguen dos criterios: uno medular es la
proximidad semántica entre las categorías que se desea unir; otro criterio es el equilibrio entre las frecuencias
en las distintas modalidades. El metodólogo experto trata de evitar la presencia de modalidades, y por lo
tanto celdas, con frecuencia demasiado altas o bajas, ya que ambas perjudican la interpretabilidad de una
tabla.
Las consecuencias de graves desequilibrios son conocidas: categorías con baja frecuencia producen
Propiedades y variables ordinales. Son ordinales las propiedades en las que se pueden ordenar todos los
estados a lo largo de una escala según un criterio semánticamente vinculado a la naturaleza de la propiedad,
de forma que hay un estado mayor que otros, uno menor, etc. El tratamiento de las propiedades ordinales
tiene mucho en común con el tratamiento de las propiedades categoriales
OM
4. Se establecen límites entre las categorías de modo que sea mutuamente exclusivas
5. Se procura que el complejo de las categorías sea exhaustivo
En este caso, los estados están ordenados en la realidad, o se puede imaginar un criterio intersubjetivo para
ordenarlos. La serie de códigos debe tener una relación monotónica directa con el orden de los estados en la
realidad: al crecer la posición ordinal del estado, hay que acrecentar también el código numérico asignado a
la modalidad correspondiente.
.C
El problema de unir categorías semánticamente parecidas con otras variables, pierde su importancia. Y eso
no solo porque las categorías de una propiedad ordinal habitualmente no son muchas, sino también porque
ellas pierden parte de su autonomía semántica, en cuanto al interés semántico pasa de las categorías
DD
individualmente consideradas al orden de las categorías. Por lo tanto, en una tabla bivariable que incluye una
o dos variables ordinales se tiende a mirar la tendencia global más que las celdas singulares.
Una importante consecuencia directa de la reducción de autonomía semántica por parte de las categorías
ordenadas es que en las tablas que presentan la distribución de los porcentajes relativos a cada modalidad
singular deben ser reemplazados, o acompañados, por porcentajes acumulados, lo cual se calcula teniendo en
LA
cuenta no solo la frecuencia de aquella modalidad sino también las frecuencias de las modalidades que la
preceden en el orden. A veces puede ser útil presentar porcentajes retro acumulados, que suman la frecuencia
de aquella modalidad con los de las modalidades que siguen en el orden.
Una ventaja del recurso a distribuciones de porcentajes acumulados es que esto permite detectar
inmediatamente la categoría mediana de una distribución. En una secuencia de cifras, la mediana es la cifra
FI
La expresión “variable continua” es una contradictio en adieto (el adjetivo contradice al sustantivo), así
como la expresión “variable discreta” es redundante. Ya que una variable cardinal también se deriva de una
propiedad continua mensurable a través de medición, para distinguir las cardinales que se originan a partir de
una propiedad discreta se agrega el adjetivo “naturales”, en el sentido de que en estas variables ya sea el
punto cero (ausencia de la propiedad) ya se la unidad de computo (el número 1) son naturales y no radican en
una decisión del investigador o de la comunidad científica.
Eso no quita que en la fase de análisis, la diferencia entre variables cardinales y variables cardinales métricas
(las que derivan de una medición) pierda toda su importancia, y se puede hablar de variables cardinales sin
más.
Como se decía acerca de las variables categoriales, el criterio que rige la recolección de informaciones no es
para nada el mismo que rige la presentación de los datos y su análisis. En el caso de las variables
categoriales, la razón principal para agrupar categorías se presenta ne la fase de análisis, y radica en la
necesidad de reducir el número de celdas en las tablas cuando se analicen sus relaciones con otras categorías
y ordinales, pero la posibilidad de reagrupamiento tiene un límite en el hecho de que cada categoría tiene
Al agruparse categorías no hay otro problema que plantearse más que el número: la proximidad semántica no
es un problema porque las categorías de una variable cardinal tienen una autonomía semántica muy reducida,
que va poco más allá del aspecto meramente numérico. Por otro lado, esta escasa autonomía semántica no se
puede descuidar.
En término metodológicos, esto significa que en muchas propiedades discretas cardinales, las categorías más
OM
cercanas al cero tienen una mayor autonomía semántica que otras. Como consecuencia, las clases iniciales de
las variables cardinales tienen habitualmente una amplitud reducida.
Ya que las modalidades de las variables cardinales son números en sentido estricto, se las puede someter a
todas las operaciones matemáticas.
De una variable cardinal no interesa solo un promedio, sino también su variabilidad, que habitualmente se
representa mediante la dispersión de sus datos respecto a este promedio. Dado que los códigos de una
.C
variable cardinal son números, no hay dificultad para calcular un valor que sintetice la dispersión de sus
datos en una muestra o en una población, donde, de forma sencilla, podemos calcular una desviación de X
respecto a un promedio. Esa desviación podrá ser positiva o negativa.
DD
A partir de una serie de cálculos obtenemos cuatro valores característicos: devianza, varianza, desviación
típica y coeficiente de variación, los cuales son valores globales, en el sentido que se refieren a distribuciones
enteras y no a casos singulares. El procedimiento que permite saberlo se llama estandarización. La
estandarización sirve también para construir índices aditivos que sumen variables cardinales con una
extensión de escala diferente.
LA
Las propiedades llamadas continuas tienen un número infinito de estados imperceptiblemente diferentes el
uno del otro. La mayoría de estas propiedades pertenecen al mundo fisco. Otras propiedades continuas
pertenecen al mundo psíquico (como puede ser una opinión), estas propiedades psíquicas no se pueden
medir, no tenemos estados en estas propiedades. Aquí ocurre un problema de inferencia en realidad, entre lo
FI
que se ve o se escucha, y los estados reales, inclusive, dando un problema grande de fidelidad porque la
información se obtiene a partir de una declaración donde el entrevistado dice lo que tiene ganas
La propiedad debe ser continua siempre, si no lo es, no se mide: se clasifica o se cuenta. Es lo que ocurre
cuando hace una entrevista un sociólogo, el no puede garantizar la respuesta, ni demostrarlo. Además, con
anterioridad debe haber sido establecida y reconocida una unidad de medida.
Una tercera condición necesaria para la medición es la ejecución de un cotejo entre la unidad de medida y el
estado en la propiedad que se está midiendo. Cuando se miden propiedades de objetos inanimados o de ser
humanos a las que se tiene acceso desde el exterior, este cotejo lo hace el que mide. Pero cuando este acceso
directo no se puede lograr, el investigador puede recorrer tres caminos:
Algo que no se puede considerar una condición de medición, pero que nunca falta, es el criterio para
Los psicólogos comenzaron a plantearse el problema de medir ciertas propiedades (como las actitudes)
donde Rensis Likert introdujo las siguientes simplificaciones:
1. Se propuso dividir el continuum en un número pequeño de intervalos, marcados por siete, y después por
cinco fases.
2. Se renunció a declarar iguales estos estados, limitándose a garantizar el orden de las frases que los
dividían
3. Para garantizar que todos los sujetos compartan este orden, redujo drásticamente la autonomía semántica
de lo que se ubicaba en el continuum como un mojón: en lugar de plantear frases con pleno sentido
esperando que los sujetos las ubiquen en el continuum, siguió planteando frases, pero pidiendo a los sujetos
OM
reaccionar frente a cada frase con uno de varios grados diferentes de (des)aprobación (apruebo plenamente,
apruebo parcialmente, indeciso, desapruebo parcialmente, desapruebo totalmente). La técnica ubica en el
continuum estas cortas expresiones, que tienen una autonomía semántica tan reducida que cualquier sujeto
no puede más que compartir su orden.
En su versión simplificada la “escala de Likert”, simple y rápida, es la técnica de registro de opiniones más
conocida y usada. Se le hacen varias observaciones.
.C
La primera observación es que reintroduce por la ventana la misma cardinalidad que declara haber echado
por la puerta; lo hace desde el titulo (valoraciones sumadas). Las valoraciones que se suman son los números
naturales que se atribuyen a los 5 niveles de desacuerdo (o acuerdo) y que se suman para asignarle a cada
DD
sujeto un puntaje total en la escala, que expresa su supuesto estado en la propiedad que se intenta medir.
Un segundo problema que presenta es el hecho de que una afirmación puede ser desaprobada por motivos
opuestos. Lo que conlleva a que se asigne los mismos puntajes a opiniones ubicadas en posiciones muy
diferentes a lo largo del continuum. Esto se conoce como “curvilinearidad”, porque asignar la misma
puntuación a respuestas que tienen motivos opuestos equivale a doblar el continuum transformándolo en una
herradura.
LA
Menos conocido es otro fenómeno que puede distorsionar las reacciones: se descubrió que un entrevistado no
reacciona al sentido de la oración entera, sino a un solo término, más precisamente, al objeto/sujeto
designado por este término. Esto fue bautizado como “reacción al objeto”.
El hecho de que las frases sean organizadas en baterías, si bien acrecienta la rapidez, por otro reduce la
FI
fidelidad de los datos producidos. Esto es porque una vez aprendido el fácil esquema según el cual deben
contestar, tienden a considerar todas las frases restantes como una única afirmación, que aprueban sin más,
por eso podríamos encontrar columnas enteras con la misma respuesta marcada. Esto se conoce como los
“response set” (conjunto de respuestas). Se pueden identificar cuatro motivos
1. El alto número de frases que componen cada batería, y el hecho de que en un cuestionario se encuentran
muchas baterías, haciendo que se someta al mismo entrevistado a centeneras de frases con un mismo
esquema de respuesta prefabricada.
2. Muchos investigadores no se dan cuenta de que a menudo los acervos de conocimiento y las esferas de
intereses de los entrevistados no coinciden con los suyos. La consecuencia es que muchos entrevistados, no
teniendo conocimiento sobre los temas que se presentan, aprueban cualquier oración porque esto es lo que
los compromete menos.
3. En muchos casos el entrevistador se presenta como enviado por un instituto, por lo tanto los entrevistados
no desdicen y contradicen nada de esos cuestionarios para no contradecir la sabiduría académica
4. Algunos entrevistadores proporcionan su contribución a hacer los response sets. Generalmente los
entrevistadores son personas mal pagas, se les entrena poco, y tienen que hacer mucho en poco tiempo. Esto
baja la calidad de los cuestionarios.
El mismo Likert sugiere que la manera de evitar los response sets es mezclar en la misma batería
afirmaciones de orientación opuestas, de forma que el entrevistado no pueda declararse razonablemente de
Un remedio para los response sets es, en vez de pedir a los entrevistados (des)aprobar frases individuales,
pedirles elegir entre dos frases de orientación opuestas y planteadas juntas, una frente a la otra. De esta forma
es forzado a abandonar su condición pasiva y reflexionar sobre el significado de ambas frases. Esto se llama
elección forzada.
Otra técnica alternativa a la de Likert es la de Guttman, el cual adoptó un criterio radicalmente diferente para
ubicar frases con pleno sentido a lo largo del continuum: el criterio de la acumulatividad. Se imaginó una
técnica ingeniosa para ordenar a lo largo de una dimensión conceptual un conjunto de frases con pleno
sentido, es decir, con plena autonomía semántica. El problema es que si el supuesto de acumulatividad es
OM
razonable para pruebas de destreza físicas y tests de capacidad intelectual, nada garantiza que lo sea también
para opiniones. Guttman oculta estas diferencias trasladando sin cuestionamientos a la esfera de las
opiniones los términos relacionados a pruebas (fácil/difícil/pasar/fracasar). Una oración on es fácil o difícil;
se aprueba, no se pasa; se desaprueba, no se fracasa. El artilugio terminológico no puede esconder el hecho
de que su técnica, apropiada para cada género de habilidad, raramente es apropiada para investigar opiniones
y actitudes.
.C
Funciona así: se presenta una serie de frases a una muestra de sujetos, solo preguntándoles si aprueban o
desaprueban cada una de ellas. Luego se organiza una forma de matriz (la cual llamaba escalograma): en las
columnas se ponen las opiniones, ordenadas de la más fácil a la más difícil (la que tuvo más aprobaciones a
más desaprobaciones). En las filas se ponen los sujetos, ordenados de mayor a menor según la cantidad de
DD
frases aprobadas.
razonable con respecto a aquel particular campo semántico. Por el contrario, el propuso dos sugerencias
alternativas y paralelas: a) sacar de la muestra a los sujetos culpables de demasiados errores, ya que habían
contestado sin tener cuidado; b) eliminar de la escala las frases que causaban el número más alto de errores.
La primera sugerencia revela la actitud del autor: si el mundo no se adapta a mis supuestos, hay que cambiar
el mundo y no los supuestos. La segunda es ética y científicamente legitima: el investigador tiene derecho y
deber de mejorar sus instrumentos, solo que en el caso específico tiene graves consecuencias técnicas.
FI
Como subrayan Guttman, su escala es una técnica meramente ordinal: lo que conlleva a que los únicos
valores característicos que se pueden aplicar a variables constituidas con ella son la moda y la mediana, y
además para analizar las relaciones de estas variables con otras solo se pueden aplicar coeficientes ordinales.
Lo mismo se puede decir para las variables construidas con la escala de Likert. Por otro lado, hay que
enfrentarse al hecho de que muchos analistas usan sin cuestionamiento técnicas cardinales en estas variables,
porque con esas técnicas pueden fácilmente efectuar un análisis multivariable. Pero esta práctica va a
producir resultados poco confiables porque las posiciones a lo largo del continuum no son equidistantes, y
porque las frecuencias están habitualmente mal distribuidas.
Hay que examinar previamente las distribuciones de todas las variables a las que las van a aplicar, y solo
aplicarlas a las variables que tengan una distribución bastante equilibrada.
La drástica reducción de la autonomía semántica de las categorías intermedias permite eliminar cualquier
duda sobre el hecho de que el orden de esas categorías es compartido por todos los sujetos (nadie puede
pensar que 8 es menos que 7), y adoptar un razonable supuesto de que las cifras del intervalo y las casillas a
lo largo del segmento sean percibidas como equidistantes.
Algo más evidente es la diferencia gnoseológica, como pasa con todas las propiedades psíquicas, el
a) Cada sujeto puede concebir de manera diferente del investigador la propiedad en la que debe valorar su
estado
b) Cada sujeto puede equivocarse de buena fe acerca de su estado
c) Cada sujeto puede alterar conscientemente su estado
d) Cada sujeto puede entender mal el mecanismo o funcionamiento de una escala
e) cada sujeto puede comprender en lo esencial el funcionamiento de una escala pero manifestar la tendencia
a no usarla en modo sesgado (por ejemplo, atribuyendo todos puntajes bajos o altos).
Solo al último tipo de distorsión se puede aplicar un remedio, pero en situaciones particulares. Para las otras
OM
no hay nada que hacer.
Presentamos tres escalas de esta familia. La más antigua es la “diferencial semántica”, donde se presentan
escalas, donde cada escala está formada por varias casillas y en ambos extremos dos adjetivos opuestos
(caliente: _: _:_:_ :_:_ :_: frio) donde se pide valorar.
Otra similar a la anterior, es presentarle al sujeto una columna con diez u once casillas, donde solo la más
.C
alta o la más baja son interpretadas. Como el sujeto era quien “anclaba” la escala al establecer la posición de
su estado entre dos extremos, fue llamada “autoanclante”.
A veces la naturaleza de la propiedad bajo examen no permite imaginar una definición operativa directa,
otras veces esta se puede imaginar, pero nuestro sentido común, nuestros conocimientos de la situación,
experiencia, entre otros, nos dicen que esa definición operativa sería inadecuada para registrar la propiedad
en cuestión.
El hecho de que no se pueda dar una definición operativa directa no conlleva una renuncia a recoger
información sobre esa propiedad, para hacerlo, hay que buscar una o más propiedades que
a) Admitan definiciones operativas directas que sean aceptables
b) Tengan una fuerte relación semántica con la propiedad que interesa
Estas propiedades se llaman “indicadores” de la propiedad X, y la relación que se establece entre ellos y la
propiedad X se llama “relación de indicación”.
OM
La naturaleza está estrechamente vinculada con la de los vectores-columna de la matriz de investigación. Por
lo tanto
.C
Solo se pueden ser elegidos como indicadores conceptos que se refieren a propiedades, que sugieran una
definición operativa directa y cumplan con el requisito (b) señalado antes. Estas son condiciones necesarias
pero no suficientes: la condición esencial es que el investigador perciba una estricta relación semántica entre
DD
el indicador y el concepto indicado.
Aspectos indicativos y aspectos extraños: la doble pluralidad de las relaciones entre conceptos e indicadores
Muchas veces el mismo concepto A, directamente operativizable, es elegido por diferentes autores (o
inclusive por el mismo autor en situaciones diferentes) como indicador de dos o más conceptos no
LA
operativizables distintos. Esto deriva del hecho de que la intensión de este concepto A varía de sujeto a
sujeto y también varía en el tiempo para cada sujeto.
Cada investigador puede considerar central un aspecto diferente, lo cual podríamos llamar “aspecto
indicativo”. Pueden haber otros aspectos que ignora o que considera no importantes, los cuales podríamos
FI
llamar aspectos extraños. Todos estos puntos ayudan a influir en, por ejemplo, la manera en que una
pregunta será entendida por los entrevistados. La minimización de los aspectos extraños tiene que ser la
primera consideración para elegir indicadores, y dado no que no es posible encontrar un indicador que este
alejado a esto, un investigador deberá tenerlos muy en cuenta a la hora de interpretar los datos.
A esa pluralidad “desde abajo” (en el sentido de que un concepto puede ser elegido como indicador de otros
varios conceptos) le corresponde una pluralidad “desde arriba” en el sentido de que para cada concepto que
interesa, pero que no sugiere directamente una definición operativa, cabe elegir más de un indicador.
Para posibilitar cualquier registro de informaciones empíricas semánticamente relevantes para un concepto,
cabe recurrir a conceptos mucho más específicos y acotados que conduzcan directamente a esta información.
Por esta razón se habló de un pasaje “desde arriba” del concepto de sus indicadores, y de un pasaje “desde
abajo” de cada indicador elegido al concepto relativo. Y ya que los aspectos de la intensión de un concepto
general pueden ser mucho más, para no reducir demasiado la generalidad de este concepto, y al fin de
cuentas cambiarlo, es necesario buscar indicadores para muchos aspectos; lo ideal sería encontrar
indicadores para cada aspecto relativante de su intensión.
Esto es lo que se entiende de pluralidad desde arriba de la relación de indicadores. De una forma rápida, la
doble pluralidad puede sintetizarse así: cada concepto no sugiere directamente una definición operativa,
necesita una pluralidad de indicadores, y cada concepto que puede ser directamente operativizado puede ser
elegido como indicador de una pluralidad de otros conceptos.
Claramente, cada vez que analizamos una investigación que no es nuestra, estamos limitados a las
propiedades que interesaron al autor original, por lo tanto, tal vez alguna cosa que interese no está en la
matriz.
La validez es una propiedad del concepto I, en cuanto posible indicador del concepto C en un ámbito
OM
espacio-temporal determinado con una unidad de análisis dada. El grado en que el concepto I posee esta
propiedad no se puede medir, ni averiguar de ningún modo objetivo. El grado solo puede ser evaluado con
criterios semánticos por el investigador, el equipo de investigadores, la comunidad de investigadores de una
disciplina.
Este juicio se debería dar teniendo en cuenta los conocimientos del problema y de la población estudiada, los
resultados de investigaciones previas, la literatura del tema, etc. Una vez registrados los datos, el juicio debe
.C
tener en cuenta la fuerza y la forma de la relación de aquella variable con otras.
Todas las otras formas de control de validez se basan en coeficientes de asociación entre el vector que brinda
los datos del indicador en cuestión y otros vectores de la matriz. La fiabilidad de los datos también se
controla mediante correlación de dos o más vectores. Esta analogía ha conllevado una lamentable confusión
DD
entre el concepto de fiabilidad y el concepto de validez.
Entre las más difundidas técnicas de validación, la validación concomitante o simultánea se calcula
coeficientes de asociación con otros supuestos indicadores del mismo concepto. La validación predictiva en
la que se controla si, sobre la base de los puntajes de un indicador, somos capaces de prever correctamente
los resultados de una prueba sucesiva. La más interesante es la validación de constructo en la que el supuesto
LA
indicador no se asocia con indicadores del mismo concepto sino con variables que deberá tener una relación
empírica fuerte (positiva o negativa) con el concepto a indicar. El indicador es considerado válido si la
relación es aquella que se esperaba.
La intensión de un concepto de propiedad tiene varios aspectos, y se necesita encontrar indicadores para los
aspectos más importantes. Naturalmente, las informaciones recogidas tienen que ser sintetizadas para
construir el concepto que interesa. La operación con la que se realiza esta síntesis se llama “construcción de
un índice”, es la tarea más delicada de la investigación social que sigue una aproximación estándar.
El criterio de construcción de los índices se puede establecer en abstracto a la hora de diseñar la
investigación; pero se realiza cuando los datos sobre los indicadores están recolectados y tengamos las
variables correspondientes en la matriz. El procedimiento es diferente según se traten las variables como
cardinales o no.
Si no las consideramos cardinales, se atribuye plena autonomía semántica a cada categoría de las variables
que van a formar el índice. De esto se sigue que la herramienta para realizar la síntesis es la tabla bivariable,
en la que cada categoría de las variables involucradas representan una fila o una columna de la tabla, y en
cada celda hay un tipo, es decir, la combinación de una categoría de la variable en las filas de la tabla con
una categoría de la variable en las columnas. El índice así construido se denomina tipológico.
Construir índices con variables cardinales o cuasi cardinales es más simple, y eso es por dos motivos. El
primero es la posibilidad de realizar con plena legitimidad operaciones matemáticas con los códigos números
que representan los estados en estas variables. El segundo motivo es la autonomía semántica reducida o nula
Las operaciones matemáticas necesarias para construir índices son mucho más sencillas que las que se usan
en el propio análisis estadístico. A veces son simples sumas de puntajes y por eso este tipo de índices de
denominan “aditivos”. Este nivel de simplicidad solo se puede alcanzar si se satisfacen cuatro condiciones:
una factual, una numérica y dos semánticas.
La factual es que no falten datos en uno o más indicadores: en estas circunstancias el putaje final de casa
caso en el índice debe ser el promedio y no la suma de los puntajes válidos.
La condición numérica es que todas las variables que se suman tengan la misma extensión de escala, o al
menos una extensión muy parecida.
OM
Con respecto a la condición semántica: una tiene que ver con la inversión de la tabla de puntos (más en uno
significa menos en el otro). La segunda es más compleja: hasta ahora se presentaron operaciones
(estandarización, normalización, etc.) que tenían el fin de hacer efectivamente equivalentes los indicadores
antes de combinarlos en un índice, en el supuesto de que el investigador los considerara a todos igualmente
válidos. Pero puede pasar que un investigador considere algunos más validos que otros. Si tiene bueno
motivos para ello, tiene que incorporar esta convicción en la formación del índice, sin temor a no ser
objetivo.
.C
Para ponderar la contribución de cada indicador a la suma que va a proporcionar cada caso su puntaje en el
índice, el investigador tiene dos caminos. Puede guiarse por sus valoraciones semánticas, multiplicando los
puntajes en los indicadores que considera valiosos por un coeficiente mayor a 1, y los indicadores que
DD
considera menos valiosos por un coeficiente menor a 1. O puede aprovechar las posibilidades que ofrece la
matriz de los datos, sometiendo la canasta de las variables que operativizan posibles indicadores del
concepto que interesa a un análisis de componentes principales.
Ahora basta decir que el análisis de componentes principales tiene tres funciones, a las que corresponden tres
fases en el procedimiento
LA
1. Seleccionar en la canasta inicial de posibles indicadores los que resultan tener una estricta relación
empírica con los otros, y por lo tanto se puede suponer que tengan una apreciable relación semántica con el
concepto que interesa
2. Estimar la fuerza de esta relación semántica (es decir la validez) entre el concepto y cada uno de los
indicadores seleccionados.
FI
3. Proporcionar un coeficiente para ponderar los puntajes de cada indicador teniendo en cuenta las posibles
superposiciones semánticas, es decir, el hecho de que dos o más indicadores pueden representar aspectos
muy cercanos de la intensión del concepto.
En este caso, el índice final no es otra cosa que la suma de los puntajes de cada individuo en los indicadores
seleccionados en la fase 1; antes de sumarlos, los puntajes son multiplicados por el correspondiente
El principal atractivo de esta técnica recide en su potencial predictivo, al permitir el registro de alguna
propiedad de una población, con un margen de error muestral calculable, a partir del análisis de un fragmento
de ésta. Igual los resultados siempre son aproximaciones y no certezas.
OM
a) Todos los individuos tienen una opinión
b) Todos los individuos se cuestionan sobre los temas que se les pregunta
c) Todas las opiniones tienen la misma incidencia social
A fin de minimizar los riesgos de falta de veracidad en las respuestas, las encuestas tienden a ser anónimas y
garantizando la confidencialidad de los datos.
.C
de los indicadores y la confiabilidad de los instrumentos de registro y b) las limitaciones de las muestras
utilizadas. La primera se intenta controlar, por un lado, testeando los indicadores antes de aceptarlos como
válidos, y por otro, sometiendo el cuestionario al control de una prueba piloto, mientras que la validez de la
muestra depende de las técnicas de selección que se utilicen.
DD
Otras limitaciones operan durante el trabajo de campo, donde se generan la mayor parte de los errores que no
se vinculan al diseño de los instrumentos sino a su aplicación. La mayoría se pueden minimizar a través de
un buen entrenamiento de los encuestadores y por medio de la supervisión y control de su trabajo.
Una limitación muy importante se produce cuando los encuestados se niegan a responder, debido a que una
tasa de no respuesta muy alta puede vulnerar el cumplimiento de la muestra y sesgar el resultado afectando la
LA
calidad de los datos. A fin de minimizar esto, se pueden implementar estrategias de motivación y
sensibilización en los encuestados, asi como notificarlos con anterioridad sobre la visita del encuestador.
Pero la posibilidad de llevar a cabo estas medidas depende en gran parte del tipo de población seleccionada y
los recursos con que se cuente.
La presencia del encuestador permite aclarar dudas, testear productos y mostrar piezas publicitarias u otros
materiales. Muchas veces esto permite presentar un cuestionario más largo, más aún si son en la casa del
entrevistado. La principal ventaja de la domiciliaria es introducir un elemento de azar en el diseño de la
muestra, a través del sorteo de unidades especiales dentro de un mapa de la zona a encuestar, su principal
desventaja es que resulta ser más costosa.
El método coincidental (abordaje en la vía pública) resulta eficiente cuando se estudia un segmento
Es importante tener en cuenta que le lugar donde se aborda al entrevistado puede influenciar la calidad de los
datos.
Encuestas telefónicas
Se necesita de tecnología informática que permite el marcado de números al azar y el procesamiento de datos
inmediatamente completado el trabajo de campo. La principal ventaja es el menor costo y la rapidez. Sus
desventajas: imposibilidad de alcanzar a la población sin teléfono, la restricción a un cuestionario corto y la
imposibilidad de utilizar material visual
OM
Encuestas auto administradas (sin encuestador)
Se selecciona una muestra potencial y se les hace llegar un cuestionario. La respuesta o devolución del
cuestionario es parte de la voluntad del sujeto. Esto se traduce en una baja tasa de respuesta. Se utilizan
técnicas que van desde premios hasta compartir los resultados del estudio para que la tasa sea más alta.
En estas encuestas, el cuestionario adquiere ciertas características, por ejemplo, es de poca extensión y con
.C
consignas muy claras. A veces se adjuntan imágenes.
Repartirlas por mail o por un sitio es más económico, pero el tener internet puede afectar también la muestra.
DD
Estudios comparados
El principal problema que presentan estos estudios es la comparabilidad de los datos, cuando incluyen
LA
realidades culturales, sociales o económicas muy heterogéneas. Se recomienda que se incluyan componentes
cualitativos en los diseños:
Estudios longitudinales
La estrategia metodológica del Panel reside en la utilización de la muestra. El cuestionario se aplica a una
misma muestra en diferentes ocasiones a lo largo del tiempo, de modo que resulta particularmente útil para
comprobar modificaciones en las actitudes y conductas como efecto de la participación de un estímulo o
factor determinado. Uno de los principales problemas del Panel se vincula con la mortalidad de la muestra,
en la medida de que puede perderse el contacto con algunos individuos de un registro a otro.
El cuestionario
Los no estructurados tienen la mayoría de las preguntas abiertas y se tiene total libertad para elaborar
respuestas.
La primera clasificación de preguntas se dividen en abiertas y cerradas. En las cerradas se pueden presentar
las respuestas posibles (someter al entrevistado a elegir).
OM
El diseño para las preguntas cerradas estará condicionado por el grado de conocimiento del investigador
sobre la material, el nivel de heterogeneidad de la muestra y la amplitud en la dispersión de las respuestas
que se esté dispuesto a tolerar.
La pregunta que presenta menor alternativa de respuesta es la dicotómica, ya que las respuestas son solo dos
(si/no o similar). Tiende a dividir la muestra en dos grupos de posiciones.
.C
Cuando la pregunta tiene más de dos alternativas, pero que le entrevistado elige una sola, se denomina
alternativas múltiples. Pueden ser categoriales u ordinales, que generalmente asumen formas escalares. Las
escalas, a su vez, pueden ser verbales o numéricas. Cuando en este tipo se puede elegir más de una respuesta,
adopta el nombre de “respuestas múltiples”.
DD
Cuando el conjunto de respuestas posibles es finito, conocido y no demasiado grande se puede formular una
pregunta abierta.
Cuando una pregunta cerrada tiene un numero grande de categorías de respuesta, se puede utilizar una
“tarjeta” (instrumento que ayuda a guiar al encuestado) donde figuran las alternativas de respuesta.
LA
El conjunto de respuestas de una pregunta cerrada contribuye a una clasificación y debe cumplir: todas las
respuestas son mutuamente excluyentes y conjuntamente exhaustivas, para cumplir con esto último, toda
pregunta llevará una respuesta residual (otra)y una categoría para registrar la falta de respuesta (ns/nc).
Otra estrategia es la formulación de frases. Consiste en redactar un conjunto de frases que expresan
diferentes posiciones respecto a un tema y solicitar que el entrevistado manifieste su posición sobre ellas.
Esta técnica tiende a usarse cuando se indagan temas controversiales o conflictivos, su ventaja es que las
FI
frases son presentadas como dichas por otras personas y generan en el respondente una sensación de menor
compromiso al considerarse formando parte de algún grupo.
Cuando se quiere indagar sobre preferencias, se puede presentar un listado donde se ordene según algún
criterio. Otro tipo de preguntas llamadas filtro o de pase son aquellas cuyas respuestas reorienta a diferentes
Tanto el orden de las preguntas en el cuestionario como el orden que adopten las respuestas al interior de
cada pregunta cerrada pueden influir en los resultados. A fin de controlar esto se recomienda realizar una
prueba piloto del cuestionario y alterar la presentación de las respuestas entre los encuestados, en particular
cuando tienen muchas alternativas. De este modo, se minimizan los efectos de respuestas sistemáticas.
A la hora de diseñar, es necesario tener en cuenta que la influencia de las preguntas sobre las respuestas está
condicionada en gran parte por el lenguaje. Se da por supuesto que se reconoce el sentido de la pregunta tal
como fue formulada (supuesto de interpretabilidad) pero esto no es siempre así. El lenguaje conlleva
intención y perspectiva que no siempre son compartidas. El interpelado reconstruye el sentido de la pregunta,
y su respuesta estará asociada a esto.
Muchas palabras a veces tienen una gran ambigüedad e imprecisión y pueden adquirir sentidos diferentes
para los encuestados. También puede ocurrir que se utilice un lenguaje técnico que muchos no comprendan.
Se vuelve importante en el diseño del cuestionario, minimizar la utilización de palabras y expresiones vagas.
OM
El término metodología designa el modo en que enfocamos los problemas y buscamos las respuestas. En las
ciencias sociales se aplica a la manera de realizar la investigación. Nuestros supuestos, intereses y propósitos
nos llevan a elegir una u otra metodología.
.C
En las ciencias sociales han prevalecido dos perspectivas teóricas principales. La primera, el positivismo,
reconoce su origen en el campo de las ciencias sociales en los grandes teóricos del siglo XIX y primeras
décadas del XX, especialmente August Comte (1896) y Emile Durkheim (1938, 1951). Los positivistas
DD
buscan los hechos o causas de los fenómenos sociales con independencia de los estados subjetivos de los
individuos.
La segunda perspectiva teórica principal… fenomenológica, posee una larga historia en la filosofía y la
sociología. El fenomenólogo quiere entender los fenómenos sociales desde la propia perspectiva del actor.
Examina el modo en que se experimenta el mundo. La realidad que importa es lo que las personas perciben
LA
como importante…
Puesto que los positivistas y los fenomenólogos abordan diferentes tipos de problemas y buscan diferentes
clases de respuestas, sus investigaciones exigen distintas metodologías. Adoptando el modelo de
investigación de las ciencias naturales, el positivista busca las causas mediante métodos tales como
cuestionarios, inventarios y estudios demográficos, que producen datos susceptibles de análisis estadístico.
FI
El fenomenólogo busca comprensión por medio de métodos cualitativos tales como la observación
participante, la entrevista en profundidad y otros, que generan datos descriptivos. En contraste con lo que
ocurre en el caso de las ciencias de la naturaleza, el fenomenológo lucha por lo que Max Weber (1968)
denomina VERSTEHEN, esto es, comprensión en un nivel personal de los motivos y creencias que están
detrás de las acciones de la gente…
Los orígenes del trabajo de campo pueden rastrearse hasta historiadores, viajeros y escritores que van desde
el griego Heródoto hasta Marco Polo. Pero sólo a partir del siglo XIX y principios del XX lo que ahora
denominamos métodos cualitativos fueron empleados conscientemente en la investigación social.
El estudio de Frederick LePlay de 1855 sobre familias y comunidades europeas representa una de las
primeras piezas auténticas de observación participan. En antropología, la investigación de campo hizo valer
sus méritos hacia principios del siglo. Boas (1911) y Malinowski (1932) establecieron el trabajo de campo
como un esfuerzo antropológico legítimo.
Desde la década de 1960 resurgió el empleo de los métodos cualitativos. Se han publicado tantos estudios
vigorosos y profundos basados en estos métodos que ha sido imposible restarles importancia.
Metodología Cualitativa
Refiere en su más amplio sentido a la investigación que produce datos descriptivos: las propias palabras de
las personas, habladas o escritas, y la conducta observable… Es un modo de encarar el mundo empírico:
1. La investigación cualitativa es inductiva.
2. En la metodología cualitativa el investigador ve al escenario y a las personas en una perspectiva holística;
OM
las personas, los escenarios o los grupos no son reducidos a variables, sino considerados como un todo.
3. Los investigadores cualitativos son sensibles a los efectos que ellos mismos causan sobre las personas que
son objeto de su estudio.
4. Los investigadores cualitativos tratan de comprender a las personas dentro del marco de referencia de ellas
mismas. Para la perspectiva fenomenológica y por lo tanto para la investigación cualitativa es esencial
experimentar la realidad tal como otros la experimentan.
5. El investigador cualitativo suspende o aparta sus propias creencias, perspectivas y predisposiciones. Ve las
.C
cosas como si ellas estuvieran ocurriendo por primera vez. Nada se da por sobrentendido. Todo es un tema
de investigación.
6. Para el investigador cualitativo, todas las perspectivas son valiosas. Este investigador no busca "la verdad"
o "la moralidad" sino una comprensión detallada de las perspectivas de otras personas. A todas se las ve
DD
como a iguales.
7. Los métodos cualitativos son humanistas. Los métodos mediante los cuales estudiamos a las personas
necesariamente influyen sobre el modo en que las vemos. Llegamos a conocerlas en lo personal y a
experimentar lo que ellas sienten en sus luchas cotidianas en la sociedad. Aprendemos sobre conceptos tales
como belleza, dolor, fe, sufrimiento, frustración y amor, cuya esencia se pierde en otros enfoques
investigativos.
8. Los investigadores cualitativos dan énfasis a la validez en su investigación. Los métodos cualitativos nos
LA
permiten permanecer próximos al mundo empírico. Están destinados a asegurar un estrecho ajuste entre los
datos y lo que la gente realmente dice y hace.
9. Para el investigador cualitativo, todos los escenarios y personas son dignos de estudio.
10. La investigación cualitativa es un arte. Los métodos cualitativos no han sido tan refinados y
estandarizados como otros enfoques investigativos. Los investigadores cualitativos son flexibles en cuanto al
FI
modo en que intentan conducir sus estudios. El investigador es un artífice. El científico social cualitativo es
alentado a crear su propio método. Se siguen lineamientos orientadores, pero no reglas. Los métodos sirven
al investigador; nunca es el investigador el esclavo de un procedimiento o técnica.
Teoría y metodología
Para el fenomenólogo, la conducta humana, lo que la gente dice y hace, es producto del modo en que define
su mundo. La tarea del fenomenólogo y de nosotros, estudiosos de la metodología cualitativa, es aprehender
este proceso de interpretación. La perspectiva fenomenológica está ligada a una amplia gama de marcos
teóricos y escuelas de pensamiento en las ciencias sociales. Dos enfoques teóricos principal, el
interaccionismo simbólico y la etnometodología, se han convertido en fuerzas dominantes en las ciencias
sociales y pertenecen a la tradición fenomenológica.
El interaccionismo simbólico atribuye una importancia primordial a los significados sociales que las
personas asignan al mundo que las rodea. Blumer (1969) afirma que el interaccionismo simbólico reposa
sobre tres premisas básicas. La primera es que las personas actúan al respecto de las cosas e incluso respecto
Este proceso de interpretación actúa como intermediario entre los significados o predisposiones a actuar de
cierto modo y la acción misma. Las personas están constantemente interpretando y definiendo a medida que
pasan a través de situaciones diferentes. Podemos ver por qué diferentes personas dicen y hacen cosas
distintas. Una razón es que cada persona ha tenido diferentes experiencias y ha aprendido a ver las cosas de
OM
cierta manera.
Finalmente, el proceso de interpretación es un proceso dinámico. La manera en que una persona interprete
algo dependerá de los significados de que se disponga y de cómo se aprecie una situación.
Desde una perspectiva interaccionista simbólica, todas las organizaciones, culturas y grupos están
constituidos por actores envueltos en un proceso constante de interpretación del mundo que los rodea.
.C
Aunque estas personas pueden actuar dentro del marco de una organización, cultura o grupo, son sus
interpretaciones y definiciones de la situación lo que determina la acción, y no normas, valores, roles o
metas.
DD
La etnometodología no se refiere a los métodos de investigación sino al tema u objeto de estudio: cómo
(mediante qué metodología) las personas mantienen un sentido de la realidad externa (Mehan y Wood). Para
los etnometodólogos, los significados de las acciones son siempre ambiguos y problemáticos. Su tarea
consiste en examinar los modos en que las personas aplican reglas culturales abstractas y percepciones de
sentido común a situaciones concretas, para que las acciones aparezcan como rutinarias, explicables y
carentes de ambigüedad. En consecuencia, los significados son un logro práctico por parte de los miembros
LA
de la sociedad.
Los etnometodólogos ponen entre paréntesis o suspenden su propia creencia en la realidad para estudiar la
realidad de la vida cotidiana. Garfinkel (1967) ha estudiado las reglas del sentido común o sobreentendidas
que rigen la interacción en la vida cotidiana a través de una variedad de experimentos maliciosos que él
denomina "procedimientos de fractura". Mediante el examen del sentido común, el etnometodólogo trata de
FI
entender cómo las personas "emprenden la tarea de ver, describir y explicar el orden en el mundo en el que
viven".
Una vez concebida la idea del estudio, el investigador debe familiarizarse con el tema en cuestión.
Aunque l enfoque cualitativo es inductivo, necesitamos conocer con mayor profundidad el “terreno
que estamos pisando”. El planteamientocualitativo suele incluir los objetivos, las preguntas de
investigación, la justificación y la vialidad, además de una exploración de las deficiencias en el
conocimiento del problema y la definición inicial del ambiente o contexto. Los objetivos y
preguntas poseen una naturaleza distinta en la investigación cualitativa, ya que esta no se busca
precisar ni acotar el problema o fenómenos de estudio al comenzar el proceso. Tales elementos del
OM
planteamiento son más bien enunciativos y constituyen un punto de partida en la investigación. Las
justificación es importante, al igual que en los planteamientos cuantitativos, particularmente cuando
el estudio necesita de la aprobación de otras personas. Finalmente requieren una razón para llevarse
a cabo.
.C
En relación con las deficiencias en el conocimiento del problema, constituyen un elemento que se
considera principalmente si se decide a revisar la literatura relacionada con el tema de la
investigación. Sobre este tópico comentaremos más adelante en este capítulo. Puede ocurrir que
DD
pretenda plantear un problema cualitativo cuando hay poca investigación inductiva respecto a un
tema; esto es, que se han realizado diversos estudios cuantitativos, pero no se indagado el fenómeno
de manera cualitativa o se requiere profundizar en ciertos resultados de tales estudios. Una
comparación entre planteamientos cuantitativos podría ser el que se comenta a continuación.
LA
Planteamientos cualitativos
OM
implica proveer de ideas no contempladas, pero que, desde luego, se ajustan al contexto y desarrollo
del estudio, que al final, le permite al investigador “ir mas allá del evento local”, al relacionarlo con
eventos similares.
.C
profundizar las interpretaciones. Y cabria agregar que entre la literatura y los datos emergentes,
estos tienen la “última palabra”.
investigación cualitativa?
¿Qué papel desempeñan las hipótesis en el proceso de
DD
En los estudios cualitativos, las hipótesis adquieren un papel distinto al que tienen en la
investigación cuantitativa. En primer término, en raras ocasiones se establecen antes de ingresar en
el ambiente o contexto y comenzar la recolección de los datos. Más bien durante el proceso, el
investigador va generando hipótesis de trabajo que se afinan paulatinamente conforme se recaban
más datos, o las hipótesis son uno de los resultados del estudio. Las hipótesis se modifican sobre la
LA
Las hipótesis de trabajo cualitativas son, emergentes, flexibles y contextuales, se adatan a los datos
y avatares del curso de la investigación. Una vez hecho el planteamiento inicial y definido el
papel de la literatura ¿qué sigue?
FI
En ingreso en el ambiente (campo) Una vez después de elegir un ambiente, contexto o lugar
apropiado, se comienza la tarea de responder a las preguntas de investigación. El ambiente puede
ser tan variado como el planteamiento del problema. Y el contexto implica una definición
geográfica, pero es inicial, puesto que puede variar, ampliarse o reducirse. Un tipo de estudios muy
socorrido es el denominado “clientes misteriosos” donde personas que son supuestos clientes
La primera tarea es explorar el contexto que se seleccionó inicialmente. Los que significa visitarlo y
evaluarlo para cerciorar que es el adecuado. Se debe seleccionar ambientes o lugares alternos, en
caso de que el acceso al contexto original sea negado restringido más allá de lo razonables. Desde
luego, también se debe visitar.
OM
estudios de etnias. También, puede tenerse un diseño de investigación participativa, en el cual de las
mismas personas del contexto colaboran en diferentes partes de estudio.
.C
ruidoso” y más efectivo. La planificación no es exacta y debemos estar preparados ante cualquier
contingencia que sueleocurrir en los estudios cualitativos.
serie de actividades físicas y mentales para el investigador investigadora, entre las que podemos
mencionar:
• Observar los eventos que ocurren en el ambiente. Aspectos explícitos e implícitos, sin imponer
puntos de vista y tratando, de evitar es desconcierto o interrupción de actividades de las personas en
el contexto. Tal observación es holística, pero también toma en cuenta la participación de los
FI
Los planteamientos cualitativos suelen incluir los objetos, las preguntas de investigación, la
justificación y la vialidad, además de una exploración de las eficiencias en el conocimiento del
problema y la definición inicial del ambiente o contexto
Los objetivos y preguntas son más generales y enunciativos en los estudios cualitativos.
Los elementos de justificación de los planteamientos cualitativos son los mismos que en los
OM
CAPITULO 15
¿Cuáles son los diseños básicos de la
investigacióncualitativa?
El diseño sistemático
LA
Codificación abierta
El investigador revisa todos los segmentos del material para analizar y genera categorías iníciales
del significado. Elimina asi la redundancia y desarrolla evidencia para las categorías.
FI
Codificación axial
De todas la categorías codificadas de forma abierta, el investigador selecciona la que considera más
importante y la posicionas en el centro del proceso que se encuentra en exploración. Posteriormente,
relaciona a la categoría central con otras categorías. Pueden tener distintas funciones en el proceso:
* Condiciones causales
* Acciones o interacciones
* Consecuencias
* Estrategias
* Condiciones contextuales
* Condiciones intervinientes(Hernández, et al, 2010, p.494)
La categoría central clave:
* Debe ser el centro del proceso o fenómeno
* Todas o la mayoría de las demás categorías deben vincularse con ella
* Debe aparecer frecuentemente en todos los datos
* Su saturación es regularmente rápida
* Su relación con el resto de categorías debe ser lógica y consistente
* El nombre o frase que identifique a la categoría debe ser lo suficientemente abstracto
Cuando las condiciones varian, la explicación se mantiene; desde luego, la forma en la cual se
expresa el fenómeno o proceso puede visualizarse un poco diferente.
Codificación selectiva
Una vez generado el esquema, el investigador regresa a las unidades o segmentos y los compara con
su esquema emergente para fundamentarlo. De esta comparación también surgen hipótesis que
establecen las relaciones entre categorías y temas. (Hernández, et al, 2010, p.496)
El diseño emergente
OM
Se efectúa la codificación abierta y de esta emergen las categorías, que son conectadas entre sí para
construir teoría. Al final, el investigador explica esta teoría y las relaciones entre categorías.
(Hernández, et al, 2010, p.498)
DISEÑOS ETNOGRAFICOS
Se dividen en:
.C
practicas de grupos, culturas y comunidades.
Diseños realistas o mixtos: Estos diseños tienen un sentido parcialmente positivista. Se recolectan
DD
datos tanto cuantitativos como cualitativos, de la cultura, comunidad o grupo de ciertas categorías.
Diseños críticos: El investigador está interesado en estudiar grupos marginados de la sociedad o de
una cultura. Analizan categorías o conceptos vinculados con cuestiones sociales, como el poder, la
injusticia, la hegemonía, la represión y las victimas de la sociedad. (Hernández, et al, 2010, p.502)
LA
Etnografía de corte transversal: se realizan estudios en un momento determinado de los grupos que
se investigan y no procesos interaccionales o procesos a través del tiempo.
Etnografía etnohistórica: implica el recuento de la realidad social actual como producto de sucesos
históricos del pasado. (Hernández, et al, 2010, p.503)
DISEÑOS NARRATIVOS
En los diseños narrativos el investigador recolecta datos sobre las historias de vida y experiencias
de ciertas personas para describirlas y analizarlas. (Hernández, et al, 2010, p.504)
Algunas consideraciones son las siguientes:
* El elemento de los datos narrativos lo constituyen las experiencias personales, grupales y sociales
de los actores o participantes.
* La narración debe incluir una cronología de experiencias y hechos.
DISEÑOS DE INVESTIGACION-ACCION
INVESTIGACION-ACCION
INVESTIGACION-ACCION
OM
Participativo
Participativo
Práctico
Práctico
* Estudia temas sociales que constriñen las vidas de las personas en un grupo o comunidad
* Resalta la colaboración equitativa de todo el grupo o comunidad
.C
* Se enfoca en cambios para mejorar el nivel de vida y desarrollo humano de los individuos
* Emancipa a los participantes y al investigador
* Estudia temas sociales que constriñen las vidas de las personas en un grupo o comunidad
* Resalta la colaboración equitativa de todo el grupo o comunidad
DD
* Se enfoca en cambios para mejorar el nivel de vida y desarrollo humano de los individuos
* Emancipa a los participantes y al investigador
* Estudia prácticas locales
* Involucra indagación individual o en equipo
* Se centra en el desarrollo y aprendizaje de los participantes
LA
Bibliografía complementaria
Capítulo 10: la observación. Marradi
Introducción
Es el acto y efecto de observar, que a su vez significa mirar o examinar con atención. Se trata de
una actividad con presencia constante y recurrente en la vida cotidiana.
La idea de ruptura destaca el quiebre entre ambos mundos, y se inscribe en el marco de una
concepción que le asigna a la ciencia un lugar privilegiado, inmune a las contaminaciones del
conocimiento ordinario que caracteriza a la vida cotidiana.
En tiempos más recientes se ha tendido a favorecer la idea de continuidad entre ciencia y vida
OM
cotidiana, y en ese sentido se ha destacado que las competencias observacionales desarrolladas en la
vida social, junto con esfuerzo reflexivo y crítico, constituye un fundamento de notable no solo para
aprender y comprender el significado de la observación científica, sino también para llevarla a cabo
de manera apropiada. La observación común y generalizada puede transformarse en una poderosa
herramienta de investigación social y técnica científica.
.C
Todos los métodos de investigación científica son en algún sentido observacionales. Una distinción
entre las formas de observación se puede establecer a partir de la coincidencia (o no) entre el sujeto
observador y el objeto/sujeto observado. Cuando ambos coinciden se habla de una autoobservación,
DD
que será más o menos introspectiva según el grado de profundidad del análisis.
contacto directo con el fenómeno de interés, y esto se puede hacer de manera controlada (a través de
experimentos) o no controlada, cuando se observa la situación en su ambiente natural, sin alterar el
contexto artificialmente. Tambien es frecuente hablar de controlada como la que se hace en un
laboratorio, y no controlada a la que se hace como observación de campo. Esta última puede ser
participante o no participante, según se observe el fenómeno “desde adentro” o “desde afuera”.
FI
de tales dispositivos. En este sentido, se puede distinguir entre los instrumentos que amplían la
capacidad de los sentidos, y en un modo más general, aquellos que hacen posible acceder a través
de ellos a la observación de un espacio/objeto dado.
Gold profundizó en la caracterización de los tipos ideales de roles de trabajo de campo que el
cientista social puede adoptar a partir de la observación y la participación. Su tipología se basa en
dos criterios: el grado de participación y el grado de revelación de la actividad de observación. De
aquí surgen los 4 tipos teóricos: participante completo, participante como observador, observador
como participante y observador completo.
El observador como participante es el típico rol de quien limita el trabajo de campo a una entrevista.
La actividad de observación es más bien formal, ya que no se dan las condiciones para una
observación y participación informales a lo largo del tiempo.
El observador completo es aquel que no interactúa socialmente con los sujetos investigados. Se
limita a observar intentando que su actividad pase inadvertida.
OM
Se plantea que hay dinamismo y conexión entre estos 4 y no caminan por separado, inclusive a lo
largo de un mismo estudio se pueden adoptar todos. Inclusive, el rol no se da solo por el
investigador, ya que este es también es observado.
En vez de pensar en tipos cerrados de observación y participación, muchos autores favorecen la idea
de un continuum de diversas combinaciones posibles
.C La observación participante
Se distingue entre dos modos: pasivo y activo. Los modos pasivos se observación implica el mirar y
el escuchar, mientras que el activo es el conversar. Los modos pasivos de participación son el estar
y el hacer; el modo activo es el compartir. A partir de estas observaciones, se distingue entre la
LA
observación participante en un sentido débil (modo pasivo) y fuerte (modo activo). Autores están
más de acuerdo con un modo u otro.
La observación participante también puede adquirir diferentes setnidos según cual sea la relación de
membresía del investigador con respecto al grupo que estudia; el observador puede ser miembro
FI
(nativo o no nativo), puede hacerse pasar por un miembro, o desarrollar un rol de observador
paticipante en el grupo en el sentido del “participante como observador”.
observador como un “extraño que está dentro” de la comunidad, que adquiere ciertas competencias
sociales necesarias para participar en ella, pero uqe no debe hacer propias las ideas y valores
característicos de ésta. En otras palabras, no debe ser un miembro activo ni convertirse en uno.
Se han discutido los límites de la interpretación de una cultura extraña sin que medien procesos de
resocialización en el juego del lenguaje que esa cultura implica. Se han puesto en cuestión la
posibilidad de “traducción” de una cultura a los términos de otra partir de una racionalidad que le es
ajena. La supuesta “objetividad” puede convertirse en un obstáculo para acceder al sentido de
ciertas prácticas sociales y culturales.
Igualmente, la visión canónica ha tendido a favorecer las ventajas del observador profesional no
nativo. Las diferencias entre el rol técnico del observador participante y el papel del profano de
participación típico de un miembro nativo del grupo son el contraste de propósitos, los modos de
atención, los ángulos de observación, la experiencia, introspección y registro.
OM
Uno de la observación participante en la investigación social. Ventajas y límites
.C
acordes a la lógica de la contrastación) ha sido desafiada por muchos científicos sociales.
Entre sus límites señala que hay importantes cuestiones de interés para las ciencias sociales que no
son pasibles de observación directa, o al menos observación participante. También las limitaciones
para fenómenos que tienen su raíz psicológica profunda, y que requieren métodos indirectos.
También se destaca como negativo el tiempo que lleva la observación participante.
FI
Pero las ventajas o límites deben entenderse como en relación a otros métodos observacionales y el
objeto de interés de una investigación.
Para maximizar las ventajas y restringir los límites de la observación participante, especialmente en
términos de fiabilidad, se suele sugerir una serie de estrategias y recomendaciones:
a) Analizar críticamente la información provista por informantes clave, prestando especial atención
a su estatus en el marco de la situación/comunidad/grupo observado.
b) Llevar un registro de lo que se percibe como efecto reactivo, en particular lo que se conoce como
notas metodológicas
c) Realizar cruces y controles con los resultados de observación realizados por otros miembros del
equipo, y complementar la observación con entrevistas y documentos de distinta naturaleza.
Las críticas más frecuentes remiten a la fiabilidad y validez. Autores afirman que los problemas de
fiabilidad y validez tienden a solucionarse si se contrastan las perspectivas de varios investigadores.
Se recurre a lo que se conoce como notas de campo. Bajo este rotulo, hay distintas modalidades de
registro.
La forma más común de distinción del registro informacional escrito involucra las notas
observacionales, teóricas y metodológicas, también llamadas sustantivas, analíticas y
metodológicas. Las primeras son el registro descriptivo de lo observado. En ellas es importante
rescatar el lenguaje nativo, lo espontáneo y limitando las interpretaciones. Como todo lleva un
ejercicio analítico, se realizan notas teóricas o analíticas Estos son intentos preliminares del
observador para dar sentido a lo que observa. Las notas metodológicas son ap untes descriptivos
acerca del investigador y el proceso de investigación, por ejemplo, las decisiones que toma en el
campo.
OM
Otro autor distingue entre notas condensadas, que se realizan mientras se lleva a cabo la
observación, y notas expandidas, que se realizan fuera del campo y que son más detalladas.
.C
Capítulo 12: la entrevista en profundidad. Marradi
Introducción
DD
En las ciencias sociales, la entrevista se refiera a una forma especial de encuentro: una conversación
LA
a la que se recurre con el fin de recolectar determinado tipo de información en el marco de una
investigación. Se trata de una técnica muy utilizada.
terapia, etc. El entrevista de investigación social podría concebirse como una forma especial de
conversación profesional. Se diferencia de la psicoterapia en que su objetivo primario es conocer y
no, en cambio, modificar actitudes o conductas del entrevistado.
Podemos definir la entrevista en profundidad como una forma especial de conversación entre dos
personas, dirigida y registrada por el investigador con el propósito de favorecer la producción de un
discurso conversacional continuo y con cierta línea argumental por parte del entrevistado, acerca de
un tema de interés definido en el marco de la investigación.
Tipos de entrevista
Se propone una tipología para clasificarla basada en dos criterios: la presencia (o no) de un contacto
visual directo entre entrevistador y entrevistado, y el grado de libertad concedido a los actores en la
situación de entrevista, ya sea al preguntar o al responder.
OM
forma especial de entrevista semiestructurada a partir de un estímulo particular, se trata de historias
en las que se narran episodios de la vida cotidiana y que el entrevistador cuenta al entrevistado para
luego explorar sus reacciones y reconstruir sus preferencias valorativas.
.C
circunscrito en el tiempo –entre personas relativamente extrañas- exige a la vez intimidad e
impersonalidad, profesionalismo en un marco de sociabilidad.
Es un proceso comunicativo por el cual el investigador extrae una información de una persona. Pero
DD
no cualquiera, sino aquella que se encuentra en la biografía del entrevistado, la que fue
experimentada e interpretada.
Es un proceso donde se pone en juego una relación social e involucra a dos actores. Dado que la
relación es asimétrica, el entrevistador debe ser capaz de reflexionar sobre su rol, sus elecciones y
LA
sobre la dirección y sentido de la investigación. Debe tener una persistente actitud de apertura y a
encontrar aquello que no esperaba, moviéndose entre conceptualización y observación. La función
principal del entrevistador es la de escuchar.
Este tipo de entrevistas se caracteriza por el alto grado de subjetividad, para muchos esto es su
FI
Se utiliza generalmente cuando se busca acceder a la perspectiva de los actores para conocer como
ellos interpretan sus experiencias en sus propios términos. Se trata de explorar el mundo de la vida
cotidiana.
Con respecto a las ventajas, permite obtener de manera flexible u na información rica y profunda,
en las propias palabras de los actores. También señala que proporciona la oportunidad de
Con respecto a las limitaciones, se señala una desventaja en términos de tiempo, así como menor
capacidad de captar fenómenos de gran dispersión territorial y/o tipológica, menor capacidad para
generalizar resultados, mayor complejidad de registro, procesamiento y análisis. Presenta
potenciales problemas de reactividad, fiabilidad y validez. No se pueden observar fenómenos en su
ambiente natural.
OM
Cosas que influyen: la empatía del entrevistador y su habilidad para crear un clima favorable. Las
características personales (género, edad, raza, etc.) pueden potenciar ventajas y desventajas en la
entrevista en profundidad.
.C
No tiene reglas fijas. Cada investigador tiene su propio estilo de conducirla, derivado de un saber
práctico incorporado y de las propiedades sociales singulares de entrevistador y entrevistado.
Hay una serie de cuestiones que pueden planificarse de antemano. La primera es refiere a la
selección de los sujetos a entrevistar por dos motivos importantes
DD
a) Las entrevistas en profundidad se emplean casi siempre en el marco de una investigación no
estándar, que no tienen como objetivo principal la generalización estadística de sus resultados
b) Por las características mismas de la entrevista, la cantidad que se puede llevar a cabo es reducida
No existe un criterio único para la selección de entrevistados, se propone tener en cuenta:
LA
Para responder estas preguntas se recurre a diversas estrategias. La más conocida es el muestreo
intencional, en este caso el investigador seleccionará a los entrevistados de acuerdo con un conjunto
de criterios relevantes, que obviamente pueden cambiar de una investigación a otra. Se tiene en
cuenta 4 tipos de aspectos: la homogeneidad/heterogeneidad de la población; la
tipiedad/marginalidad/representatividad de los sujetos; las variables sociodemográficas y otras
cuestiones que permitan diferenciar a las personas sustantivamente en función del fenómeno de
interés. A partir de la consideración de uno o varios de estos aspectos, es frecuente segmentar a la
población formando subgrupos de los cuales se seleccionará uno o más entrevistados con el fin de
tener un panorama amplio de diferentes experiencias y discursos.
Cuando se trata de personas que no son fácilmente identificables por parte del entrevistador (por
ejemplo, una minoría) se suele recurrir a la técnica de bola de nieve: a partir de uno o unos pocos
contactos iniciales, se busca ampliar progresivamente el grupo de potenciales entrevistados que
comparan aquellas características que los hacen minoritarios o poco visibles y accesibles.
Las cuestiones de accesibilidad general se relacionan con lo que se conoce como muestreo
oportunista: se seleccionan aquellos sujetos proclives a colaborar en el estudio y donde el
entrevistador tiene acceso.
Una cuestión importante es aquella relativa al número de entrevistas. Para dar una respuesta, se
Otro aspecto clave es el diseño de la guía, también llamado guión, que se utilizará en el desarrollo.
Se trata de trazar un esquema que anticipe los modos de abordar el tema central y lo secundario.
Supone tener listas de preguntas de amplio espectro, así como argumentos que sirvan (en caso de
ser necesarios) para pasar a otros temas. Su nivel de detalle puede variar. Existe una relación directa
entre el grado de familiaridad con el tema y la capacidad de pensar de antemano la guía: a mayor
conocimiento, la guía será más exacta. No es un interrogatorio, la entrevista debe seguir su propia
dinámica.
OM
Los preparativos de la entrevista también deben incluir algunos aspectos relativos al
investigador/entrevistador.
Otro punto es el lugar donde se va a realizar la entrevista, así como la forma en que será registrada,
generalmente se graba si se tiene el consentimiento del entrevistado. No se debe dejar de tener en
cuenta el lenguaje no verbal del entrevistador, si se escribe todo, esto se pierde.
.C
A pesar de todo, la relación de entrevistador y entrevistado es imprevisible, se deberán poner en
juego las llamadas “tácticas del entrevistador”, que son conocimiento que forman parte de su oficio
y pericia y que improvisa durante el encuentro. Esto se pone en marcha a partir de las
intervenciones del entrevistador.
DD
Capítulo 13: focus group y otras formas de entrevista
LA
grupal. Marradi
El focus group
FI
Las entrevistas grupales se caracterizan por la presencia simultánea de varios entrevistados que se
relacionan a través de técnicas conversacionales. El focus group es un tipo de entrevista grupal que
se enmarca dentro de los enfoques cualitativos; su dinámica es organizar un grupo de personas para
que discutan un tema determinado que constituye el objeto de la investigación. La información es
recopilada, registrada y clasificada para su análisis.
Los miembros del grupo son seleccionados en función de los objetivos. Comparten ciertas
características, como puede ser edad, sexo, etc.
Un estudio requiere una selección adecuada de los integrantes, un moderador entrenado, un clima
Objetivos- Se desarrolla en un escenario que permite observar todos los elementos que se ponen en
juego en la discusión grupal. Se orienta hacia una pluralidad de perspectivas vinculadas a una
temática, que surge de la interacción colectiva, donde se pone al descubierto las motivaciones y
cosmovisiones de los participantes así como los usos frecuentes del lenguaje.
Se utilizan preguntas abiertas y análisis interpretativo de los datos que lo ubican dentro de una
perspectiva no estándar.
OM
La principal riqueza de la técnica reside en la reformulación de significados que se produce en una
dinámica grupal, por esto, pertenecen a un tipo de investigación interpretativa donde sl sujeto de
interpretación es un grupo social intencionalmente construido.
.C
de evaluación y en campañas publicitarias electorales.
Cada grupo se integrará de forma homogénea según ciertas características de sus integrantes, lo cual
los convierte en miembros de algún segmento de la población, o sea que aquello que hagan puede
ser interpretado como de ese segmento social. Este requisito cumple dos funciones: vinculado al
FI
El tamaño del grupo varía entre 6 y 10 personas. La selección es intencional. Un requisito es que no
se conozcan entre si. Dura entre hora y media y dos horas, durante las cuales el moderador deberá
mantener la discusión focalizada en el tópìco en cuestión. La estimulación a la discusión es
mediante preguntas abiertas, y se deberá evitar el predominio de algunas voces.
Los más utilizados, los entrevistados están en el mismo espacio. Cualquier persona puede ser
invitada a participar. La presencia simultánea genera una gran cantidad de datos que trasciende al
discurso verbal, como la gestualidad y el lenguaje corporal. Otra ventaja es que se pueden presentar
muchos materiales, como puede ser audiovisual. Sus principales desventajas residen en reclutar
sujetos en un área geográfica delimitada y que deban desplazarse hasta el lugar de reunión,
incidiendo en los costos y en la tasa de aceptación. La desgravación y transcripción demoran pero
son necesarias.
Grupos telefónicos
OM
Se permite integrar individuos que residen en lugares geográficos diferentes. Útil para reunir
personas que no asistirán a una reunión cara a cara por sus características individuales. Tiene un
menor costo, un mayor grado de anonimato, y las transcripciones son accesibles en tiempos más
cortos. La desventaja es la incapacidad de presentar material audiovisual, aunque algunas cosas
pueden ser enviadas a los integrantes por algún medio. Para hacer estos grupos, es necesario contar
con algún tipo de tecnología que permita conferencia telefónica.
Los integrantes deben tener acceso a internet. No necesitan trasladarse. Bajo costo. Se pueden
DD
trasmitir materiales audiovisuales. No se produce una dinámica interacción fluida, ya que los
sujetos tienden a tipear simultáneamente sus respuestas de forma que se producen en forma paralela
bajando la influencia entre los participantes. La transcripción se produce de forma automática.
La coordinación
LA
El coordinador trabaja con una pauta de entrevista organizada en base a la lógica que va de lo
general a lo individual. Las preguntas abiertas iniciales son más generales y permiten ubicar al
grupo en la temática; luego se acerca la discusión al objeto deseado a través de preguntas más
puntuales.
El moderador no forma parte de la discusión ni plantea posiciones, sino que le genera el clima. La
mayor dificultad radica en estimular a los participantes a profundizar en el foco de la discusión.
Puede utilizar diferentes técnicas para estimular las asociaciones, como juego sde presentación, test
proyectivos y role playing.
Generalmente en el grupo cara a cara se registra mediante audio o video, el video permite observar
el lenguaje no verbal. Posteriormente se desgraba y se transcribe para su análisis. Debe ser textual y
sin omisiones, dejando inclusive registrados los silencios. En un grupo de doble coordinación, uno
toma nota.
Una vez desgrabada, es procesada a través de su codificación y clasificación. Una vez organizada,
Todos los pasos del focus group deben reflejarse en el informe final. Debe contener los objetivos y
las estrategias, así como toda la información relevante de la puesta en marcha, así como los aspectos
formales: número de grupos, participantes, criterios y procesos de selección, fechas, cantidad de
moderadores, tipo de registro, etc. Es importante que aparezcan todas las opiniones y posiciones
expresadas, ya que en el informe no se puede incluir toda la información registrada.
OM
En algunas el énfasis no está puesto en la interacción grupal, sino en las respuestas individuales de
los integrantes. En este caso, es menos importante que los miembros se conozcan, y es habitual que
se apliquen a grupos que tengan una existencia previa dentro de una institución o comunidad. Las
dinámicas aquí son semejantes a la entrevista individual.
También es posible realizar una entrevista a miembros de un grupo en forma simultánea con un
.C
cuestionario auto administrado. Responde cada uno en forma individual, no existe interacción. Aquí
se procesa al igual que una encuesta.
Otro tipo puede ser la tormenta de ideas, con el fin de generar nuevas ideas, y es de carácter
DD
inestructurado y exploratorio.
El grupo terapéutico es otra forma particular orientada a la elaboración colectiva de problemas que
afectan la vida individual. Se relaciona a la búsqueda de ayuda a través de procesos emocionales
que se desatan en la interacción grupal. Es liderado por un terapeuta, quien conforma el grupo. Los
LA
Los denominados grupos nominales o técnica Delphi se usan para solucionar problemas basados en
opiniones de expertos. La idea es consultar a un grupo de especialistas sobre determinado tema y
circular las respuestas en ronda para lograr un consenso. No existe interacción simultánea o
FI
presencial, pero cada uno conoce las respuestas del resto, con lo que se puede reformular una nueva
respuesta. Los cuestionarios utilizados tienen preguntas precisas, y luego se aplican técnicas
cuantificables.
El estudio de casos (EC) se basa en un diseño de investigación orientado al análisis de las relaciones
entre muchas propiedades centradas en una sola unidad. Trabajar con muchas variables y un caso (o
muy pocos) ha dado lugar a diversas estrategias de abordaje encaminadas a la búsqueda de
OM
múltiples fuentes de evidencia.
Bartolino lo grafica como una fila de la matriz de datos cuando se trata de un estudio sincrónico (un
caso observado en el correr del tiempo) y lo diferencia del “estudio de desarrollo del caso” cuando
incorpora al tiempo como una dimensión de variación.
Sartori considera el análisis comparativo y el estudio del caso como estrategias complementarias.
.C
Otros autores incluyen en sus categorizaciones del EC la posibilidad de analizar más de un caso en
forma comparada. El primero lo denomina “estudio de caso colectivo” y el segundo se refiere a
“casos múltiples”.
DD
En algunos trabajos al EC se lo considera un método, a pesar de que resulta difícil señalar
características del EC que permitan diferenciarlo de otros métodos de investigación, asignándole la
autonomía necesaria para hablar de un método diferente. Parece más adecuado considerar una
estrategia o diseño de investigación, al cual generalmente se hace referencia en vinculación con los
métodos cualitativos o con el método comparativo.
LA
Consideramos adecuada la propuesta de Stake que sostiene que el EC no se trata de una opción
metodológica sino de la elección de un objeto de estudio; es el interés en el objeto lo que lo define y
no el método que se utiliza. Cualquier unidad de análisis puede convertirse en ese objeto (el caso) el
cual se puede tratar tanto de una unidad individual como colectiva. El objeto se puede abordar
FI
Generlamente se diseña un estudio de caso ante un objeto particular que despierta el interés del
OM
d) Las dificultades (económicas o de accesibilidad) para llevar a cabo un estudio amplio algunas
veces desembocan en la elección de uno o algunos casos como etapa previa a futuras
investigaciones más abarcativas.
.C
construcción de diversas tipológicas de EC desde diferentes enfoques:
a) Stake clasifica los EC a partir del propósito del investigador
b) Yin. Dos tipologías basadas en diferentes criterios. Por un lado distingue, según el número de
casos seleccionados, entre el EC único que concentra la atención en un solo caso y el EC múltiple
que incluye más de un caso en un mismo estudio.
FI
El diseño basado en un EC único se justifica cuando se trata de un caso crítico (utilizado para poner
a prueba una teoría) de un caso extremo (muy raro o difícil de encontrar) o de un caso revelador
(fenómenos de difícil acceso). En segundo lugar, distingue entre el EC holístico y el incrustado.
Esta distinción se basa en el número de unidades de análisis que incluye el diseño de investigación.
Es holístico cu ando se trabaja con una sola unidad de análisis, mientras que el incrustado se presta
atención a subunidades que permiten análisis más amplios.
EC Exploratorio: orientado a definir preguntas e hipótesis para estudios posteriores más amplios.
EC descriptivos: descripción densa del caso contextualmente situado
EC Explicativo: se intenta establecer relaciones de asociación entre las variables bajo estudio en
el caso. Se orienta a estudios causales.
c) Lijphart considera que la discusión del método comparativo no está completa si no se toma en
consideración el método de EC: Diferencia a los métodos sobre la base del número de casos:
OM
iv. EC que confirman una teoría: ponen a prueba proposiciones e hipótesis
v. EC que debilitan una teoría
vi. EC desviados: con la intención de comprender o explicar casos que se desvían de teorías
generales.
Según Lijphart, los generadores y los desviados son los que más contribuyen a la construcción de
teoría.
.C
d) Satori retoma las categorías del autor anterior pero toma en cuenta solo aquellas que se vinculan
a la teoría y las denomina estudio de caso heurístico, crucial y desviado:
i. EC heurístico: útil para la generación de hipótesis
ii. EC Crucial: fortalecen o debilitan una teoría
DD
iii. EC Desviado: son los que se desvían de una proposición general o teoría establecida
e) BEnt Flyvbjerg formula una tipología de cuatro tipos de EC que no considera excluyentes entre
si:
i. EC extremo o desviado: a los casos inusuales dentro de una teoría
LA
ii. La máxima variación de casos: diseño de casos múltiples seleccionados por sus disimilitudes.
iii. EC crítico: permiten inferir conclusiones para el tipo en su conjunto. Esta vinculado a la
presencia de todas las propiedades que se intentan estudiar, afirmando algo para un caso es válido
para todos los casos.
FI
iv. EC paradigmático: son casos que resaltan características más generales de la sociedad.
La mayoría de las categorías presentadas podrían reducirse a cuatro tipos básicos definidos a partir
de dos ejes: a) el número de casos de estudio, y b) la intervención prevaleciente en la selección de
casos. Los autores han prestado mayor atención a la categorización de los estudios de caso único
vinculados con la construcción de teoría. Para los comparativistas, los estudios basados en más de
un caso se enmarcan en un método comparativo y no en el denominado EC. Por otro lado, se otorga
mayor valor a los EC con valor heurístico, ya que proveen soporte empírico, elementos
conceptuales y núcleos de sentido para la comprensión de fenómenos que los trasciende.
La función de EC en tanto control de una teoría no están exentos de debate. Se destaca la tensión
entre investigaciones basadas en muchos casos y pocas variables (método estadístico) e
investigaciones orientadas a analizar pocos casos en toda su complejidad.
La selección de casos
Cuando el caso no viene definido desde fuera de la investigación, o cuando no se trata de un caso
intrínseco, surge el problema de su selección.
En primer lugar es necesario definir la unidad de análisis (individuos, ciudades, etc.), para luego
seleccionar dentro del conjunto de unidades de análisis del caso. La selección de la unidad de
La importancia de definir los límites (acotar) está en definir que se desea incluir en la investigación
y que queda por fuera.
Stake enuncia dos criterios de selección: maximizar lo que potencialmente podemos aprender del
caso y su mayor accesibilidad.
OM
Es importante destacar que el proceso de selección y sus criterios no se agotan en la identificación
del caso, el investigador también debe establecer los niveles intermedios de análisis, es decir, hasta
donde se abordarán las complejidades del caso.
Uno de los riesgos es la selección desviada, en particular, cuando se trata de estudios para confirmar
o debilitar generalizaciones, esto es culpa de la selección no azarosa y la participación de la
subjetividad del seleccionador. Es importante hacer explícitos los criterios de selección y su
.C
relación con la teoría para evitar esto.
DD
LA
FI