Está en la página 1de 121

Metodología General 2020

TANY

MÓDULO 1:
INTRODUCCIÓN AL PENSAMIENTO METODOLÓGICO

MARRADI, ARCHENTI, PIOVANI (2007)


METODOLOGIA DE LAS CIENCIAS SOCIALES

CAPÍTULO 3
MÉTODO, METODOLOGÍA Y TÉCNICAS
Al término método se le atribuyen significados diferentes. Una de ellas es que el
método es el camino para conseguir un fin. En el lenguaje científico encontramos
método como procedimiento, técnica.

LA VISIÓN CIENTÍFICA DEL MÉTODO


Descartes proclama el papel central del método en la actividad intelectual, señalado
también por Francis Bacon.
La idea de un programa que establece con anticipación una serie no modificable de
operaciones que, de ser practicadas, garantizan el conocimiento científico sobre
cualquier argumento, es todavía hoy uno de los significados que prevalece a la
expresión “método científico”.

Una descripción puntual del método hipotético deductivo es la siguiente:


1) Se define el problema.
2) El problema se formula en los términos de un particular cuadro teórico.
3) Se imaginan una o más hipótesis, utilizando los principios teóricos ya aceptados.

1
Metodología General 2020
TANY

4) Se termina el procedimiento a utilizar en la recolección de datos para controlar la


hipótesis.
5) Se recolectan los datos.
6) Se analizan los datos para averiguar si la hipótesis es verificada o rechazada.

CRÍTICAS A LA VISIÓN CLÁSICA


No todos están de acuerdo. Dalton presume que el método científico es la única via
hacia el conocimiento; sin embargo Becker se pregunta si el método afronta
realmente todo el espectro de cuestiones metodológicas relevantes. Mokrzvcki
sostiene que el método científico esta fuera de la sociología. Las diferentes reacciones
están relacionadas con un período, en donde la orientación científica dominaba en las
ciencias sociales: se sostenía no solo que la ciencia tiene un solo método, sino que se
trata de un método santificado por los éxitos de las ciencias físicas. En los años
siguientes, esta idea de unidad del método ha sido criticada.

Una segunda línea crítica señala el peligro de que una particular serie de
conocimientos, identificada como el método científico, se reifique y se vuelva un fin
en si. SI el criterio es el respeto a un sistema de reglas, incluso una guía telefónica es
una buena investigación científica.
Son muchos los que se refieren al método como una elección. Es en la toma de
decisiones donde consiste la investigación científica. El método es, por lo tanto,
mucho más complejo que una simple secuencia unidimensional de pasos.

MÉTODO Y METODOLOGÍA
El uso de método/métodos en el sentido de técnica/técnicas ha sido y es endémico en
las disciplinas más orientadas a la investigación empírica, que están mas
frecuentemente en contacto con instrumentos operativos. Los métodos son “más
nobles y generales” que las técnicas, “discurso sobre”, por lo tanto, metodología
debería ser el discurso, estudio, reflexión sobre el método. En la investigación social
norteamericana se ha generado la costumbre de llamar “methodology” a la técnica.

Sobre la metodología se discute si ella debe ser una disciplina prescriptiva o


descriptiva. La contraposición descriptivo/prescriptivo encuentra un paralelo en la
discusión entre los dos significados que el término metodología tiene en el lenguaje
corriente de la investigación social, significado que corresponde a los dos roles del
metodólogo profesional. Cuando estudia y enseña, un metodólogo debe tener una
orientación descriptiva, es decir, debe estar abierto a aprender de las experiencias de
otros investigadores evaluándolas sin preconceptos, y dispuesto a referir en modo
sistemático y sintético aquello que ha aprendido. Cuanto utiliza sus propias
competencias, capacidad y experiencia al servicio de una investigación, suya o de
otros, el metodólogo no puede ser otra cosa que prescriptivo, en cuanto que debe
elegir los instrumentos a utilizar y como utilizarlos.

2
Metodología General 2020
TANY

LAS TÉCNICAS
También deriva del griego. Designa una capacidad artística, no aquella individual e
irrepetible, sino aquella más doméstica del artesano, transmisible de padre a hijo. En
un segundo significado, una técnica se sirve del conocimiento adquirido por las
ciencias sobre la realidad para modificar algunos aspectos de ésta. En un tercer
significado, es una ciencia la que se sirve de técnicas para conocer mejor algún aspecto
de su objeto.

Las técnicas de las que hablamos aquí son instrumentales a los fines cognoscitivos de
diversasciencias. Son los procedimientos específicos empleados en una ciencia, o por
un particular género de investigación. El adiestramiento científico tiene que ver en
gran medida con la adquisición del dominio de las técnicas.

La tarea del investigador/metodólogo consiste en escoger el camino, teniendo en


cuenta la naturaleza de los senderos presentes en el terreno, el tiempo y los recursos
disponibles.
Lo esencial del concepto del método está en lo siguiente: en la elección de las
técnicas a aplicar, en la capacidad de modificar técnicas existentes, adaptándolas a los
problemas propios y de imaginar técnicas nuevas. Una vez que un procedimiento
nuevo, o una modificación de un procedimiento, han sido ideados y son
codificados y difundidos, estos se reifican y se convierten en una técnica a
disposición de la comunidad de investigadores: no ya en una capacidad privada
sino en un objeto público.
Los resultados de una investigación dependen de las elecciones que el
investigador/metodólogo ha realizado. Es por este motivo que el informe de
investigación debe tener dedicada una amplia sección para comentar las elecciones
realizadas, evaluando sus impactos sobre los resultados (lo cual generalmente no
ocurre). Como determinantes de esta situación, convergen varios factores:
El objetivismo del investigador
El hecho de que buena parte del público se comporta como si estuviera leyendo
una novela y no se interesan por los detalles de la investigación
Las casas editoriales también se comportan como los lectores del punto anterior.
Los autores confinan el informe metodológico a un apéndice.

EPISTEMOLOGÍA Y GNOSEOLOGÍA
En lo que respecta a la relación entre metodología (y método) y epistemología,
existe un consenso general sobre el hecho de que la metodología ocupa la porción
central de un continuum analítico crítico entre el análisis de los postulados
epistemológicos que hacen posible el conocimiento social y la elaboración de técnicas
de investigación. Ocuparse de metodología es encontrarse en una continua tensión
dialéctica entre los polos de este continuum, porque si la metodología abandona su
3
Metodología General 2020
TANY

laso epistemológico se reduce a una tecnología o una práctica que ya no controla


intelectualmente. Si abandona el lado técnico, se transforma en una pura reflexión
filosófica sobre las ciencias sociales, incapaz de incidir sobre las actividades de
investigación.

Resta agregar que en uno de los polos no se encuentra tan solo la epistemología, sino
también la gnoseología, la cual reflexiona sobre los fines, doncidiones y límites del
conocimiento. Esta gnoseología es frecuentemente olvidada, las razones pueden ser
dos: una lingüística y otra sustancial. El término “gnoseology” no existe en inglés, así
que no aparece en la literatura anglosajona, aquí se usa “epistemology” para designar
la filosofía del conocimiento (gnoseología) y “philosophy of science” para lo que
nosotros llamamos epistemología.

El segundo motivo puede derivar de que todos los intentos de dar un fundamento de
certeza al conocimiento científico ha fracaso frente a la constatación, inevitable en
gnoseología, de que no puede haber nexos rígidos entre la esfera de los referentes (la
realidad), la esfera del pensamiento y la esfera del lenguaje.

MARRADI, ARCHENTI, POVANI (2007)

METODOLOGIA DE LAS CIENCIAS SOCIALES


CAPÍTULO 1

TRES APROXIMACIONES A LA CIENCIA

GALILEO Y EL MÉTODO EXPERIMENTAL

Muchos filósofos opinan que la ciencia moderna empieza a fines del siglo XVI con
Galileo.
Según la visión Aristotélica, la tarea de la ciencia era identificar la naturaleza de cada
especie de objeto del conocimiento, separando lo que es esencial y fijo (la sustancia)
de lo que es accidental y variable.

Para Galileo la tarea de la ciencia es formular, controlar y decidir aserciones acerca


de relaciones entre las propiedades de los objetos. El científico tiene que hallar la
forma matemática que estas relaciones tienen en la naturaleza. El científico debe
saber interrogar hábilmente a la naturaleza y penetrar en sus secretos. Galileo sentó
las bases del método experimental.

En su forma ideal, un experimento se obtiene solo cuando se observan los efectos de


variaciones controladas de una propiedad llamada “operativa” en otras propiedades
llamadas “experimentales” mientras se mantienen constantes todas las otras
propiedades que podrían influir sobre la segunda. La sabiduría consiste no solo en
elegir la propiedad operativa más apropiada sino también en producir cambios
perfectamente controlados en ésta, y en bloquear todas las variaciones en las otras

4
Metodología General 2020
TANY

propiedades que se sabe o se supone puedan influir sobre la experimental,


manteniéndolas efectivamente constantes.

Los objetos de muchas ciencias físicas poseen una característica que no tienen los
objetos de las ciencias sociales: son fungibles (intercambiables). Es decir, se puede
dar por sentado que los objetos del mismo tipo siempre reaccionan de la misma
manera bajo las mismas condiciones.

LÍMITES DEL MODO EXPERIMENTAL

Un límite teórico consiste en el hecho que jamás se puede excluir con seguridad que
otras propiedades, no incluidas en el modelo, influyan en la propiedad experimental.
Debido a la presencia de estas innumerables propiedades, el modelo nunca se puede
dar por “cerrado”.

Los límites prácticos consisten en que no siempre es técnicamente posible controlar


a la perfección las variaciones de la propiedad operativa, y todavía es menos posible
neutralizar perfectamente la influencia de las propiedades que se deberían mantener
efectivamente constantes.

El método experimental es adecuado para investigar relaciones mono causales,


típicamente diacrónicas. No es adecuado investigar relaciones funcionales,
típicamente sincrónicas. Tampoco es adecuado para investigar sistemas complejos de
relaciones causales, cuando hay una tupida de red de interacciones entre muchas
propiedades que ejercen influencias diferentes en diferentes combinaciones.

Estos límites tienen graves consecuencias en las ciencias sociales. La razón es que no
se pueden separar una pareja de propiedades bloqueando otras. En ciencias sociales
no se puede pensar que los objetos son fungibles y que se pueda estudiar un individuo
y extrapolar el resultado al resto de la sociedad.

LA MATRIZ DE DATOS Y EL SUPUESTO ATOMISTA


Es una herramienta elaborada por matemáticos del siglo XVI formado por un cruce
entre un haz de vectores paralelos horizontales y otros verticales.Tiene usos en
variadas disciplinas.
Permite tratar la variabilidad entre objetos del mismo tipo sin renunciar a formas de
análisis estadístico. Una vez que se ha registrado en una matriz el estado de n sujetos
en p propiedades, esta nos permite establecer cuáles son las relaciones entre las
parejas de propiedades.
EL MÉTODO DE LA ASOCIACIÓN
Se podría llamar método de asociación este que sustituye al método experimental en
las ciencias sociales siguiendo en el marco del enfoque estándar de la ciencia.

EL ENFOQUE QUE SE CONTRAPONE A LA VISIÓN


ESTÁNDAR

5
Metodología General 2020
TANY

En la aproximación comúnmente llamada “cualitativa” conviven formas de


investigación muy diferenciadas: el único rasco seguramente común a todas es un
rasgo negativo, y es la no adopción de que en la mayoría de los casos es un rechazo a
adoptar los supuestos fundamentales de la visión estándar de la ciencia. Más allá del
rechazo, estos investigadores muy a menudo comparten un valor en positivo: la
sensibilidad hacia el aporte cognoscitivo y los derechos humanos de los sujetos
conocidos, una sensibilidad que a veces se constituye en una verdadera
“epistemología del sujeto conocido”
Se siguen unos caracteres comunes que se pueden identificar en la mayoría de los
caminos no estándar de investigación:
a) Orientación para reducir al mínimo la separación entre ciencia y vida cotidiana.
Gran atención por problemas de significado y una actitud de escucha frente a la
realidad en vez de una rígida limitación a modelos a priori.
b) fuerte dependencia del contexto.
c) preferencia por los problemas micro,
d) orientación marcadamente ideográfica, descriptiva e inductiva
e) preferencia por la comprensión global de “provincias delimitadas de significado”.
f) el hecho de que la causación, si es contemplada, es considerada un proceso que se
reconstruye por medio de narraciones y no por medio de relaciones estadísticas entre
instantáneas escalonadas en el tiempo o entre variables relevadas en el mismo
momento.
g) gran importancia de las cualidades y capacidades del investigador y de sus
colaboradores
h) la dificultad para desarrollar este género de investigaciones sin caer en lo banal, en
lo gratuito, anecdótico, etc.
* RESUMEN:

Tres aproximaciones a la ciencia - Alberto Marradi

Visión estándar (consenso ortodoxo): ciencia cuantitativa. Engloba 2 métodos:

Método experimental: válido para las ciencias físicas. Galileo (S. XVI). Formular,
controlar y decidir aserciones acerca de relaciones entre las propiedades de los
objetos. Interrogar a la naturaleza eliminando las externalidades que podrían
modificar los resultados de la investigación. Ej.: para ver la velocidad de un cuerpo
en caída libre, se debe eliminar la resistencia del aire.

Método de asociación: válido para las ciencias sociales. Observación y


manipulación de las variables que afectan un objeto de estudio. Se utiliza la matriz
de datos (tabla) a cuyas propiedades deben asignarse un valor simbólico (código).
Ejemplo: Visión no estándar: ciencia cualitativa (cualidad del sujeto). Diversas
formas de investigación, todas opuestas a la visión estándar. Aplica para problemas
micro de las ciencias sociales. Implica: Tomar contacto con los sujetos, mientras

6
Metodología General 2020
TANY

desarrollan, sus actividades. Explicar de manera descriptiva y comprender el porqué


de los fenómenos.

Método más inductivo: no se busca comprobar una hipótesis, sino que va de lo


particular a lo general. Observa qué ocurre sin partir de una hipótesis, así obteniendo
resultados generalizados. Es decir, primero se observa y luego se formula una
hipótesis.

MARRADI, ARCHENTI, PIOVANI (2007)


METODOLOGIA DE LS CIENCIAS SOCIALES

CAPÍTULO 2
LOS DEBATES METODOLÓGICOS

CONTEMPORÁNEOS

Durante el siglo XX, los debates se centraron en los conceptos cualidad y cantidad.
Uno de los principales ejes de la controversia se estructuró alrededor del abordaje
elegido para dar cuenta de la relación individuo y sociedad, dando lugar a una
perspectiva centrada en el sujeto por un lado, y otra centrada en la estructura social.
La diversidad de estos enfoques y sus desacuerdos dieron lugar a debates
epistemológicos sobre el estatus científico de las ciencias sociales, y metodológicos
sobre los modelos de producir y validar el conocimiento científico en estas
disciplinas.
Al calor de estas controversias se definieron dos bandos: uno bajo la medición como
mejor medio para asegurar la cientificidad de las prácticas de investigación de las
ciencias sociales, y otro comprometido con el rechazo radical de cualquier intento de
cuantificación de la realidad social.
Estos debates cobraron actualizada en la década del 60 cuando terminaron de
popularizarse las antinomias cualitativo vs cuantitativo; explicación vs comprensión,
objetividad vs subjetividad, neutralidad vs participación; en definitiva, descripción de
la sociedad “tal cual es” vs crítica y transformación de la sociedad actual.
A partir de los 80 esta controversia epistemológica comenzó a perder fuerza. Se fue
imponiendo lo que se llamó “argumento técnico”: los métodos cuantitativos y
cualitativos son apropiados para alcanzar distintos objetivos y tratar problemas de
índole diferente, y la tarea del investigador no es apegarse estrictamente a un modelo,
sino tomar decisiones pertinentes en base al problema que se va a investigar. También
es posible pensar un problema cuyo abordaje requiere la combinación de métodos,
que fue llamado “triangulación metodológica”.

EL DEBATE INTRAPOSITIVISTA

7
Metodología General 2020
TANY

La perspectiva generalista encontró su versión metodológica más acabada con el


positivismo.
Durkheim, a la luz del modelo de las ciencias naturales, estableció una analogía entre
el objeto de las ciencias sociales (el hecho social) y las cosas, y predicó la necesidad
de tratar metodológicamente al primero igual que a la segunda. Esto venía de la mano
de un monismo metodológico, o sea, que existe un único modelo válido para todas las
ciencias. La propuesta de tomar como modelo a la física suponía que la realidad
social también estaba regida por leyes universales, susceptibles de ser descubiertas a
partir de ese mismo método científico.
Se pretendía cuantificar aspectos de la realidad social para luego poder establecer
sistemáticamente relaciones entre ellos, con el objetivo final de postular leyes
generales sobre el funcionamiento de la sociedad y de los fenómenos sociales.
A la idea de generalización se sumaban las de objetividad y externalidad: el carácter
externo y autónomo de la realidad exigía la objetividad como requisito para alcanzar
conocimiento valido.
El carácter empírico de la actividad científica, basada en la medición y el manejo de
datos como sustento de la explicación adquirió un carácter predominante a través de
la técnica de sondeo.
Popper propone una alternativa a lo antes planteado llamado falsacionismo. El habla
de un criterio de demarcación que distingue el conocimiento científico. No se
interesaba tanto en la distinción de ciencia y metafísica, su objetivo primordial era el
de diferenciar la ciencia de la pseudociencia. La pseudociencia, para Popper, es el
conocimiento que se presenta como científico pero que en realidad tiene que ver con
los mitos primitivos. La ciencia sigue un camino hipotético-deductivo, y la
característica singular del conocimiento científico es que esta conjetura debe ser
pasible de falsación, es decir, debe poder ser demostrada falsa.

La consagración del método hipotético-deductivo como única vía válida para la


producción de conocimiento científico revitalizó la idea del monismo metodológico.
Para Popper, la ciencia se ocupa de explicaciones conformadas por sistemas de
hipótesis que han resistido las pruebas de falsación, y estas pruebas solo pueden
hacerse a través de un único y mismo método.
Estas ideas fueron tomadas como base epistemológica por parte de la sociología
académica de la época y ayudó a dar sustento al “consenso ortodoxo” de las ciencias
sociales. Las propuestas de Popper pasaron a formar parte de los manuales de
metodología de la investigación social, en donde se presentaba “el” método científico.
Kuhn critica la visión de Popper y dice que la ciencia debe ser concebida como un
proceso histórico, no se trata de un producto lógico-racional que se produce en el
vacío sino de un conjunto de prácticas sociales que tienen lugar en el seno de una
comunidad científica. Su concepto clave es el paradigma. Kuhn distingue entre una
etapa preparadigmática (no hay acuerdos sobre el objeto de estudio y proliferan
corrientes) y otra etapa paradigmática (cuando un paradigma logra imponerse).
Ocurrirán “crisis” (producto de anomalías) donde la ciencia puede volver a una
situación preparadigmática y eventualmente desembocar en una revolución científica,
donde se conformará un nuevo paradigma. Kuhn (y otros) han planteado que las
ciencias sociales nunca han pasado de la etapa preparadigmática.

8
Metodología General 2020
TANY

Imre Lakatos apuesta por conciliar el falsacionismo con la perspectiva de Kuhn, es


lo que se conoce como programa de investigación. Estos programas de investigación
incluyen un núcleo duro (conjunto de hipótesis fundamentales) y un cinturón
protector (construido por hipótesis auxiliares).

LAS CRÍTICAS AL POSITIVISMO Y LOS ENFOQUES NO


ESTÁNDAR
El término hermenéutica significa interpretación, y en su sentido moderno hace
referencia a una interpretación profunda que involucra la relación compleja entre
sujeto interpretador y objeto interpretado.

La tradición hermenéutica adquirió relevancia metodológica y epistemológica para


las ciencias sociales en la medida que destacó la especificidad de su objeto de estudio,
y la consecuente necesidad de métodos propios para abordarlo, ligándolo al problema
de la interpretación.

Giambattista Vico hablaba que el conocimiento era la sabiduría práctica, y que estos
fenómenos estaban gobernados por aspectos imponderables.
Se va a ir consolidando una distinción entre el conocimiento del mundo material, para
el cual las hermenéuticas no negaban los principios y metodologías generalizadoras
de corte positiva, y el conocimiento de los fenómenos espirituales (humanos) que
requerían una interpretación profunda y que no podían ser reducidos a leyes
universales. Apareció la distinción entre aproximaciones nomotéticas (típicas de las
ciencias naturales) que tienen por objeto la postulación de las leyes generales basadas
en procesos causales uniformes, y aproximaciones idiográficas (típicas de las ciencias
humanas) cuyo objeto es el estudio de los fenómenos cambiantes que deben ser
interpretados contextualmente.

Esta tradición maduró en las ciencias sociales empíricas de Weber, un antecedente de


la perspectiva no estándar. Webber define a la sociología como una ciencia que
pretende entender la acción social, interpretándola. Pero dado que para él la acción es
un comportamiento subjetivamente significativo, promueve la comprensión como el
método adecuado para investigarla.
Desde un punto de vista instrumental y operativo, los denominados métodos
cualitativos de investigación, enmarcados en la corriente interpretativa weberiana,
abrevan el método etnográfico de la antropología clásica. Todo esto también se
enmarcaba en la investigación social no estándar.
Znaniecki propone la distinción metodológica entre inducción enumerativa (en la que
los casos son tratados como ejemplos de colectivos) e inducción analítica (en la que
cada caso ilumina aspectos de una teoría general). La inducción analítica pasará a ser
considerada como intrínsecamente etnográfica.
Con los trabajos de Park y Burgues la etnografía se reorienta hacia la propia
sociedad. Su mirada se encauza hacia la diversidad ciudadana a través del análisis de
todas las otredades urbanas. Blumer desarrolla el interaccionismo simbólico,

9
Metodología General 2020
TANY

orientado a comprender toda situación social desde la visión e interpretación del


propio actor en interacción. El método consiste en asumir el papel del actor y ver su
mudno desde su punto de vista.

A partir de los 60, las críticas a la sociología convencional abrieron la puerta a la


investigación no estándar. Se resignificaron algunas prácticas metodológicas de la
antropología clásica y de la sociología, dándoles un fundamento teórico-
epistemológico de corte interpretativista que aparentemente no habían tenido en sus
orígenes. Aquí jugaron un papel importante los aportes de la hermenéutica, el
constructivismo, la fenomenología, la teoría crítica y otros.
La traducción interpretativa intenta elucidar los procesos de construcción de sentido.
Shutz (1962) sostuvo que los individuos constituyen y reconstituyen su mundo de
experiencia. El focaliza sus estudios sobre los procesos a través de los cuales los
sujetos producen interpretaciones que dan forma a lo real en la vida cotidiana.
Sostiene que las ciencias sociales están conformadas por constructos de segundo
orden, que le dan sentido a los constructos de primer orden de los actores en la vida
cotidiana.

Heredera de la fenomenología de Schutz es la etnometodología de Garfinkel. La


preocupación de este autor se orienta a la producción, legitimación, cuestionamiento
y reproducción del orden social por las actividades interpretativas de los sujetos.
Desde esta perspectiva la conducta es descrita y explicada por su referencia a
consensos socialmente compartidos. En análisis se focaliza de otorgamiento de
sentido a partir de normas sociales que dan como resultado los criterios de
normalidad.

La corriente constructivista predica también la imposibilidad del conocimiento


objetivo, fundamentado en la existencia de múltiples realidades, construidas desde
diferentes perspectivas.

Desde la antropología interpretativa se propone la interpretación como alternativa a


las explicaciones causales de la cultura. Para Levi-Strauss, la conducta era explicada
a partir de la estructura social y el significado era indagado en las reglas constitutivas
del sistema organizador de las acciones. Considera que la descripción densa
constituye la forma adecuada para dar cuenta del proceso de formación de sentido del
sujeto.

Otra vertiente es la teoría fundamental introducida por Glaser y Strauss, como un


método para generar teoría a partir de los datos empíricos. La relación entre teoría y
datos se invierte: estos pasan de ser la instancia verificadora/falseadora a ser la fuente
de la teoría. Promueve una metodología fundada en la inducción, en la que un
muestreo estadístico es suplantado por el muestreo teórico. Las unidades de
observación se seleccionan según criterios formulados desde la perspectiva del
investigador, y el tamaño de la muestra se alcanza por saturación, es decir, cuando
ninguna observación adicional agrega nada relevante.
10
Metodología General 2020
TANY

Vinculada a la escuela de Frankfurt nace la teoría crítica, donde se incorpora la


valoración política entre los elementos del proceso investigativo. Cuestionan la
objetividad del pensamiento moderno y lo interpretan en términos de su consecuencia
política.
Existen muchas escuelas que se insertan en la teoría crítica sin tener un consenso
único, como es la crítica epistemológica y metodológica feminista, donde se
cuestiona el esencialismo, en la medida en que este apunta a la legitimación de las
relaciones de dominación entre los géneros anclados en la biología. Esto dio lugar a
nuevas categorías de análisis como el “género”.

La reactivación del interés por la investigación cualitativa a partir de la década del 60


también implicó que gran parte del debate metodológico se trasladaría desde la
oposición cuantitativo/cualitativo hacia el interior de los métodos cualitativos.
Schwandt identifica 4 ejes en el debate de lo intracualitativo:
a) Criterios y objetividad, centrado en cuál es el fundamento de las interpretaciones.
b) El alcance crítico o compromiso político, que lleva a una distinción ente teórica
descriptiva y prescriptiva.
c) La autoridad del investigador a partir de la legitimidad de la interpretación.
d) Confusión de las demandas psicológicas y epistemológicas.

Una de las principales críticas a los métodos no estándar se ha dirigido a su supuesta


falta de rigor y precisión, asi como su incapacidad para generalizar los resultados. A
partir de esto, se instaló en la agenda cualitativa la búsqueda de instrumentos
conceptuales y criterios alternativos que fuesen más adecuados para juzgar sus
procedimientos y sus productos. A pesar de todo esto, no se ha establecido un
consenso en los criterios de calidad en los estudios cualitativos. Tal vez esto se deba a
que en los 90 coexisten una multiplicidad de concepciones que tienen en común la
perspectiva del sujeto, lo cual responde a una realidad de un mundo posmoderno,
múltiple y fragmentado, donde no es posible ninguna generalización y donde
coexisten diversas perspectivas. Se da el contexto donde los límites entre los estilos
cualitativos y cuantitativos se han vuelto imprecisos.
Pierre Bordieu intentó superar el debate cualitativo/cuantitativo. Esta particularidad
promovió la superación de las típicas antinomias epistemológicas y metodológicas de
las ciencias sociales explicación/comprensión, subjetivo/objetivo, micro/macro, etc.
Bordieu buscó integrar prácticas habitualmente conocidas como cualitativas con
otras cuantitativas.
En los últimos años se han propuesto diversas formas de articulación o integración
entre las diferentes perspectivas metodológicas, se conocen como triangulación
metodológica.

11
Metodología General 2020
TANY

LAS PROPUESTAS DE SUPERACIÓN DEL DEBATE


CUALITATIVO-CUANTITATIVO: LA TRIANGULACIÓN
METODOLÓGICA Y SUS LÍMITES

Han surgido propuestas tendientes a integrar las estrategias cuali/cuanti, bajo la idea
de que ambos métodos son válidos y compatibles.
Denzin fue uno de los primeros responsables de la difusión de la idea de
triangulación, distinguiendo cuatro formas: de datos, de investigadores, teórica y
metodológica. A su vez, promovió una diferenciación entre triangulación intramétodo
e intermétodo.
Los principales objetivos de la triangulación en las ciencias sociales son la
convergencia y la completitud, como medio de validación convergente o como modo
de alcanzar una comprensión más acabada de un mismo fenómeno, desde distintos
ángulos. Por supuesto, la idea de la triangulación también ha sido objetada.
De todos los tipos de triangulación, la metodología es probablemente la que ha
adquirido mayor difusión y popularidad, al punto de que se han acuñado nuevas
expresiones para dar cuenta de ella. Esta implica el uso conjunto de dos o más
métodos para abordar un mismo problema o problemas diferentes pero estrechamente
relacionados. El principal argumento a su favor es que de este modo se aumenta la
confianza en los resultados.

BARRHYÁNY Y CABRERA (2011)


METODOLOGÍA DE LA INVESTIGACIÓN EN
CIENCIAS SOCIALES

CAPÍTULO 2
LOS DEBATES METODOLÓGICOS

CONTEMPORÁNEOS
Ciencia, método, metodología e investigación social son conceptos claves para este
curso-texto. A lo largo del mismo se presentan elementos que permiten al estudiante
aproximarse a sus definiciones con una mirada crítica. Estas reflexiones básicas
deberán ser profundizadas tanto a lo largo de su etapa estudiantil como en su
desarrollo profesional.
La Real Academia Española define estos conceptos de la siguiente manera:
• Método. Procedimiento que se sigue en las ciencias para hallar la verdad y
enseñarla.
• Metodología. Ciencia del método. Conjunto de métodos que se siguen en una
investigación científica o en una exposición doctrinal.
• Ciencia. Conjunto de conocimientos obtenidos mediante la observación y el
razonamiento, sistemáticamente estructurados y de los que se deducen principios y
leyes generales.

12
Metodología General 2020
TANY

Estas definiciones se complejizan e incluso se modifican cuando se profundiza en


discusiones sobre los alcances de la ciencia, el conocimiento que genera y las formas
de construir este conocimiento.

Ander Egg (1993) plantea una definición más completa de ciencia, como un conjunto
de conocimientos racionales, ciertos o probables, que obtenidos de manera metódica
y verificados en su contrastación con la realidad, se sistematizan orgánicamente
haciendo referencia a objetos de una misma naturaleza y cuyos conocimientos son
susceptibles de ser transmitidos.

Esa manera metódica de obtener conocimientos es el «método científico». Los


métodos constituyen una serie de pasos que el investigador sigue en el proceso de
producir conocimiento. Se trata de una serie de operaciones, reglas y procedimientos
fijados de antemano de manera voluntaria y reflexiva para alcanzar un determinado
fin, que puede ser material o conceptual.
El «método científico» es un modo de formular cuestiones y resolver problemas sobre
la realidad del mundo y la realidad humana, basándose en la observación y en teorías
ya existentes, anticipan soluciones a esos problemas y contrastándolos con la misma
realidad mediante la observación de los hechos, las clasificaciones y su análisis. Se
caracteriza por ser teórico, hipotético, empírico, inductivo y deductivo. A su vez es
crítico, acumulativo y analítico, y se atiene a reglas metodológicas formales.
Autores como Beltrán cuestionan la posibilidad de hablar del método científico como
una forma única de proceder para generar conocimiento en las ciencias:
En primer lugar, me parece sumamente problemático que exista algo que pueda ser
llamado sin equivocidad el método científico: no solo porque la filosofía de la ciencia
no ha alcanzado un suficiente grado de acuerdo al respecto, sino porque la práctica de
la ciencia dista de ser unánime. O al menos, tal método, único y universalmente
aceptado, no existe en forma detallada y canónica; aunque es evidente que bajo la
forma de una serie de principios básicos sí que podría considerarse existente (1985: 7-
8).
Beltrán menciona un conjunto de principios básicos que tienen en común distintas
formas de hacer ciencia:
• Las actitudes que fundamentan la cultura del discurso crítico;
• El recurso a la comunidad científica como arbitró, y reconocedor de la verdad
científica;
• La contrastación posible con la evidencia empírica disponible;
• El juego mutuo de teoría y realidad en la construcción de una y otra;
• La exclusión deliberada de la manipulación o el engaño;
• La renuncia a la justificación absoluta de la verdad encontrada.

13
Metodología General 2020
TANY

El mencionado autor plantea: Estos y otros muchos principios que podrían


recogerse aquí constituyen hoy día elementos prácticamente indisputados del método
científico. Pero solo eso, y nada menos que eso.
De aquí que, sin desconocer realidad tan abrumadora, haya que escuchar con
escepticismo las apelaciones, tan enfáticas como ruidosas, a un método científico
riguroso, detallado, universal y «manualizable»: tal cosa, ciertamente, no existe
(1985: 8).
El «método científico» es utilizado en el proceso de la investigación social para
obtener nuevos conocimientos en el campo de la realidad social, o bien estudiar una
situación para diagnosticar necesidades y problemas a efectos de aplicar los
conocimientos con fines prácticos.
La metodología está conformada por procedimientos o métodos para la construcción
de la evidencia empírica. Se apoya en los paradigmas, y su función en la
investigación es discutir los fundamentos epistemológicos del conocimiento.
Específicamente, reflexiona acerca de los métodos que son utilizados para generar
conocimiento científico y las implicancias de usar determinados procedimientos.
Por ejemplo: el papel de los valores, la idea de causalidad, el papel de la teoría y su
vinculación con la evidencia empírica, el recorte de la realidad, los factores
relacionados con la validez del estudio; el uso y el papel de la deducción y la
inducción; cuestiones referidas a la verificación y falsación, además de los contenidos
y alcances de la explicación e interpretación. Dado que los métodos se sustentan
sobre principios epistemológicos y metodológicos, es necesario que exista una
correspondencia entre los métodos utilizados y los supuestos epistemológicos y
metodológicos.

LA EPISTEMOLOGÍA Y LA REFLEXIÓN METODOLÓGICA EN


LAS CIENCIAS SOCIALES

La epistemología constituye un estudio crítico de los principios de las diversas


ciencias, de su valor y objetividad. Implica una reflexión sobre su origen lógico, sobre
los procedimientos a través de los cuales se forman las distintas ciencias y alcanzan
un conocimiento científico. Esto quiere decir que la epistemología incluye la
metodología. A su vez, la teoría de la ciencia es parte de la epistemología y describe
la relación cognoscitiva entre el sujeto y los fenómenos, entre procesos y hechos
sociales.

Los investigadores interrogan la realidad desde teorías y modelos de análisis,


sugiriendo preguntas e hipótesis acerca de cómo contestarlas. Para responder a los
objetivos de investigación se construye la evidencia empírica utilizando métodos que
dependerán del enfoque teórico elegido.
La epistemología pretende responder algunas de estas preguntas ¿influye o no el/la
investigador/a en el objeto de investigación que, en la mayoría de los casos, está
constituido por personas? En otras palabras, ¿es posible obtener mediante la
investigación social un conocimiento que no esté perturbado por los valores del

14
Metodología General 2020
TANY

investigador/a, por sus creencias, preferencias y prejuicios? ¿Existe una ciencia libre
de valores? ¿Es posible la objetividad en las ciencias?
En términos generales, la epistemología se define como el análisis del conocimiento
científico. En términos más específicos, esta disciplina analiza los supuestos
filosóficos de las ciencias, su objeto de estudio, los valores implicados en la creación
del conocimiento, la estructura lógica de sus teorías, los métodos empleados en la
investigación y en la explicación o interpretación de sus resultados.
Los epistemólogos de las Ciencias Sociales se han referido a cinco problemas
principales:
1. los supuestos ontológicos y gnoseológicos de las Ciencias Sociales;
2. el objeto de estudio propio de estas ciencias;
3. la naturaleza de conocimiento que se va a obtener por medio de la investigación
científica;
4. la relación entre las características del objeto investigado y los valores del
investigador;
5. la función final que debe cumplir la investigación científica de acuerdo con el
modelo elegido para la construcción de las Ciencias Sociales.
Las diversas posiciones filosóficas frente a esos problemas ayudan a comprender
distintas escuelas que han surgido en la construcción de las Ciencias Sociales. El
capítulo IX presenta una breve introducción a grandes corrientes que han influido en
las Ciencias Sociales.

El término Ciencias Sociales se utiliza aquí para referirse a ciencias como la


sociología, la ciencia política, la psicología social, la antropología social. Otras
Ciencias Sociales, como la historia, la economía, el derecho, para citar
algunas, tienen sus propios enfoques teóricos y metodológicos de tal modo que
solo algunos temas y problemas específicos de esas ciencias caen en los marcos
epistemológicos que se abordarán en este texto.

TIPOS DE CONOCIMIENTO
El proceso de conocer ocurre mediante la relación que se establece entre un sujeto
que conoce y un objeto conocido. El conocimiento es un modo más o menos
organizado de concebir el mundo y de dotarlo de características que resultan en
primera instancia de la experiencia personal del sujeto que conoce. El conocimiento
que una persona adquiere de la realidad diferirá en función de cómo aborde dicha
realidad.

Es posible distinguir al menos dos tipos de conocimiento: el cotidiano, espontáneo o


vulgar, y el científico. El primero de ellos se adquiere sin ningún proceso planificado
y sin la utilización de medios especialmente diseñados. Por su parte, el conocimiento
científico exige mayor rigor para encontrar regularidades en los fenómenos, para
describirlos, comprenderlos, explicarlos y/o predecirlos. Se obtiene mediante
procedimientos metódicos con pretensión de validez, utilizando la reflexión, los

15
Metodología General 2020
TANY

razonamientos lógicos y respondiendo a una búsqueda intencionada, para lo cual se


delimitan los objetos y se prevén los modelos de investigación.

Cuadro 1. Comparación entre conocimiento cotidiano y conocimiento


científico
Algunas características del Algunas características del
conocimiento cotidiano: conocimiento científico:

Sensitivo Crítico (fundamentado)

Superficial Metódico

Subjetivo Verificable

Dogmático Sistemático

Particular Unificado

Asistemático Ordenado

Inexacto Universal

No acumulativo Objetivo
Comunicable
Provisorio

Fuente: Elaboración propia

El conocimiento científico siempre es discutible y provisorio, por lo cual requiere,


para su crítica, que se hagan explícitas las teorías y los métodos utilizados.

CONOCIMIENTO CIENTÍFICO EN CIENCIAS SOCIALES

Beltrán (1985) plantea que las Ciencias Sociales tienen formas de construir
conocimiento que se diferencian de las propias de las ciencias físico naturales debido
a la peculiaridad de su objeto.
Se trata, en efecto, de un objeto en el que está incluido, lo quiera o no, el propio
estudioso, con todo lo que ello implica; y de un objeto, podríamos decir, subjetivo, en
el sentido de que posee subjetividad y reflexividad propias, volición y libertad, por
más que estas cualidades de los individuos sean relativas al conjunto social del que
forman parte. Conjunto social que no es natural, en el sentido de que es el producto
histórico del juego de las partes de que consta y de los individuos que las componen,
siendo estos a su vez también producto histórico del conjunto, y ello en una
interacción inextricable de lo que el animal humano tiene de herencia genética y de
herencia cultural. Un objeto de conocimiento, además, reactivo a la observación y al
conocimiento, y que utiliza a este, o a lo que pasa por tal, de manera apasionada y con
arreglo a su peculiar concepción ética, limitaciones a las que tampoco escapa el
propio estudioso.

16
Metodología General 2020
TANY

Un objeto, en fin, de una complejidad inimaginable (y para colmo de males


compuesto de individuos que hablan de animales ladinos), que impone la penosa
obligación de examinarlo por arriba y por abajo, por dentro y por fuera, por el antes y
por el después, desde cerca y desde lejos; pesarlo, contarlo, medirlo, escucharlo,
entenderlo, comprenderlo, historiarlo, describirlo y explicarlo; sabiendo además que
quien mide, comprende, describe o explica lo hace, necesariamente, lo sepa o no, le
guste o no, desde posiciones que no tienen nada de neutras (Beltrán, 1985: 8).

Es decir, existen particularidades y dilemas propios a las Ciencias Sociales vinculados


a la objetividad y a la universalidad o generalización de los conocimientos. Pierre
Bourdieu, Jean-Claude Chamboredon y Jean-Claude Passeron, inspirados en la
conocida obra de Gastón Bachelard, El oficio del sociólogo, plantean que «la
familiaridad con el universo social constituye el obstáculo epistemológico por
excelencia para el sociólogo» (Bourdieu et al., 1975: 26). Siguiendo a estos autores,
puede afirmarse que la objetividad en sí misma no existe en las Ciencias Sociales,
pero es deseable tratar de alcanzarla y lograr aproximarnos al máximo.
La experiencia cultural y personal de quien investiga hace que se vea y se valore la
realidad de determinado modo, con lo que se corre el riesgo de sesgar o limitar la
posibilidad de profundizar en los espacios de esta, en los cuales se interviene
investigando. Proponen la reflexión epistemológica con la finalidad de lograr la
objetividad en su mayor alcance para poder construir el objeto de estudio. De esto se
desprende la importancia de las nociones de vigilancia y ruptura epistemológica.
LA VIGILANCIA EPISTEMOLÓGICA EN EL PROCESO DE
CONSTRUCCIÓN DEL CONOCIMIENTO

La realidad, en definitiva, no habla por sí sola. Necesita ser interrogada, organizada


alrededor de los conceptos. Pero los conceptos son elaborados o reelaborados por el
sujeto a partir de su herencia cultural y de su experiencia. Por eso tienen cierto
carácter subjetivo. El ejercicio de la vigilancia epistemológica debe ser constante y
tendiente a subordinar el uso de técnicas y conceptos a un examen continuo sobre las
condiciones y los límites de su validez. La ruptura consiste en alejar de la ciencia la
influencia de las nociones comunes, como manera de lograr la objetivación de las
técnicas de investigación. Para esto es preciso realizar una crítica lógica y
lexicológica del lenguaje común con el objeto de elaborar y reelaborar las nociones
científicas.
¿Cómo romper con el empirismo, el teoricismo o el formalismo excesivo de la
ciencia? La respuesta se focaliza en ejercer la vigilancia epistemológica, como el
modo general de actuación para la práctica de la investigación y por su riqueza para
descubrir conocimientos nuevos, así como también para desmontar creencias y
discursos.
Es necesario someter las operaciones de la práctica sociológica a la polémica de la
razón epistemológica, para definir y, si es posible, inculcar una actitud de vigilancia
que encuentre en el completo conocimiento del error y de los mecanismos que lo
engendran uno de los medios para superarlo (Bourdieu et al., 1975: 14). ;
¿Cómo ponerla en práctica? Bourdieu et al. Proponen, dos principios generales:

17
Metodología General 2020
TANY

1. Reconocer cuáles son los obstáculos al conocimiento de lo social.

2. Aplicar las técnicas de ruptura, frente a la ingenuidad reproductivista, de los


investigadores.
La noción de ruptura epistemológica contiene dos principios generales que
contribuyen a su aplicación. Por una parte, el reconocimiento de los obstáculos que
genera el conocimiento social, y por otra, la aplicación de las técnicas de ruptura que
evitan la voluntad reproductivista (es decir, evitan la tendencia a no cuestionarse a
fondo conceptos a priori dados por obvios en la cotidianidad).
Los obstáculos a superar en el conocimiento de lo social son las percepciones del
sentido común, el lenguaje común y las nociones comunes. Para atravesar el
obstáculo del sentido común, los autores proponen tomar una distancia necesaria del
objeto de estudio, para comprenderlo y mirarlo de una manera crítica. Se trata de
romper con la noción del saber inmediato, y de romper también con los presupuestos
inconscientes asumidos que constituyen las prenociones.
Las prenociones son aquellas percepciones de la filosofía primera de lo social, las
explicaciones sobre la realidad social que se construyen desde el sentido común para
poder actuar en esa realidad.

Ejemplo:
Existe la noción de que el gusto es una característica personal, idiosincrásica. A
algunas personas les gusta
• cierto tipo de música,
• ciertas comidas,
• ciertas películas, etcétera, que a otras no.

Estas diferencias, a su vez, se interpretan como indicio de cultura. Quienes


pueden apreciar una sinfonía serían más cultos que aquellos que solo gustan de
la música popular.
Sin embargo, Pierre Bourdieu, al analizar encuestas sobre consumo cultural en
Francia en la década de 1960, encontró que había una «fuerte relación que
une las prácticas culturales [...] con el capital escolar (medido por las
titulaciones obtenidas) y, secundariamente, con el origen social (estimado
por la profesión del padre)» (Bourdieu, 2002: 11).
Por tanto, los gustos no pueden considerarse una característica personal,
sino algo vinculado al origen social y la escolaridad. Pero además,
profundizando en estas evidencias, Bourdieu concluye que «el gusto es una
disposición adquirida, [...] para establecer o para marcar unas diferencias
mediante una operación de distinción [que es uno de los principios
estructurantes, más eficaces de la sociedad, precisamente porque
funcionan] más allá de la conciencia y del discurso» (Bourdieu, 2002:477).

La técnica de ruptura propone el principio de la no conciencia, lo cual implica ser


consciente de lo que parecería obvio, estar atentos y dispuestos a reformular

18
Metodología General 2020
TANY

continuamente los conceptos, a las nuevas repercusiones o dimensiones que se


pueden descubrir en el objeto de estudio.
Las percepciones del lenguaje coloquial se presentan de manera tan evidente que se
corre el riesgo de no preguntarse sobre su fundamento teórico. Por tanto es necesario
construir conceptos propios con base en una elaboración teórica y, en consecuencia,
romper con el lenguaje común. Se debe trabajar para no caer en la orientación del
profetismo explicitando la teoría y la interpretación.
Bourdieu y sus colegas plantean un tercer obstáculo a superar en la ruptura:
La percepción de las nociones comunes en la ciencia. Como señala Bachelard, «la
ciencia no puede progresar si no es cuestionando constantemente los principios
mismos de sus propias conclusiones» (Bourdieu et al., 1975: 44).
Es necesario hacer una reflexión sobre las nociones teóricas preexistentes para no ser
reproductivista o acrítico con las ideas de otros. ¿En qué consiste, entonces, la ruptura
epistemológica? Consiste en alejar de la ciencia la influencia de las nociones
comunes, de manera de lograr la objetivación de las técnicas de investigación. Para
esto es preciso realizar una crítica lógica y lexicológica del lenguaje común, con el
objeto de elaborar y reelaborar controladamente las nociones científicas. La práctica
científica supone una ruptura con las prenociones del sentido común por el hecho de
que el descubrimiento científico no se reduce nunca a una simple lectura de lo real,
sino a romper con lo real y con las configuraciones que este propone a la percepción.

ALGUNOS CONCEPTOS CLAVE LA INVESTIGACIÓN SOCIAL ES UNA


FORMA DE CONOCIMIENTO QUE SE CARACTERIZA POR:
• ser una construcción de evidencia empírica;
• ser elaborada a partir de la teoría;
• la aplicación de reglas de procedimiento explícitas.

PROCESO DE INVESTIGACIÓN:
La investigación social es un proceso de generación de conocimiento, una actividad
que nos permite obtener conocimientos científicos. Se inicia con las primeras
preguntas que nos hacemos, la búsqueda bibliográfica, el análisis de los marcos
teóricos y los conceptos, hasta llegar a la formulación del problema de
investigación y el diseño necesario para indagar ese problema. Son etapas (o
momentos, según el diseño) de ruptura y estructuración.

PROYECTO DE INVESTIGACIÓN:
La investigación social implica la formulación de un proyecto en el cual se
explicitan todos los elementos involucrados en el proceso de investigación, desde la
formulación del problema a investigar hasta los caminos que recorrerá para estudiar
ese problema empíricamente (diseño).

19
Metodología General 2020
TANY

«ETAPAS O MOMENTOS» DE TODA INVESTIGACIÓN


EMPÍRICA

Las observaciones anteriores permiten introducir la idea de que la investigación


empírica implica ciertas etapas o momentos que cumplen funciones diferentes. A
grandes rasgos, estos momentos son los de la ruptura, la estructuración y la
comprobación.
Ruptura: romper con prejuicios y la ilusión del saber inmediato. Pasar del problema
social al problema propio de la disciplina.
• Elección del tema y conformación de bibliografía
• Formulación del problema de interés que sea susceptible de estudio científico.
Estructuración: construcción de un marco teórico de referencia, conceptualización
del problema basado en ese marco teórico, y elaboración de herramientas
conceptuales (hipótesis, preguntas guía, etcétera) y operativas.
• Construcción del marco conceptual (marco teórico, hipótesis y preguntas
conceptuales o sustantivas)
• Construcción del marco operativo (formulación de las hipótesis de trabajo,
operacionalización de conceptos en variables e indicadores)
• Elección de la estrategia metodológica: técnicas de recolección y análisis de datos
Comprobación: aplicación de las herramientas operativas para contrastar hipótesis y
responder las preguntas de investigación.
• Relevamiento de la información
• Análisis
• Presentación de resultados y conclusiones.

PRINCIPALES CONCEPTOS DEL TEXTO 3:


Las diferencias entre, métodos, metodologia, ciencia.
Método: es un conjunto de procedimientos, que nos ayudan a llegar a nuestro
objetivo de investigacion.
La Metodología: es un conjunto de métodos, por ejemplo: la observación, la
experimentación, entrevistas, las formas en las que llego al conocimiento.
Ciencia: es un conjunto de conocimientos aplilados, con un sentido en común, por
ejemplo: ciencias sociales, estudia la sociedad., es un conjunto de ciencias, porque
tiene un conocimiento que derivan de un hecho común.
Todo esto tiene además, un proceso de verificación que se necesita hacer, ese proceso
de verificacion es contrastar mi datos con la realidad, si mis datos son factibles, ¿es lo
que demuestra la realidad? Si o no..¿esta bien lo que investige? Hay que verificarlo;
si esta bien mi verificación, puedo incluirlo en mi verificación, pero si mi vrificación
salió errónea., tengo que volver hacia atrás y volver hacer mis datos.

20
Metodología General 2020
TANY

EXISTEN CINCO PROBLEMAS CLAVES, AL ESTUDIAR LAS


CIENCIAS SOCIALES O LA METODOLOGÍA DE LAS
CIENCIAS SOCIALES SEGÚN LAS AUTORAS (BATTHYANY Y
CABRERA):

1) Tenemos demasiados supuestos nosceologicos: hay demasiados entendidos


ya que tenemos un preconcepto de lo que es la sociedad y de muchas otras cosas, que
tienen que ver con laas ciencias sociales y eso nos juegan en contra, para despúes
verificar.

2) Objetos de estudio: es un problema porque la sociedad va cambiando, nuestro


objeto de estudio va ser la sociedad, y es un problema porque está en constante
cambio, no nos deja analizarla de una forma quieta y pausada.

3) La naturaleza del conocimiento: que vamos a tener en las ciencias sociales,


como el objeto de estudio es cambiante, nunca va ser objetiva, por eso es un
problema.

4) La relación entre objetos de investigación y los valores del investigador:


debemos despegarnos de nuestros prejuicios y valores, para poder analizar
objetivamente lo que vamos a estudiar.

5) La función final del investigador: ¿para que hago, lo que hago? ¿por que
investigo este tema? ¿de que le va a servir, despúes a la sociedad lo que yo haga?.

LA VIGILANCIA EPISTEMOLÓGICA
Es velar porque la epistemología este bien hecha todo el tiempo con los pasos de
verificacion que corresponden. Es todo el tiempo contrastar y verificar mi
información. Para hacer esto, BORDIEU, propone dos pasos:
a) Reconocer obstáculos: reconocer lo que a mi me obstaculiza para no ser
objetivo, y para no aplicar mi metodología. ¿Que es lo que a mi me impide poder
investigar este tema en particular de una forma super objetiva? De que manera pienso,
como fui criada, tengo tal pensamiento politico..

b) Ruptura: luego de poder reconocer el obstáculo, vamos de alguna manera


romperlo, generar una ruptura. Esta ruptura no va ser fácil, vamos a tener que buscar
la manera de romper con eso, estó habla de mucha introspección por parte del
investigador y de mucho tiempo, no es fácil y generalmente es útil consultar a otros
colegas, para tomar consejos de: ¿como puedo hacer? ¿Cómo puedo hacer yo, para
romper con esto?

21
Metodología General 2020
TANY

CORDEIRO, ORTUÑO, PAIXÁO, MARÓCO (2015)


METHODOLOGICAL ARTICLES

READING A SCIENTIFIC PAPER FOR PSYCHOLOGY AND THE


SOCIAL SCIENCES: A CRITICAL GUIDE

(LECTURA DE UN ARTÍCULO CIENTÍFICO PARA LA


PSICOLOGÍA Y LAS CIENCIAS SOCIALES:
UNA GUÍA CRÍTICA)
RESUMEN
OBJETIVO: Una revisión crítica de un artículo de revista es una evaluación
integral del contenido del artículo, la estructura formal y el enfoque metodológico. El
éxito en esta tarea requiere que los estudiantes desarrollen habilidades analíticas y
reflexivas como requisitos previos para identificar las preguntas clave de
investigación, los hallazgos relevantes y las principales conclusiones alcanzadas. Las
habilidades críticas también son un aspecto importante de la vida académica y
profesional futura de un estudiante, sin embargo, este ha sido un componente en gran
medida pasado por alto de la formación académica. Este documento tiene como
objetivo proporcionar a los estudiantes de pregrado un conjunto simple y directo de
pautas para leer, analizar e interpretar artículos de investigación. Se abordan el
contenido, la estructura y los errores comunes en los trabajos de investigación.

CONCLUSIÓN: Con esta guía de referencia, esperamos que los estudiantes


puedan analizar más a fondo y discutir críticamente las fortalezas y debilidades de un
artículo de investigación.
Palabras clave: revisión crítica, artículos de revistas científicas, pregrado, estudio
teórico.
INTRODUCCIÓN
Es fácil encontrar libros buenos (aunque densos) sobre cómo escribir, leer y revisar
artículos científicos. Sin embargo, esta literatura puede no ser particularmente útil
para ayudar a los estudiantes en la tarea de revisar críticamente los artículos de
investigación. Además, hay una falta de artículos publicados sobre este tema (por
ejemplo, McKenzie, 1995 ). Este tema se trata esencialmente en
la sección Instrucciones para autores de Revistas científicas., y las pautas generales
para la estructura y el contenido de los manuscritos difieren según las
especificaciones de cada revista. Aunque se les pide a los estudiantes que revisen
críticamente la literatura científica a lo largo de sus estudios de pregrado, la
capacitación y los recursos disponibles son limitados. De hecho, lograr esta tarea
requiere no solo que los estudiantes desarrollen habilidades de lectura y comprensión
objetivas y maduras, sino también la capacidad de identificar los aspectos centrales de
un artículo, a saber, preguntas e hipótesis clave de investigación, hallazgos relevantes
y conclusiones principales. Este artículo transmite un enfoque sistemático para la

22
Metodología General 2020
TANY

revisión de manuscritos. En cada sección, se abordan el contenido, el estilo de


redacción y los defectos comunes. En complemento, Apéndice ). Cabe señalar que
este trabajo se circunscribe a artículos de investigación correlacional y no a la gama
completa de artículos científicos (por ejemplo, diseños experimentales).

CONCEPTUALIZACIÓN Y CARACTERÍSTICAS
Una revisión crítica es una evaluación sistemática de lo que uno ha aprendido al leer
un artículo científico. Transmite una evaluación de las fortalezas, debilidades y
validez del artículo a través de la explicación, la interpretación y el análisis.

UNA BUENA REVISIÓN CRÍTICA:


(a) enmarca el contenido del artículo en el contexto del conocimiento actual,
(b) aclara los objetivos del estudio y las hipótesis probadas,
(c) evalúa cuán replicable es la metodología utilizada para probar hipótesis y
(d) evalúa si las conclusiones están en consonancia con los principales
hallazgos. Además, el artículo debe proporcionar a los lectores información sobre la
contribución del trabajo a la investigación en un dominio científico particular.

ESTRUCTURA DE UN ARTÍCULO CIENTÍFICO


Los artículos científicos presentan hallazgos originales basados en una rigurosa
investigación empírica. Varían en contenido o estructura, según el tipo de revista a la
que se enviarán. En general, la estructura es la siguiente: Introducción, Métodos,
Resultados y Análisis y Estructura de Discusión (IMRaD; Saracho, 2013 ). Para
fines didácticos, agregamos consideraciones sobre el título, las afiliaciones de los
autores y el resumen, ya que son esenciales para captar la atención del lector sobre el
artículo.

El titulo proporciona una descripción clara de lo que trata el artículo. Es lo primero


que se leerá y en ocasiones lo último, siendo determinante para que el lector siga
interesado. Un título bien escrito es preciso, claro, conciso, revelador y
provocativo. En 10 a 15 palabras, proporciona al lector, de forma ahorradora pero
informativa, el campo general del trabajo, objetivos y / o principales resultados. Los
títulos se pueden redactar de diferentes maneras, que incluyen:
(a) general versus específico,
(b) declarativo versus interrogativo,
(c) con o sin subtítulos y
(d) indicativo corto versus informativo largo. La opción por un tipo de título en
particular está de acuerdo con el estilo del autor y los requisitos de la revista
científica. Títulos que son largos,

23
Metodología General 2020
TANY

La sección de autores y afiliaciones presenta a los autores del manuscrito según la


relevancia y la naturaleza de su contribución al artículo. En la lista de autores se
presenta la afiliación institucional, grado académico y área de especialización. La
sección termina con la identificación del correo electrónico y la dirección completa
del autor a quien debe dirigirse toda la correspondencia.

El resumen es la “sala de entrada” del artículo. Resume las características más


importantes del manuscrito ( Provenzale y Stanley, 2006 ), proporcionando al lector
una primera impresión global del artículo ( Hartley y Betts, 2009 ).

EN GENERAL, EL RESUMEN DEBE RESPONDER A DOS


PREGUNTAS:
“¿Qué se debe aprender en este artículo?”,
“¿Vale la pena leer el artículo más adelante?”.
El resumen es una sinopsis de todo el artículo. En 150 a 250 palabras, proporciona un
resumen conciso, claro y completo de las principales secciones del documento. Un
resumen bien estructurado sigue una estructura básica estándar de problema /
propósito del estudio, método, resultados y conclusión ( Hartley, 2012). El problema
resume las razones y el propósito del estudio, las preguntas de investigación, las
hipótesis que se están probando y su contribución relativa al campo. Los métodos
cubren las metodologías utilizadas para investigar el problema, incluida la
identificación de los participantes, los procedimientos, los análisis estadísticos y
cualquier software utilizado. Finalmente, la sección de resultados presenta los
hallazgos clave de la investigación, incluida una referencia a los indicadores de
significancia estadística de los coeficientes.
El resumen termina con un resumen de los hallazgos, consideraciones sobre la
novedad del estudio y la relevancia de las implicaciones para la teoría y la
práctica. En términos de estilo de escritura, un buen resumen debe ser
autónomo. Debe redactarse de forma concisa y clara para ofrecer un resumen de los
aspectos clave de la investigación sin necesidad de consultar el documento
completo. Las oraciones generalmente se redactan en un estilo activo y excluyen los
pronombres personales. Los verbos se conjugan en tiempo pasado, cuando describen
procedimientos seguidos, y en tiempo presente cuando informan resultados. Los
dígitos se pueden utilizar para presentar cifras, excepto cuando se colocan al principio
de la frase.

Los acrónimos solo deben usarse en casos excepcionales y deben estar claramente
definidos. Los resúmenes no deben citar referencias, informar sobre tablas y figuras
posteriores y proporcionar declaraciones que no estén respaldadas por datos. También
deben evitar la información de antecedentes extensa u omitida. Las oraciones
generalmente se redactan en un estilo activo y excluyen los pronombres
personales. Los verbos se conjugan en tiempo pasado, cuando describen
procedimientos seguidos, y en tiempo presente cuando informan resultados. Los
dígitos se pueden utilizar para presentar cifras, excepto cuando se colocan al principio
de la frase. Los acrónimos solo deben usarse en casos excepcionales y deben estar

24
Metodología General 2020
TANY

claramente definidos. Los resúmenes no deben citar referencias, informar sobre tablas
y figuras posteriores y proporcionar declaraciones que no estén respaldadas por
datos. También deben evitar la información de antecedentes extensa u omitida.

Las oraciones generalmente se redactan en un estilo activo y excluyen los


pronombres personales. Los verbos se conjugan en tiempo pasado, cuando describen
procedimientos seguidos, y en tiempo presente cuando informan resultados. Los
dígitos se pueden utilizar para presentar cifras, excepto cuando se colocan al principio
de la frase. Los acrónimos solo deben usarse en casos excepcionales y deben estar
claramente definidos. Los resúmenes no deben citar referencias, informar sobre tablas
y figuras posteriores y proporcionar declaraciones que no estén respaldadas por
datos. También deben evitar la información de antecedentes, extensas u omitidas, y
en tiempo presente al informar los resultados. Los dígitos se pueden utilizar para
presentar cifras, excepto cuando se colocan al principio de la frase. Los acrónimos
solo deben usarse en casos excepcionales y deben estar claramente definidos. Los
resúmenes no deben citar referencias, informar sobre tablas y figuras posteriores y
proporcionar declaraciones que no estén respaldadas por datos. También deben evitar
la información de antecedentes, extensa u omitida, y en tiempo presente al informar
los resultados. Los dígitos se pueden utilizar para presentar cifras, excepto cuando se
colocan al principio de la frase. Los acrónimos solo deben usarse en casos
excepcionales y deben estar claramente definidos. Los resúmenes no deben citar
referencias, informar sobre tablas y figuras posteriores y proporcionar declaraciones
que no estén respaldadas por datos. También deben evitar la información de
antecedentes extensa u omitida. Informar sobre tablas y figuras posteriores y
proporcionar declaraciones que no estén respaldadas por datos. También deben evitar
la información de antecedentes extensa u omitida. Informar sobre tablas y figuras
posteriores y proporcionar declaraciones que no estén respaldadas por datos. También
deben evitar la información de antecedentes extensa u omitida.

La mayoría de las revistas científicas requieren, después del resumen, de tres a


diez términos de índice, palabras clave o frases cortas para fines de indexación
cruzada. Las palabras clave deben indicar claramente el campo de estudio y los
principales conceptos que se tratan en el artículo. El artículo prosigue con la
introducción.

Elaborar una introducción convincente puede ser un desafío para los autores ( Drotar,
2009 ). De hecho, en solo unas pocas páginas, los investigadores deben establecer el
marco conceptual del artículo, abordar el problema que se investiga y establecer la
novedad y la relevancia de la investigación actual para responder preguntas
específicas de investigación. Para facilitar esta tarea, la introducción sigue una
estructura común. En el primer párrafo, los autores especifican el tema general de la
investigación, los temas principales y las preguntas que quedaron sin respuesta de
investigaciones anteriores (cuando corresponda) y la pregunta principal de la
investigación en estudio ( Drotar, 2009 ).
Desde el segundo hasta el penúltimo párrafo, la introducción revisa la literatura
relevante para comprender el estado del arte en la materia. En general, esta sección
comienza con una descripción histórica del tema tratado y los marcos conceptuales

25
Metodología General 2020
TANY

más relevantes. Sigue una descripción del marco conceptual adoptado en términos de
constructos clave y definiciones operativas. A continuación, se establecen vínculos
específicos entre la investigación anterior y el trabajo abordado en el artículo
científico. Luego se presenta la investigación basada en la teoría. Los autores
generalmente transmiten una perspectiva amplia sobre los hallazgos, que incluyen
evidencia tanto confirmatoria como contradictoria de las hipótesis del estudio actual.
El propósito y la contribución específica del estudio al campo se abordan en una
subsección de la introducción que generalmente se titula “Objetivos de esta
investigación”. En esta sección, los autores establecen claramente los objetivos del
estudio y las hipótesis que se están probando. La atención se centra en nuevas
preguntas de investigación o en formas innovadoras de abordarlas (en términos de
métodos, teoría y / o hallazgos; Drotar, 2008 ; Sternberg y Gordeeva, 1996). La
traducción de las preguntas de investigación en hipótesis tiene como objetivo ayudar
a los lectores a comprender la lógica del estudio y centrarse en los métodos.
Las fallas comunes en la introducción incluyen:
(a) Información de fondo insuficiente, o limitada a un marco conceptual único, (b)
cobertura poco clara del tema en cuestión y / o déficit de información completa,
(c) Operacionalización confusa de constructos, preguntas de investigación e hipótesis.
(d) Investigaciones previas anticuadas o excesivamente detalladas. Lo que es más
importante, la introducción no debe anticipar métodos, resultados e implicaciones que
las secciones posteriores no respaldan.
La sección de métodos proporciona una descripción de cómo se realizó el estudio y
debe ser lo suficientemente detallada para permitir la replicación ( Baker,
2012 ; Olson y Meyersburg, 2008 ).
TRADICIONALMENTE, ESTA SECCIÓN SE DIVIDE EN
LAS SUBSECCIONES: PARTICIPANTES Y PROCEDIMIENTOS Y MEDIDAS.
Muchos artículos también incluyen un análisis estadístico u sección (que,
alternativamente, también suele colocarse al principio de la sección de resultados).
La primera subsección detalla la metodología de muestreo (por ejemplo,
probabilística versus no probabilística; muestras independientes versus emparejadas)
y las características sociodemográficas de los participantes (por ejemplo, sexo, edad,
etnia, nivel educativo), junto con una justificación para la elección de la muestra. La
información debe proporcionarse con suficiente detalle para que los lectores lleguen a
una conclusión informada.
El procedimiento describe el método de recopilación de datos, las ondas de
medición definidas para el estudio, los estudios piloto realizados y el momento, lugar
y duración de la recopilación de datos. También se transmitirá información sobre los
aspectos éticos, incluyendo los procedimientos seguidos para reclutar a los
participantes y los permisos de la (s) institución (es) y el consentimiento informado
de los participantes (o padres de participantes menores de edad). Los procedimientos
seguidos para garantizar el anonimato se hacen explícitos y, cuando corresponda.

En las medidas en la subsección se describen las variables e instrumentos utilizados


para recolectar los datos. La información generalmente especifica el tipo y formato de
los instrumentos (por ejemplo, cuestionarios de auto informe), los métodos de
26
Metodología General 2020
TANY

recolección de datos (por ejemplo, software y aparatos de computadora). Cuando se


realizó la adaptación o validación del cuestionario, es necesaria una referencia a la
autoría y publicación, y una justificación de su idoneidad. Además, cuando se
desarrollan o validan cuestionarios para diversas culturas, esta sección también
describe los procedimientos para la adaptación / validación transcultural de
instrumentos, los cambios realizados a la escala original y las propiedades
psicométricas de los instrumentos en las muestras original y actual. También se deben
comunicar las fuentes de error de medición, así como las medidas tomadas para
minimizarlas. Por último, la sección de métodos proporciona una descripción
detallada de los métodos estadísticos utilizados para el análisis de datos, una
justificación de su idoneidad y el software estadístico utilizado en los análisis,
incluido el número de versión (por ejemplo, AMOS 20.0).

La sección de resultados presenta los principales hallazgos del estudio. La


presentación de resultados generalmente sigue un método de lógica de embudo, de
más general a más específico. El informe de los resultados estadísticos debe ser, claro
y conciso, pero con suficiente detalle para permitir la reproducción de los
procedimientos y la validación cruzada de los hallazgos. En general, los informes
sobre los resultados de las pruebas estadísticas aparecen en texto, mientras que las
estadísticas descriptivas deben resumirse en figuras, tablas y gráficos auto
explicativos ( Vintzileos & Ananth, 2010 ). Además, deben definirse términos
estadísticos no estándar, abreviaturas y símbolos utilizados en todo el texto.
Dos fallas comunes en la sección de resultados de los artículos científicos incluyen
la sobre escritura y la suscripción.
Al sobrescribir, los autores dan detalles innecesarios para el análisis de datos. De
hecho, si las estadísticas son un componente importante de la sección, no deberían
dominarla. A su vez, la suscripción se refiere a la falta de contabilidad de resultados
importantes. Un problema adicional está relacionado con el uso no técnico de
términos técnicos estadísticos. Al final de esta sección, el lector debe poder concluir
sobre la relevancia de los hallazgos y si las respuestas a las preguntas e hipótesis de la
investigación fueron respaldadas por los datos. Es importante destacar que el informe
de los hallazgos en esta sección no debe incluir interpretación. La interpretación de
los hallazgos debe incluirse en la sección (es) de discusión y conclusión.
La sección de discusión proporciona una interpretación basada en la teoría de los
hallazgos, establece su importancia para la investigación actual y deriva
implicaciones para la teoría y la práctica. También se proporcionan interpretaciones
alternativas para los hallazgos, particularmente cuando no es posible concluir sobre la
direccionalidad de los efectos.
En la discusión, los autores también reconocen las fortalezas y limitaciones /
debilidades del estudio y ofrecen direcciones concretas para futuras investigaciones
(por ejemplo, investigación de métodos estadísticos para mejorar la inferencia).
En esta sección generalmente se responden varias preguntas, como:
"¿Qué preguntas de investigación quedan sin respuesta?",
"¿Es necesario probar nuevas hipótesis?" y

27
Metodología General 2020
TANY

“¿Qué tipo de trabajo puede arrojar luz sobre estos temas?”. Los defectos
comunes incluyen la presentación de nuevos datos o resultados estadísticos detallados
que simplemente reiteran los hallazgos presentados en la sección de resultados.
La conclusión resume los principales hallazgos del estudio y su contribución original
al campo, dando especial énfasis a la forma en que los hallazgos contribuyen a hacer
avanzar significativamente la literatura de investigación. La conclusión es la "tarjeta
de presentación" del periódico, es decir, el mensaje que el lector recordará (con
suerte) en el futuro. Puede ser independiente, como una subsección de la discusión o
puede presentarse como una sección combinada de discusión y conclusión.

OBSERVACIONES FINALES Y LIMITACIONES


En este artículo:
• proporcionamos un enfoque sistemático de la estructura de un artículo científico.

• Examinamos la estructura y las características clave de los artículos de investigación


de acuerdo con la estructura convencional de IMRaD y

• enunciamos algunas de las fallas más relevantes.

• Además, organizamos los estándares para una revisión crítica formulando una serie
de preguntas orientadoras que orientan la revisión de cada sección de un artículo.

A pesar de estas limitaciones, creemos que el presente artículo proporciona un


recurso útil para orientar la revisión crítica de un artículo de investigación y estimula
el pensamiento reflexivo y las habilidades de análisis crítico en los estudiantes. Las
investigaciones futuras deberían extender estas reflexiones a otras publicaciones
científicas, como artículos experimentales o de revisión.

MARRADI, ARCHENTI, PIOVANI (2007)


METODOLOGIA DE LAS CIENCIAS SOCIALES

CAPÍTULO 5
EL DISEÑO DE LA INVESTIGACIÓN
Estos autores definen la investigación empírica, como un proceso que involucra un
conjunto de decisiones y prácticas por las cuales conocemos algunas situaciones de
interés cuya definición y delimitación, o construcción, forma parte de las decisiones
aludidas. Entre las muchas decisiones complejas que se toman en una investigación
científica está la de definir cuáles son las mejores herramientas técnicas de acuerdo
con los objetivos cognitivos que se hayan planteado.

28
Metodología General 2020
TANY

El hecho de que el proceso de investigación esté atravesado por decisiones y


operaciones que dependen en gran medida del conocimiento tácito permite que este
proceso pueda ser diseñado y planificado, y entre otras cosas, esto será un modo de
hacerlo más controlable, en la medida que exigirá un esfuerzo para explicitar de modo
anticipado las distintas decisiones involucradas en el mismo.

Algunos autores usan la expresión proyecto de investigación para designar tanto las
decisiones metodológicas típicas del diseño como aquellas cuestiones necesarias para
el control de gestión de la investigación. En este sentido, proyecto hace referencia a
un documento que responde a aspectos contextuales e institucionales en el marco de
los cuales se desarrollará la investigación. Por otra parte, el plan de investigación
explicita cómo se llevará a adelante una investigación en particular desde el punto de
vista operativo, incluyendo por lo tanto la dimensión temporal (cronograma de
actividades) y las relaciones de precedencia, simultaneidad, etc. entre las distintas
acciones implicadas en el proceso de investigación.

CARACTERÍSTICAS DEL DISEÑO DE LA INVESTIGACIÓN

El diseño de la investigación consiste en una anticipación modélica y abstracta, una


representación esquemática de cómo será la investigación y un detalle de las
decisiones necesarias para llevarla adelante. Este grado de anticipación es variable en
función del grado de detalle y explicitación que las decisiones teóricas y
metodológicas adquieran antes de establecer algún tipo de contacto observacional con
los fenómenos de interés.
Esta concepción de diseño de investigación tiene dos consecuencias:

1) No es posible una actividad de investigación no diseñada. Lo que puede existir son


actividades de investigación con distintos grados o niveles de diseño.
2) Con respeto a los grados de diseño, no se puede pensar en tipos cerrados, sino en
un continuum de diseños posibles.
Los extremos de esta gradación consisten son considerados como polos “ideales”
dado que en la práctica se dan lo que se expresa como DISEÑOS FLEXIBLES,
situaciones intermedias entre estos polos, así como diferentes combinaciones de
algunas características de cada uno de ellos.
Existe un conjunto de decisiones presentes en cualquier tipo de investigación que
se pueden agrupar en los siguientes conjuntos, y que adquirirán diferentes
características en cada caso particular (como acto o potencia):

Decisiones relativas a la construcción del objeto / delimitación del problema a


investigar,
Decisiones relativas a la selección,
Decisiones relativas a la recolección,
Decisiones relativas al análisis.

29
Metodología General 2020
TANY

Las decisiones de selección, recolección y análisis dependen del problema que se


aborde. Por lo tanto, los diseños de proyecto incluyen cuestiones relativas a la
delimitación del problema de interés que condicionará el resto de las decisiones, en la
medida en que todas ellas deberán ser instrumentales al logro de los objetivos
cognitivos que el problema planteado conlleva.

Investigaciones cuantitativas: requieren de diseños más estructurados, este diseño


es necesario al pensar en este tipo de investigación en la que se puede “aislar”
analítica y operativamente los distintos aspectos del proceso de investigación, y se
puede incluso dividir el trabajo vinculando cada una de las tareas con personas y
grupos relativamente independientes.

Investigaciones cualitativas: requieren diseños más flexibles, si bien hay cuestiones


que se pueden definir de antemano, como decisiones previas que orienten el estudio y
justifiquen la adopción por este tipo de recorrido investigativo, muchas otras deberán
ser decididas a lo largo del proceso de investigación y en función del acercamiento a
los objetos o sujetos de interés. Este tipo de diseño se conoce como DISEÑO
INTERACTIVO.

ELECCIÓN DEL TEMA, DELIMITACIÓN DEL PROBLEMA Y


SU OPERATIVIZACIÓN

La delimitación de un PROBLEMA INVESTIGACIÓN indica un proceso de


elaboración que va desde la idea inicial de investigar sobre algo, hasta la conversión
de dicha idea en un problema investigable. Estas ideas iniciales pueden concebirse
como TEMAS DE INVESTIGACIÓN; la elección de un tema es una elección
condicionada ya que las fuentes de dichos temas provienen de sugerencias,
experiencia personal, lectura previa, etc. Todo proceso de selección de un tema se da
en el marco de un contexto que configura las condiciones históricas que lo hacen
posible. Este proceso va a estar influido por la tradición de la disciplina en la que se
inscribe, por el modo y las características que haya adquirido la socialización del
investigador, y otros aspectos como el financiamiento.

Por lo tanto, un problema de investigación se define y construye a partir de un tema


más amplio. Esta definición implica un movimiento progresivo desde lo abstracto y
general del tema hacia lo concreto y especifico del problema (recorrido espiralado
descendente).

El proceso de la construcción del problema implica la puesta en juego tanto de


saberes tácitos como de la experiencia; no hay una única técnica para la formulación
de problemas de investigación. Este proceso es posible a partir de un conjunto de
prácticas que se conocen como INDAGACIONES PRELIMINARES. En el
proceso espiralado mencionado, en la medida que se gana conocimiento sobre una
cuestión, estas indagaciones preliminares van haciendo posible identificar aspectos
problemáticos; delinear preguntas específicas que aparecen como relativamente
30
Metodología General 2020
TANY

inciertas y dignas de profundización a los ojos del investigador. Se empieza a dar


forma al problema de investigación, constituyendo ahora, al estar más focalizadas
estas indagaciones, lo que se define como ESTADO DE LA CUESTIÓN.

Una vez definido el problema surge el desafío de análisis de sus antecedentes, es


decir, al estado de conocimiento sobre el problema en cuestión. Es recomendable
además establecer un “diálogo” crítico con ellas, y mantener el foco.
Los criterios para determinar la relevancia de investigaciones precedentes son:
a) afinidad temática,
b) afinidad contextual.

Por otra parte, la delimitación de un problema conlleva la formulación de los


OBJETIVOS de la investigación.
Habitualmente, los objetivos se clasifican como generales y específicos, siendo estos
últimos aquellos que se derivan de los primeros y cuyo cumplimiento concurre (o es
incluso instrumental) al logro de ellos.

Para decidir la estrategia metodológica y elegir los instrumentos adecuados a los


objetivos resultará necesario desentrañar el problema de investigación y analizar
todas sus consecuencias en términos de una posible respuesta empírica. Siempre
existirá algún tipo de supuesto acerca de aquello que se investiga, los cuales solo al
tener cierto grado de articulación pueden plantearse como HIPÓTESIS, es decir,
conjeturas que postulan un cierto tipo de relación entre los aspectos observables de la
realidad que el problema de investigación ha delimitado.

Cuatro modos más comunes en que aparecen las hipótesis en el trabajo científico:
a) declaraciones condicionales (si se da el fenómeno y, se da x),
b) funciones matemáticas que representan la expresión más parsimoniosa y con fuerte
carácter predictivo de una relación,
c) declaraciones continuas (cuanto mayor sea x, mayor será y),
d) declaraciones diferenciales.
Para hacer operativo un problema de investigación, se lo puede pensar como la
explicitación del interés del investigador por conocer “algo” de “alguien”. Ese “algo”
se expresa a través de preguntas que guían la investigación y refiere siempre a
“alguien” que está temporal y espacialmente situado y se denomina UNIDAD DE
ANÁLISIS.

Lo primero que debemos hacer es CONCEPTUALIZAR ese algo, es decir, dar


definiciones de qué se entiende en el contexto de la investigación por aquello en
términos clave que expresan verbalmente el foco de nuestra atención.

31
Metodología General 2020
TANY

Estas definiciones conformarán el MARCO CONCEPTUAL. El MARCO


TEÓRICO incluye al marco conceptual, se caracteriza por ser el “corpus de
conceptos de diferentes niveles de abstracción articulados entre sí que orientan la
forma de aprehender la realidad”.

Las definiciones conceptuales generalmente son abstractas, y se deberá seleccionar a


través de la OPERATIVIZACIÓN, los indicadores o referentes empíricos de ese
“algo” que ahora ya representamos a través de definiciones conceptuales precisas.
También se deberá operativizar la unidad de análisis, el “alguien”, definiéndolo de
manera conceptualmente clara, lo que implica decidir criterios de inclusión y
exclusión, así como cuestiones temporales y espaciales. Este conjunto de criterios
categoriales es el conjunto de todos los casos que se corresponden con la definición
conceptual que se haya dado de la unidad de análisis. De estos casos será necesario
seleccionar alguno/algunos de ellos a los fines de observación e indagación, es decir
construir la MUESTRA (decisiones de selección).

Formalización del diseño: el proyecto de investigación: Samaja sostiene que el


objetivo central de la fase formulativa es construir escrituralmente el objeto su
versión global. Esta versión escrita y formal deberá seguir las pautas
implicadas en el proceso orientado a su gestión y control.

MÓDULO 2
PERSPECTIVAS CUANTITATIVAS DE LA
INVESTIGACIÓN EN PSICOLOGÍA

HERNANDEZ SAMPIERI, (2014)


CAPÍTULO 3

METODOLOGÍA
DE LA INVESTIGACIÓN

PLANTEAMIENTO CUANTITATIVO DEL PROBLEMA


¿QUE ES PLANTEAR EL PROBLEMA DE INVESTIGACION
CUANTITATIVA?
Plantear el problema de investigación cuantitativa consiste en afinar y
estructurar más formalmente la idea de investigación, desarrollando cinco
elementos de la investigación:
• objetivos,
• preguntas,
• justificación,
• viabilidad y

32
Metodología General 2020
TANY

• evaluación de las deficiencias.


En la investigación cuantitativa los cinco elementos deben ser capaces de conducir
hacia una investigación concreta y con posibilidad de prueba empírica.
En el enfoque cuantitativo el planteamiento del problema de investigación precede a
la revisión de la literatura y al resto del proceso de investigación; sin embargo, esta
revisión puede modificar el planteamiento original.
Los objetivos y las preguntas de investigación deben ser congruentes entre sí e ir en
la misma dirección.
• Los objetivos establecen qué se pretende con la investigación;
• las preguntas nos dicen qué respuestas deben encontrarse mediante la
investigación;
• la justificación nos indica por qué y para qué debe hacerse la investigación;
• la viabilidad nos señala si es posible realizarla y
• la evaluación de deficiencias nos ubica en la evolución del estudio del
problema.
Los criterios principales para evaluar la importancia potencial de una investigación
son: conveniencia, relevancia social, implicaciones prácticas, valor teórico y utilidad
metodológica. Además de analizarse la viabilidad de la investigación deben
considerarse sus posibles consecuencias.
El planteamiento de un problema de investigación no puede incluir juicios morales ni
estéticos, pero el investigador debe cuestionarse si es o no ético llevarlo a cabo.

HERNANDEZ SAMPIERI (2014)


CAPÍTULO 4

DESARROLLO DE LA PERSPECTIVA TEÓRICA: REVISIÓN


DE LA LITERATURA Y CONSTRUCCIÓN
DEL MARCO TEÓRICO
UNA VEZ TOMADA LA DECISIÓN DE LA INVESTIGACIÓN A
REALIZAR, SAMPIERI RECOMIENDA, ELEGIR EL TIPO DE
ESTUDIO:

• EXPLORATIVO,
• DESCRIPTIVO,
• CORRELACIONAL Y
• EXPLICATIVO, realizando una explicación de cada uno, y su ejemplificación
bastante sencilla. Además del porque elegir determinado tipo de estudio.

33
Metodología General 2020
TANY

ESTUDIOS EXPLORATORIOS:
Estos se efectúan normalmente, cuando el objeto es examinar un tema o problema
de investigación poco estudiado o que no ha sido abordado antes.
Los estudios exploratorios, no sirven para aumentar el grado de familiaridad con
fenómenos relativamente desconocidos, obtener información sobre la posibilidad de
llevar a cabo una investigación más completa sobre un contexto particular de la vida
real, investigar problemas del comportamiento humano, que consideran cruciales los
profesionales de determinada área, identificar conceptos o variables promisorias,
establecer prioridades para investigaciones posteriores o sugerir afirmaciones,
(postulados) verificables, (DANKHE, 1986).
Esta clase de estudios son comunes en la investigación del comportamiento,
sobretodo en situaciones donde hay poca información.

ESTUDIOS DESCRIPTIVOS:
Estos buscan especificar las propiedades importantes de personas, grupos,
comunidades o cualquier otro fenómeno que sea sometido a análisis (DANKHE,
1986).
Los estudios descriptivos, miden conceptos. Es necesario hacer notar que los
estudios descriptivos miden de manera más bien independiente los conceptos o
variables con los que tienen que ver.
Los estudios descriptivos pueden ofrecer la posibilidad de predicciones aunque sean
rudimentarias.
ESTUDIOS CORRELACIONALES:
Estos estudios pretenden responder a preguntas de investigación. Este tipo de estudio,
tienen como propósito medir el grado de relación que exista entre dos o más
conceptos o variables.
La utilidad y el propósito principal, de los estudios correlaciónales son saber, como se
puede comportar un concepto o variable conociendo el comportamiento de otra u
otras variables relacionadas.
Puede darse el caso de que dos variables estén aparentemente relacionadas, pero que
en realidad no lo estén, (lo que se conoce en el lenguaje de la investigación como:
“correlación espuria”.

ESTUDIOS EXPLICATIVOS:
Los estudios explicativos van más allá de la descripción de conceptos o fenómenos o
del establecimiento de relaciones entre conceptos; están dirigidos a responder a las
causas de los eventos físicos o sociales. Como su nombre lo indica, su interés se
centra en explicar, porque ocurre un fenómeno y en que, condiciones se da este, o
porque dos o más variables están relacionadas.

34
Metodología General 2020
TANY

El que una investigación se inicie como exploratoria, descriptiva, correlacional o


explicativa depende del conocimiento actual del tema de investigación que nos revele,
la revisión de la literatura y el enfoque que el investigador pretenda dar a su estudio.
No se puede decir que alguno de los cuatro tipos de investigación es mejor, todos son
igualmente validos e importantes, ya que todos han contribuido al avance de las
diferentes ciencias. Cada uno tiene sus objetivos y razón de ser.

HERNANDEZ SAMPIERI (2014)


CAPÍTULO 5

DEFINICIÓN DEL ALCANCE DE LA INVESTIGACIÓN QUE SE


REALIZARÁ: EXPLORATORIO, DESCRIPTIVO,
CORRELACIONAL O EXPLICATIVO.
Una vez que hemos efectuado la revisión de la literatura y afinamos el
planteamiento del problema, consideramos qué alcances, inicial y final, tendrá
nuestra investigación:
• exploratorio,
• descriptivo,
• correlacional o
• explicativo.
Es decir, ¿hasta dónde, en términos de conocimiento, es posible que llegue el
estudio?
En ocasiones, al desarrollar nuestra investigación, nos podemos percatar de que el
alcance será diferente del que habíamos proyectado.
Ningún alcance de la investigación es superior a los demás, todos son significativos y
valiosos. La diferencia para elegir uno u otro estriba en el grado de desarrollo del
conocimiento respecto al tema a estudiar y a los objetivos y las preguntas planteadas.
Los estudios exploratorios tienen como objetivo esencial familiarizarnos con un
tópico desconocido o poco estudiado o novedoso. Esta clase de investigaciones sirven
para desarrollar métodos que se utilicen en estudios más profundos.
Los estudios descriptivos sirven para analizar cómo es y cómo se manifiesta un
fenómeno y sus componentes.
Los estudios correlacionales pretenden determinar cómo se relacionan o vinculan
diversos conceptos, variables o características entre sí o, también, si no se relacionan.
Los estudios explicativos buscan encontrar las razones o causas que provocan ciertos
fenómenos.
En el nivel cotidiano y personal, sería como investigar por qué a una joven le a
bailar, por qué se incendió un edificio o por qué se realizó un atentado terrorista.

35
Metodología General 2020
TANY

Una misma investigación puede abarcar fines exploratorios, en su inicio, y terminar


siendo descriptiva, correlacional y hasta explicativa, todo depende de los objetivos
del investigador.

HERNANDEZ SAMPIERI (2014)


CAPÍTULO 6

FORMULACIÓN DE HIPÓTESIS
¿Qué son las hipótesis?
Son las guías para una investigación o estudio. Indican lo que tratamos de probar y se
definen como explicaciones tentativas del fenómeno investigado.
La hipótesis es el centro, la médula o el eje del método cuantitativo.

¿En toda investigación debemos plantear hipótesis?


El hecho de que se formulen o no hipótesis depende de un factor esencial: el alcance
inicial del estudio.
Formulación de hipótesis en estudios cuantitativos con alcances diferentes:
• Alcance exploratorio: no se formulan hipótesis.
• Alcance descriptivo: solo se producen hipótesis cuando se pronostica un
hecho o dato.
• Alcance correlacional: se formulan hipótesis correlaciónales.
• Alcance explicativo: se formulan hipótesis causales.
En una investigación puede haber una, dos o más hipótesis.

¿Las hipótesis son siempre verdaderas?


Las hipótesis no son necesariamente verdaderas, pueden serlo o no serlo y pueden o no
comprobarse con datos.
¿Qué son las variables?
Una variable es una propiedad que puede fluctuar y cuya variación es susceptible de
medirse u observarse, aplicando a personas u otros seres vivos, objetos, hechos o
fenómenos, los cuales adquieren diversos valores respecto de la variable referida.
Las variables adquieren valor para la investigación científica cuando llegan a
relacionarse con otras variables, es decir si forman parte de una hipótesis o de una
teoría.
¿De dónde surgen las hipótesis?
Surgen del planteamiento del problema y también provienen de la revisión misma de la
literatura. Provienen de la revisión inicial de la literatura hecha para familiarizarnos
con el problema de estudio, nos lleva a plantearlo, después ampliamos la revisión de la
literatura y afinamos o precisamos el planteamiento del cual derivamos las hipótesis.

36
Metodología General 2020
TANY

Al formular las hipótesis se vuelve a evaluar el planteamiento del problema.


¿Qué características debe tener una hipótesis?
♦ Debe referirse a una situación real.
♦ Las variables o términos de la hipótesis deben ser comprensibles, precisos y lo más
concreto posibles.
♦ La relación entre variables propuesta por una hipótesis debe ser clara y verosímil
(lógica).
♦ Los términos o variables de la hipótesis deben ser observables y medibles, así como
la relación planteada entre ellos, o sea tener referentes en la realidad.
♦ Las hipótesis deben estar relacionadas con técnicas disponibles para probarlas.
¿Qué tipos de hipótesis se pueden establecer?
Existen diferentes tipos pero aquí se manejaran las siguientes:
♦ Hipótesis de investigación.
○ Descriptivas o de valor predeterminado: se utilizan para predecir un dato.
○ Valor en una o más variables que se van a medir o a observar.
○ Correlaciónales: Especifican las relaciones entre dos o más variables y
corresponden a los estudios correlaciónales. Este tipo de hipótesis no solo establecen
que hay relación entre las variables, sino también como es la relación.
○ De diferencia de grupos.
○ Causales: Este tipo de hipótesis no solamente afirma la o las relaciones entre dos o
más variables y la manera en que se manifiestan, sino que además propone un sentido
de entendimiento de las relaciones.
♦ Hipótesis nulas: Se formula en investigaciones cuya finalidad es comparar grupos.
♦ Hipótesis alternativas: son posibilidades alternas ante la hipótesis de investigación
y nula.
○ Se simbolizan como Ha y solo pueden formularse cuando hay otras posibilidades,
además de las hipótesis de investigación y nula.
○ La calidad de una investigación no necesariamente está relacionada con el número
de hipótesis que contenga. En ese sentido, se debe tener el número de hipótesis
necesarias para guiar el estudio, ni una más ni una menos.
○ En una misma investigación es posible establecer todos los tipos de hipótesis, porque
el problema de investigación así lo requiere.
○ Los tipos de estudio que no establecen hipótesis son los exploratorios.
♦ Hipótesis estadísticas.
¿Qué es la prueba de hipótesis?
Las hipótesis en el enfoque cuantitativo se someten a prueba en la
realidad cuando se aplica un diseño de investigación, se recolectan datos

37
Metodología General 2020
TANY

con uno o varios instrumentos de medición y se analizan e interpretan


estos mismos datos.

¿Cuál es la utilidad de la hipótesis?


○ Son las guías de una investigación en el enfoque cuantitativo. Formularlas nos
ayuda a saber lo que tratamos de buscar o probar. Proporcionan orden y lógica al
estudio.
○ Tienen una función descriptiva y explicativa, según el caso.
○ Nos sirven para probar teorías.
○ Nos sugieren teorías, esta función no es muy frecuente.

¿Qué ocurre cuando no se aporte evidencia a favor de las hipótesis de


investigación?
No siempre los datos apoyan las hipótesis, pero eso no significa que los datos carezcan
de utilidad.
La American Psychological Asociation (APA) señala que se deben “mencionar todos
los resultados relevantes, incluso aquellos que contradigan la hipótesis”.
Se deben definir las variables de una hipótesis por varios motivos:
○ Para que el investigador, sus colegas, los usuarios de estudio y en general cualquier
persona que lea la investigación le den el mismo significado a los términos o variables
incluidas en las hipótesis.
○ asegurarnos que las variables pueden ser medidas, observadas, evaluadas o inferidas,
es decir que d ellas se pueden obtener datos de la realidad.
○ Confrontar nuestra investigación con otras similares.
○ Evaluar más adecuadamente los resultados de la investigación porque las variables y
no solo las hipótesis se contextualizan.

HERNANDEZ SAMPIERI (2014)


CAPÍTULO 7

CONCEPCIÓN O ELECCIÓN
DEL DISEÑO DE INVESTIGACIÓN

EL “DISEÑO” se refiere al plan o la estrategia concebidos para obtener la


información que se desea.
En el caso del proceso cuantitativo, el investigador utiliza su diseño para
analizar la certeza de las hipótesis formuladas en un contexto específica como

38
Metodología General 2020
TANY

para aportar evidencia respecto de los lineamientos de la investigación (si es que


no se tienen hipótesis).

En un estudio pueden plantearse o tener cabida uno o más diseños.

La tipología propuesta clasifica a los diseños en experimentales y no


experimentales.

Los diseños experimentales se subdividen en experimentos “puros”, cuasi


experimentos y pre experimentos.

Los diseños no experimentales se subdividen por el número de veces que


recolectan datos en transeccionales y longitudinales.

En su acepción más general, un experimento consiste en aplicar un estímulo o


tratamiento a un individuo o grupo de individuos, y ver el efecto de ese estimulo
en alguna(s) variable(s). Esta observación se puede realizar en condiciones de
mayor o menor control.

El máximo control se alcanza en los experimentos “puros”.


Deducimos que un tratamiento afecto cuando observamos diferencias (en las
variables que supuestamente serían las afectadas) entre un grupo al que se le
administro dicho estímulo y un grupo al que no se le administro, siendo ambos
iguales en todo, excepto en esto último.

La variable independiente es la causa y la dependiente el efecto.


Para lograr el control o la validez interna los grupos que se comparen deben ser
iguales en todo, menos en el hecho de que a un grupo se le administro el estímulo
y a otro no. A veces graduamos la cantidad del estímulo que se administra, es
decir, a distintos grupos (semejantes) les administramos diferentes grados del
estímulo para observar si provocan efectos distintos.

La asignación al azar es normalmente el método preferible para lograr que los


grupos del experimento sean comparables (semejantes).
Las principales fuentes que pueden invalidar un experimento son:
• historia,
• maduración,
• inestabilidad,
• administración de pruebas,
• instrumentación,
• regresión,
• selección,
• mortalidad experimental,
• difusión de tratamientos experimentales,
• compensación y
• el experimentador.

39
Metodología General 2020
TANY

Los experimentos que hacen equivalentes a los grupos, y que mantienen esta
equivalencia durante el desarrollo de aquellos, controlan las fuentes de
invalidación interna.

Lograr la validez interna es el objetivo metodológico y principal de todo


experimento. Una vez que se consigue, es ideal alcanzar validez externa
(posibilidad de generalizar los resultados a la población, otros experimentos y
situaciones no experimentales).

Las principales fuentes de invalidación externa son:


• efecto reactivo de las pruebas,
• efecto de interacción entre los errores de selección y
• el tratamiento experimental,
• efectos reactivos de los tratamientos experimentales,
• interferencia de tratamientos múltiples,
• imposibilidad de replicar los tratamientos,
• descripciones insuficientes del tratamiento experimental,
• efectos de novedad e interrupción,
• el experimentador,
• interacción entre la historia o el lugar y
• los efectos del tratamiento dependiente.

Hay dos contextos donde se realizan los experimentos: el *

• laboratorio y
• el campo.

En los cuasi experimentos no se asignan al azar los sujetos a los grupos


experimentales, sino que se trabaja con grupos intactos.
Los cuasi experimentos alcanzan validez interna en la medida en que demuestran
la equivalencia inicial de los grupos participantes y la equivalencia en el proceso
de experimentación.

Los experimentos “puros” constituyen estudios explicativos; los pre


experimentos básicamente son estudios exploratorios y descriptivos; los cuasi
experimentos son, fundamentalmente, correlacionales aunque pueden llegar a ser
explicativos.
La investigación no experimental es la que se realiza sin manipular
deliberadamente las variables independientes; se basa en categorías, conceptos,
variables, sucesos, comunidades o contextos que ya ocurrieron o se dieron sin la
intervención directa del investigador.

La investigación no experimental también se conoce como investigación ex


pos-facto (los hechos y variables ya ocurrieron), y observa variables y relaciones
entre estas en su contexto natural.

Los diseños transeccionales realizan observaciones en un momento único en el


tiempo.

40
Metodología General 2020
TANY

Cuando recolectan datos sobre una nueva área sin ideas prefijadas y con
apertura son más bien exploratorios;

Cuando recolectan datos sobre cada una de las categorías, conceptos, variables,
contextos, comunidades o fenómenos, y reportan lo que arrojan esos datos son
descriptivos;

Cuando además describen vinculaciones y asociaciones entre:


• categorías,
• conceptos,
• variables,
• sucesos,
• contextos o
• comunidades son correlaciónales,

Y si establecen procesos de causalidad entre tales términos se consideran


correlaciónales-causales.

Las encuestas de opinión (surveys) son investigaciones no experimentales


transversales o transaccionales descriptivas o correlaciónales-causales, ya que
a veces tienen los propósitos de unos u otros diseños y a veces de ambos.

En los diseños transaccionales, en su modalidad “causal”, a veces se


reconstruyen las relaciones a partir de la(s) variable(s) dependiente(s), en otras a
partir de la(s) independiente(s) y en otras más sobre la base de variabilidad
amplia de las independientes y dependientes (al primer caso se les conoce como
“retrospectivos”, al segundo como “prospectivos” y al tercero como “causalidad
múltiple”).

Los diseños longitudinales efectúan observaciones en dos o más momentos o


puntos en el tiempo. Si estudian una población son diseños de tendencia
(trends), si analizan una subpoblación o grupo específico son diseños de análisis
evolutivo de grupo (cohorte) y si se estudian los mismos participantes son
diseños panel.

El tipo de diseño a elegir se encuentra condicionad por el enfoque seleccionado, el


problema a investigar, el contexto que rodea la investigación, los alcances del
estudio a efectuar y las hipótesis formuladas.

HERNANDEZ SAMPIERI (2014)


CAPITULO 8

SELECCIÓN DE LA MUESTRA.
En el capítulo se definió el concepto de muestra.
Además, se describió cómo seleccionar una muestra en el proceso cuantitativo. Lo
primero que se debe plantear es sobre qué o quiénes se van a recolectar los datos, lo
41
Metodología General 2020
TANY

cual corresponde a precisar la unidad de análisis. Después, se procede a delimitar


claramente la población, con base en los objetivos del estudio y en cuanto a
características de contenido, de lugar y de tiempo.
La muestra es un subgrupo de la población y puede ser:
• probabilística o
• no probabilística.
Elegir qué tipo de muestra se requiere depende del enfoque y alcances de la
investigación, los objetivos del estudio y el diseño.

En el enfoque cuantitativo las muestras probabilísticas son esenciales en diseños


de investigación por encuestas, donde se pretenden generalizar los resultados a una
población. La característica de este tipo de muestras es que todos los elementos de
la población al inicio tienen la misma probabilidad de ser elegidos. Así, los
elementos muestrales tendrán valores muy aproximados a los valores de la
población, ya que las mediciones del subconjunto serán estimaciones muy precisas
del conjunto mayor. Tal precisión depende del error de muestreo, llamado también
error estándar.

1) Para una muestra probabilística necesitamos dos elementos:


• determinar el tamaño adecuado de la muestra y
• seleccionar los elementos muestrales en forma aleatoria.

El tamaño de la muestra se calcula mediante fórmulas o por medio del programa


STATS®, que se encuentra en el CD que acompaña al libro.

Las muestras probabilísticas son:


• simples,
• estratificadas,
• sistemáticas y
• por racimos.
La estratificación aumenta la precisión de la muestra e implica el uso deliberado de
submuestras para cada estrato o categoría que sea relevante en la población.
Muestrear por racimos o conglomerados implica diferencias entre la unidad de
análisis y la unidad muestral. En este tipo de muestreo hay una selección en varias
etapas, todas con procedimientos probabilísticos. En la primera se seleccionan los
racimos y dentro de los racimos, a los participantes que van a ser medidos.
Los elementos muestrales de una muestra probabilística siempre se eligen
aleatoriamente para asegurarnos de que cada elemento tenga la misma probabilidad
de ser seleccionado.

Es posible utilizar cuatro procedimientos de selección:


1) tómbola,

42
Metodología General 2020
TANY

2) números aleatorios,
3) uso del subprograma de números aleatorios del STATS® y
4) selección sistemática.
Todo procedimiento de selección depende de listados o bases de datos, ya sean
existentes o construidas ad hoc.
Los listados pueden ser:
• la guía telefónica,
• listas de asociaciones,
• listas de escuelas oficiales, etc.
Cuando no existen listas de elementos de la población, se recurre a otros marcos de
referencia que contengan descripciones del material, organizaciones o participantes
seleccionados como unidades de análisis. Algunos de éstos pueden ser archivos,
hemerotecas y mapas, así como internet.

2) Las muestras no probabilísticas pueden también llamarse muestras dirigidas, pues


la elección de casos depende del criterio del investigador.
En el teorema del límite central se señala que una muestra de más de cien casos será
una muestra con una distribución normal en sus características; sin embargo, la
normalidad no debe confundirse con probabilidad. Mientras lo primero es necesario
para efectuar pruebas estadísticas, lo segundo es requisito indispensable para hacer
inferencias correctas sobre una población.

HERNANDEZ SAMPIERI (2014)


CAPITULO 9

RECOLECCIÓN
DE DATOS CUANTITATIVOS
Recolectar los datos implica:
A) seleccionar uno o varios métodos o instrumentos disponibles, adaptarlo(s) o
desarrollarlo(s), esto depende del enfoque que tenga el estudio, así como del
planteamiento del problema y de los alcances de la investigación;
B) aplicar el (los) instrumento(s), y c) preparar las mediciones obtenidas o los
datos recolectados para analizarlos correctamente.
En el enfoque cuantitativo, recolectar los datos es equivalente a medir.
Medir es el proceso de vincular conceptos abstractos con indicadores empíricos,
mediante clasificación o cuantificación.
En toda investigación cuantitativa medimos las variables contenidas en la(s)
hipótesis.
Cualquier instrumento de recolección de datos debe cubrir dos requisitos:

• confiabilidad y

43
Metodología General 2020
TANY

• validez.
La confiabilidad se refiere al grado en que la aplicación repetida de un instrumento
de medición, a los mismos individuos u objetos, produce resultados iguales.
La validez se refiere al grado en que un instrumento de medición mide realmente
la(s) variable(s) que pretende medir.
Se pueden aportar tres tipos principales de evidencia para la validez
cuantitativa:

• evidencia relacionada con el contenido,


• evidencia relacionada con el criterio y
• evidencia relacionada con el constructo.

Los factores que principalmente pueden afectar la validez son:


• la improvisación,
• utilizar instrumentos desarrollados en el extranjero y que no han sido validados para
nuestro contexto,
• poca o nula empatía con los participantes y
• los factores de aplicación.
No hay medición perfecta, pero el error de medición debe reducirse a límites
tolerables.
La confiabilidad cuantitativa se determina al calcular el coeficiente de fiabilidad.
Los coeficientes de fiabilidad cuantitativa varían entre 0 y 1 (0 = nula
confiabilidad, 1 = total confiabilidad).

Los métodos más conocidos para calcular la confiabilidad son:


a) medida de estabilidad,
b) formas alternas,
c) mitades partidas,
d) consistencia interna.
La evidencia sobre la validez de contenido se obtiene al contrastar el universo de
ítems frente a los ítems presentes en el instrumento de medición.
La evidencia sobre la validez de criterio se obtiene al comparar los resultados de
aplicación del instrumento de medición frente a los resultados de un criterio externo.
La evidencia sobre la validez de constructo se puede determinar mediante el análisis
de factores y al verificar la teoría subyacente.
Los pasos genéricos para elaborar un instrumento de medición son:
• Redefiniciones fundamentales sobre propósitos,
• definiciones operacionales y
• participantes.

44
Metodología General 2020
TANY

Revisar la literatura, particularmente la enfocada en los instrumentos utilizados para


medir las variables de interés.
Identificar el conjunto o dominio de conceptos o variables a medir e indicadores de
cada variable.

Tomar decisiones en cuanto a:


• tipo y formato; utilizar uno existente, adaptarlo o construir uno nuevo, así como el
contexto de administración.

• Construir el instrumento.

• Aplicar la prueba piloto (para calcular la confiabilidad y validez iniciales).

• Desarrollar su versión definitiva.

• Entrenar al personal que va a administrarlo.

• Obtener autorizaciones para aplicarlo.

• Administrar el instrumento.

• Preparar los datos para el análisis.

• En la investigación social disponemos de diversos instrumentos de medición.

• Principales escalas de actitudes: Likert, diferencial semántico y escalograma de


Guttman

• Cuestionarios (auto administrado, por entrevista personal, por entrevista telefónica,


internet y por correo).

• Recolección de contenidos para análisis cuantitativo.

• Observación cuantitativa

• Pruebas estandarizadas

• Archivos y otras formas de medición

• Las respuestas a un instrumento de medición se codifican.

• Actualmente, la codificación se efectúa transfiriendo los valores registrados en los


instrumentos aplicados (cuestionarios, escalas de actitudes o equivalentes) a un
archivo/matriz de un programa computarizado de análisis estadístico (SPSS®,
Minitab o equivalente).

45
Metodología General 2020
TANY

RESUMEN:

En el capítulo se analizan los requisitos que un instrumento debe cubrir para


recolectar apropiadamente datos cuantitativos: confiabilidad, validez y
objetividad. Asimismo, se define el concepto de medición y los errores que
pueden cometerse al recolectar datos. A lo largo del capítulo se presenta el
proceso para elaborar un instrumento de medición y las principales
alternativas para recolectar datos: cuestionarios y escalas de actitudes. Por
último, se examina el procedimiento de codificación de datos cuantitativos y
la forma de prepararlos para su análisis.

El primero provee evidencia empírica, el segundo proporciona modelos teóricos para


encontrar sentido a ese segmento del mundo real que estamos tratando de describir.

En toda investigación cuantitativa aplicamos un instrumento para medir las variables


contenidas en las hipótesis (y cuando no hay hipótesis simplemente para medir las
variables de interés). Esa medición es efectiva cuando el instrumento de recolección
de datos en realidad representa a las variables que tenemos en mente. Si no es así,
nuestra medición es deficiente; por tanto, la investigación no es digna de tomarse en
cuenta. Desde luego, no hay medición perfecta.

Es casi imposible que representemos con fidelidad variables tales como la


inteligencia emocional, la motivación, el nivel socio económico, el liderazgo
democrático, el abuso sexual infantil y otras más; pero es un hecho que debemos
acercarnos lo más posible a la representación fi el de las variables a observar,
mediante el instrumento de medición que desarrollemos.

La elección del tipo de preguntas que contenga el cuestionario depende del grado en
que se puedan anticipar las posibles respuestas, los tiempos de que se disponga para
codificar y si se quiere una respuesta más precisa o profundizar en alguna cuestión.
Una recomendación para construir un cuestionario es que se analice, variable por
variable, qué tipo de pregunta o preguntas suelen ser más confiables y válidas para
medir esa variable, de acuerdo con la situación del estudio

46
Metodología General 2020
TANY

GERARDO PRIETO Y ANA R. DELGADO (2010)

FIABILIDAD Y VALIDEZ
En este capítulo se describen conceptualmente las propiedades psicométricas de
fiabilidad y validez y los procedimientos para evaluarlas. El apartado dedicado a la
fiabilidad o precisión de las puntuaciones de las pruebas describe los distintos
modelos, procedimientos empíricos e índices estadísticos para cuantificarla. En
cuanto a la validez, la propiedad psicométrica más importante y la que ha
experimentado mayores transformaciones a lo largo de la historia de la Psicometría,
se resumen las principales concepciones y los debates en torno a la misma.

Se previene al lector de dos frecuentes malentendidos:


En primer lugar, considerar que la fiabilidad y la validez son características de los
tests cuando corresponden a propiedades de las interpretaciones, inferencias o usos
específicos de las medidas que esos tests proporcionan;
En segundo lugar, tratar la fiabilidad y la validez como propiedades que se poseen o
no en lugar de entenderlas como una cuestión de grado.
Palabras clave: Fiabilidad, Psicometría, Tests, Validez.
Los psicólogos utilizan diversos procedimientos estandarizados para obtener muestras
de la conducta de las personas. Estos recursos, genéricamente denominados tests,
incluyen un procedimiento de puntuación que permite obtener medidas que pueden
ser usadas con distintos propósitos: estimar el nivel de la personas en un constructo
(ansiedad, calidad de vida, visualización espacial...), evaluar la competencia tras un
periodo de aprendizaje, clasificar a los pacientes en categorías diagnósticas o
seleccionar a los aspirantes más aptos para un puesto de trabajo. La legitimidad y
eficiencia de estas prácticas depende de su fiabilidad y validez.

En este capítulo se describen, de forma conceptual, estas dos características


psicométricas y los procedimientos más frecuentes para evaluarlas. De entrada, hay
que prevenir al lector de dos frecuentes malentendidos. El primero consiste en
considerar que la fiabilidad y la validez son características de los tests. Por el
contrario, corresponden a propiedades de las interpretaciones, inferencias o usos
específicos de las medidas que esos tests proporcionan. El segundo se refiere a la
consideración de que la fiabilidad y la validez se poseen o no, en lugar de entenderlas
como una cuestión de grado (AE-RA, APA y NCME, 1999).

FIABILIDAD
La fiabilidad se concibe como la consistencia o estabilidad de las medidas cuando el
proceso de medición se repite.

47
Metodología General 2020
TANY

Por ejemplo, si las lecturas del peso de una cesta de manzanas varían mucho en
sucesivas mediciones efectuadas en las mismas condiciones, se considerará que las
medidas son inestables, inconsistentes y poco fiables.
La carencia de precisión podría tener consecuencias indeseables en el coste de ese
producto en una ocasión determinada. De esta concepción se sigue que de la
variabilidad de las puntuaciones obtenidas en repeticiones de la medición puede
obtenerse un indicador de la fiabilidad, consistencia o precisión de las medidas. Si la
variabilidad de las medidas del objeto es grande, se considerará que los valores son
imprecisos y, en consecuencia, poco fiables. De manera semejante, si una persona
contestase a un test repetidamente en las mismas condiciones, de la variabilidad de las
puntuaciones podría obtenerse un indicador de su grado de fiabilidad. La
imposibilidad de lograr que las medidas se lleven a cabo exactamente en las mismas
condiciones es uno de los problemas de la medición psicológica y educativa. El nivel
de atención y de motivación de una persona puede variar al contestar repetidamente a
la misma prueba, la dificultad de dos tests pretendidamente iguales construidos para
medir el mismo constructo puede ser desigual, las muestras de examinadores que
califican un examen de selectividad pueden diferir en el grado de severidad, etc.

Por tanto, el esfuerzo de los evaluadores ha de centrarse en estandarizar el


procedimiento de medición para minimizar la influencia de aquellas variables
extrañas que pueden producir inconsistencias no deseadas. La estandarización del
procedimiento implica obtener las medidas en todas las ocasiones en condiciones
muy semejantes: con el mismo tiempo de ejecución, las mismas instrucciones,
similares ejemplos de práctica, tareas de contenido y dificultad equivalentes, similares
criterios de calificación de los evaluadores de exámenes, etc.

El estudio de la fiabilidad parte de la idea de que la puntuación observada en una


prueba es un valor concreto de una variable aleatoria consistente en todas las posibles
puntuaciones que podrían haber sido obtenidas por una persona en repeticiones del
proceso de medida en condiciones semejantes (Haertel, 2006).
Obviamente, no es posible repetir la medición un número muy grande de veces a los
mismos participantes.

Por tanto, la distribución de las puntuaciones es hipotética y sus propiedades deben


ser estimadas indirectamente. La media de esa distribución, que reflejaría el nivel de
una persona en el atributo de interés, es denominada puntuación verdadera en la
Teoría Clásica de los Tests (TCT). La TCT es un conjunto articulado de
procedimientos psicométricos desarrollados fundamentalmente en la primera mitad
del siglo pasado, que se ha utilizado extensivamente para la construcción, análisis y
aplicación de los tests psicológicos y educativos.

Aunque la TCT surgió en el contexto de la medición de las aptitudes humanas, sus


propuestas se extienden a otras áreas. Se asume que la puntuación verdadera de una
persona no cambia entre ocasiones, por lo que la variabilidad de las puntuaciones
observadas se debe a la influencia de un error de medida aleatorio, no sistemático

48
Metodología General 2020
TANY

(producido por causas desconocidas e incontrolables en esa situación). La cantidad de


error en cada caso sería la diferencia entre una puntuación observada y la puntuación
verdadera. La desviación típica de los errores, denominada error típico de medida
(ETM), indica la precisión de las puntuaciones de una persona, es decir, su
variabilidad en torno a la puntuación verdadera. El ETM refleja el error que puede
esperarse en una puntuación observada.
Por ejemplo, si el error típico de medida del peso de un objeto fuese de dos gramos,
se puede aventurar que el peso observado diferirá del peso verdadero en más de dos
gramos solo la tercera parte de las veces. Aunque la TCT permite estimar el ETM
para personas situadas en distintos rangos de la variable (denominados errores típicos
de medida condicionales), suele emplearse un único valor aplicable de forma general
a todas las puntuaciones de las personas de una población.

Obviamente, la valoración del ETM depende de la magnitud de los objetos que se


están midiendo: dos gramos es un error despreciable si se pesan objetos muy pesados
como sacos de cereales, pero es un error notable si se pesan objetos más livianos
como los diamantes. Es decir, el valor del ETM está en las mismas unidades que los
objetos medidos y carece de un límite superior estandarizado que facilite su
valoración. Por ello, se ha propuesto un índice estandarizado de consistencia o
precisión denominado coeficiente de fiabilidad que puede oscilar entre 0 y 1. De la
TCT se deriva que este coeficiente es el cociente entre la varianza de las
puntuaciones verdaderas y la varianza de las puntuaciones observadas en una
población de personas. En consecuencia, indica la proporción de la variabilidad de las
puntuaciones observadas que no puede atribuirse al error de medida; por ejemplo, si
el coeficiente de fiabilidad es de 0,80, se considera que el 20% de la variabilidad
observada es espuria.

Para estimar empíricamente los estadísticos de fiabilidad (ETM y coeficiente de


fiabilidad) se emplean diversos diseños de recogida de datos que reflejan distintas
repeticiones del proceso de medida. Los más conocidos se denominan test-retest
(aplicación de un test a una muestra de personas en dos ocasiones entre las que el
atributo se mantiene estable), formas paralelas (aplicación a una muestra de personas
en la misma ocasión o en distintas ocasiones de dos versiones del test equivalentes en
contenido, dificultad, etc), consistencia entre las partes de una prueba (división del
test en dos subconjuntos equivalentes de ítems o estimación a partir de las
covarianzas entre los ítems de la prueba) y consistencia de las puntuaciones de
distintos calificadores (evaluación de una muestra de conducta por calificadores
independientes). La estimación del coeficiente de fiabilidad a partir de estos diseños
suele basarse en la correlación entre las puntuaciones observadas obtenidas en las
distintas formas de replicación. Existe una extensa bibliografía para obtener una
información detallada de estos procedimientos y de los conceptos y desarrollos de la
TCT. Excelentes exposiciones pueden encontrarse en este volumen (Muñiz, 2010) y
en los textos de Gulliksen (1950), Martínez-Arias, Hernández-Lloreda y
Hernández-Lloreda (2006) y Muñiz (1998).

Además de la TCT, se emplean otros enfoques para cuantificar la fiabilidad de


las puntuaciones de los tests:

49
Metodología General 2020
TANY

• LaTeoría de la Generalizabilidad (TG) y


• la Teoría de Respuesta al Ítem (TRI).

La TCT permite cuantificar solamente dos componentes de la varianza de las


puntuaciones observadas:
• la varianza verdadera y
• la varianza de error.

La TG, concebida como una extensión de la TCT, trata de especificar la contribución


a la varianza observada de un número mayor de facetas: la variabilidad entre las
personas, las ocasiones en que se mide, las diferentes formas del instrumento, los
diferentes calificadores y las interacciones entre los componentes. La estimación de
estas influencias se lleva a cabo mediante el análisis de varianza. Los componentes
distintos a las diferencias entre personas (formas del test, calificadores, ocasiones,
etc) se interpretan como fuentes del error de las medidas, sirviendo como evidencia
de las posibles causas del error y permitiendo mejorar los procedimientos de
medición. Este modelo es especialmente útil para evaluar la fiabilidad de las
calificaciones otorgadas por evaluadores a los productos obtenidos en pruebas o
exámenes abiertos (los examinados no están constreñidos por un formato cerrado, tal
como los de las pruebas de elección múltiple, para emitir sus respuestas).

Un tratamiento más exhaustivo puede encontrarse en los textos de Brennan (2001) y


en este volumen (Martínez-Arias, 2010).

La TRI es un conjunto de modelos de medida dirigidos a estimar estadísticamente los


parámetros de las personas y los ítems en un continuo latente a partir de las respuestas
observables. En todos los procedimientos de estimación estadística de parámetros, se
cuantifica la cantidad de error de la estimación a partir del error típico (un índice de la
variabilidad de los estimadores del parámetro). Cuanto mayor sea el error típico,
menor será la precisión de la estimación y mayor será la incertidumbre sobre el valor
del parámetro. De forma similar, en los modelos de la TRI la incertidumbre sobre la
localización de una persona o un ítem en la variable latente se cuantifica a partir del
error típico de estimación (ETE) de la persona o del ítem. Este estadístico se
diferencia del error típico de medida de las personas correspondiente a la TCT.

Como ya se ha expuesto, el ETM es una medida global del error, un único valor
aplicable de forma general a todas las puntuaciones de las personas de una población,
que suele subestimar o sobrestimar el grado de error que afecta a las puntuaciones
localizadas en distintos niveles de la variable. Por el contrario, el ETE varía a lo largo
de la variable. Por tanto, puede ser considerado una medida individual de la precisión,
dado que indica la magnitud del error con la que se estiman los parámetros de las
personas o los ítems situados en distintas posiciones del continuo latente. La función
que describe cómo cambian los valores del ETE de las personas en los distintos
niveles de la variable es especialmente útil para determinar los rangos en los que un
test es más fiable y para determinar la fiabilidad de los puntos de corte empleados en
la clasificación de personas en categorías diagnósticas o de rendimiento.

50
Metodología General 2020
TANY

Puesto que el ETE permite cuantificar un intervalo para estimar el parámetro de una
persona, será mayor la incertidumbre sobre su localización cuanto mayor sea el
intervalo. Si se adopta la perspectiva opuesta, es decir, de cuánta certidumbre se
dispone sobre la localización de la persona, entonces se cuantifica la denominada
función de información que es análoga al recíproco de la varianza de error
condicional de la TCT. La función de información del test indica en qué medida éste
permite diferenciar entre las personas en los distintos niveles del atributo. Véase una
exposición más detallada en de Ayala (2009).

Terminaremos este apartado con algunas consideraciones prácticas acerca de la


interpretación y el uso de los estadísticos de fiabilidad, comenzando por responder a
una de las preguntas más frecuentes de los usuarios de las pruebas:
¿Qué grado de fiabilidad deben tener las puntuaciones para que su uso sea
aceptable? Sin duda, la magnitud requerida depende de las consecuencias derivadas
del uso de las puntuaciones. Cuando las puntuaciones vayan a emplearse para tomar
decisiones que impliquen consecuencias relevantes para las personas (p. ej.,
aceptación o rechazo en una selección de personal), el coeficiente de fiabilidad
debería ser muy alto (al menos de 0,90). Sin embargo, si se trata de describir las
diferencias individuales a nivel de grupo, bastaría con alcanzar valores más modestos
(al menos 0,70). No obstante, estas convenciones deben seguirse con cautela: si la
evaluación de la fiabilidad se ha llevado a cabo mediante los procedimientos
derivados de la TCT, los resultados no habrán de ser necesariamente intercambiables,
puesto que los diferentes diseños de recogida de datos antes mencionados (test-retest,
formas paralelas, consistencia interna, etc) aprecian distintas fuentes de error:

• inestabilidad de las medidas,


• falta de equivalencia de las pruebas,
• heterogeneidad de los ítems, escasez de concordancia de los evaluadores, etc.

Por tanto, es aconsejable disponer de estimaciones de la fiabilidad a partir de distintos


diseños para lograr una mejor comprensión del error que afecta a las puntuaciones
(Prieto y Muñiz, 2000). Además, los estadísticos de fiabilidad varían entre
poblaciones y están afectados por otras condiciones como la longitud de la prueba y
la variabilidad de las muestras de personas. En consecuencia, se ha de evitar el error
de considerar que la estimación de la fiabilidad procedente de un único estudio refleja
la verdadera y única fiabilidad de la prueba.

Los constructores y los usuarios de las pruebas deben informar detalladamente de los
métodos de cuantificación, de las características de las muestras y de las condiciones
en las que se han obtenido los datos (AERA, APA y NCME, 1999). Como hemos
indicado anteriormente, el error típico de medida está expresado en las mismas
unidades que las puntuaciones de la prueba. Por ello, es difícil establecer
comparaciones entre la fiabilidad de las puntuaciones de distintos tests en base a este
estadístico. Por el contrario, la magnitud del coeficiente de fiabilidad oscila siempre

51
Metodología General 2020
TANY

entre unos límites estandarizados (0 y 1), por lo que es muy útil para elegir el test más
fiable entre los potencialmente utilizables para una aplicación específica. Sin
embargo, el error típico de medida aporta más información para describir la precisión
de las puntuaciones.

En ocasiones, se utilizan las puntuaciones de los tests, no simplemente para estimar la


posición de una persona en la población de interés (denominada interpretación
relativa), sino para asignarla a una categoría diagnóstica o de rendimiento
(patológica/normal, apto/no apto, aceptado/excluido, etc). Para realizar este tipo
absoluto de interpretaciones, se suelen emplear puntos de corte que guían la
clasificación. Puesto que la fiabilidad de las puntuaciones no suele ser la misma en
todos los niveles de la variable, conviene conocer el grado de error en las cercanías
del punto de corte, dado que si es alto será elevado el número de falsos positivos y
negativos en la clasificación. En este caso, es aconsejable emplear la función de error
de estimación o de información derivada de los modelos de la TRI.

Terminaremos este apartado analizando la relación entre la fiabilidad y la validez de


las puntuaciones, la propiedad que se describe en el siguiente apartado. En la
actualidad se considera que la validez, definida como el grado en que las
interpretaciones y los usos que se hacen de las puntuaciones están justificados
científicamente, es la propiedad psicométrica más importante. Obviamente, la utilidad
de unas puntuaciones escasamente fiables para tales fines estará seriamente
comprometida. De ahí que se considere la fiabilidad como condición necesaria de la
validez. Sin embargo, no será una condición suficiente si las puntuaciones verdaderas,
aunque se estimen de manera muy precisa, no resultan apropiadas para conseguir el
objetivo de la medida (representar un constructo, predecir un criterio de interés, etc).
Es útil tener presente que la fiabilidad es una cuestión relativa a la calidad de los
datos, mientras que la validez se refiere a la calidad de la inferencia (Zumbo, 2007).

VALIDEZ
El concepto de validez ha experimentado transformaciones importantes durante el
último siglo, provocadas por los diversos objetivos a los que se han destinado los
tests. De acuerdo con Kane (2006), entre 1920 y 1950 el uso principal de las pruebas
consistió en predecir alguna variable de interés denominada criterio (por ejemplo, el
rendimiento laboral o académico). En la actualidad este enfoque sigue siendo de suma
importancia cuando se emplean las pruebas para seleccionar a los candidatos más
aptos para un empleo, en los programas de admisión, en la adscripción de pacientes a
tratamientos, etc. En estos casos, la evaluación de la utilidad de la prueba suele
cuantificarse mediante la correlación entre sus puntuaciones y las de alguna medida
del criterio (coeficiente de validez).

Sin embargo, el éxito de este tipo de justificación depende de la calidad de la medida


del criterio, especialmente de su representatividad (por ejemplo, ¿los indicadores
para medir el criterio son suficientes y representativos del puesto de trabajo a
desempeñar?). De ahí que el énfasis se desplazase a la justificación de que la

52
Metodología General 2020
TANY

puntuación en el criterio procedía de una muestra de indicadores que representase de


forma apropiada el dominio o contenido a medir (la totalidad de los indicadores
posibles).

Por tanto, esta fase inicial de desarrollo del concepto terminó con la propuesta de dos
vías regias para establecer la validez de las pruebas:
*la validación de criterio (la correlación entre las puntuaciones del test y las
puntuaciones en el criterio) y
*la validación de contenido (la justificación de que los ítems para medir el criterio
son una muestra representativa del contenido a evaluar).

La validación de contenido se extendió desde el análisis del criterio al de la validez


de los tests predictores: una prueba no puede considerarse válida si los ítems que la
componen no muestrean adecuadamente el contenido a evaluar. La validación de
contenido es un enfoque especialmente fértil cuando las facetas del dominio a medir
pueden identificarse y definirse claramente. Es éste el caso de los tests dirigidos a
evaluar el rendimiento académico que puede especificarse en función de los objetivos
de la instrucción (conceptos y habilidades que un alumno ha de poseer).
La metodología de validación descansa fundamentalmente en la evaluación de
expertos acerca de la pertinencia y la suficiencia de los ítems, así como de la
adecuación de otras características de la prueba como las instrucciones, el tiempo de
ejecución, etc. Sin embargo, especificar con precisión el contenido de las
manifestaciones de constructos como la extraversión, la memoria de trabajo o la
motivación de logro es una tarea más difícil.

De ahí que tanto la validación de contenido como la de criterio se considerasen


insuficientes para justificar el uso de pruebas dirigidas a evaluar aptitudes cognitivas
o atributos de la personalidad. Esta insatisfacción se concretó en el influyente artículo
de Cronbach y Meehl (1955) en el que se propone la validación de constructo como
el modo principal de validación. Cronbach (1971) puntualizó que en un test para
medir un rasgo de personalidad no hay únicamente un criterio relevante que predecir,
ni un contenido que muestrear. Se dispone, por el contrario, de una teoría acerca del
rasgo y de sus relaciones con otros constructos y variables. Si se hipotetiza que la
puntuación del test es una manifestación válida del atributo, se puede contrastar la
asunción analizando sus relaciones con otras variables. En consecuencia, la
validación de constructo puede concebirse como un caso particular de la
contrastación, de las teorías científicas mediante el método hipotético-deductivo.

Aunque el usuario no sea, en general, consciente de ello, las técnicas de medida


implican teorías (que se suponen suficientemente corroboradas en el momento de
usarlas para contrastar hipótesis científicas o prácticas), por lo que deben venir
avaladas ellas mismas por teorías cuyo grado de sofisticación dependerá del momento
en que se encuentre el programa de investigación en el que han surgido (Delgado y
Prieto, 1997). Dado que una teoría postula una red de relaciones entre constructos y
atributos observables, no podremos asumir que las puntuaciones son válidas si la

53
Metodología General 2020
TANY

teoría es formalmente incorrecta, las predicciones derivadas de la teoría no se


cumplen en los datos empíricos o se han violados otros supuestos auxiliares. Así,
desde finales del siglo pasado se ha impuesto la concepción de que la validación de
constructo constituye un marco integral para obtener pruebas de la validez,
incluyendo las procedentes de la validación de criterio y de contenido (Messick,
1989).

El marco de validación se define a partir de teorías en las que se especifican el


significado del constructo a evaluar, sus relaciones con otros constructos, sus
manifestaciones y sus potenciales aplicaciones e interpretaciones. Además de las
pruebas necesarias para justificar una adecuada representación del constructo,
Messick incluyó en el marco de validación la justificación de las consecuencias del
uso de los tests (las implicaciones individuales y sociales). Como se comentará más
adelante, la inclusión de la denominada validación de las consecuencias es aún objeto
de debate. Este breve resumen de la historia del concepto de validez, de la que hemos
mencionado algunos hitos importantes, permite comprender los conceptos actuales de
validez y validación, de los que destacaremos a continuación sus principales
características.

En la actualidad se considera que la validez se refiere al grado en que la evidencia


empírica y la teoría apoyan la interpretación de las puntuaciones de los tests
relacionada con un uso específico (AERA, APA y NCME, 1999). La validación es
un proceso de acumulación de pruebas para apoyar la interpretación y el uso de las
puntuaciones. Por tanto, el objeto de la validación no es el test, sino la interpretación
de sus puntuaciones en relación con un objetivo o uso concreto. El proceso de
validación se concibe como un argumento que parte de una definición explícita de las
interpretaciones que se proponen, de su fundamentación teórica, de las predicciones
derivadas y de los datos que justificarían científicamente su pertinencia. Dado que las
predicciones suelen ser múltiples, una única prueba no puede sustentar un juicio
favorable sobre la validez de las interpretaciones propuestas. Son necesarias pruebas
múltiples y convergentes obtenidas en diferentes estudios. Por ello, se considera que
la validación es un proceso dinámico y abierto.

Obviamente, los usos y las interpretaciones relacionadas pueden ser muy variados.
Por ello, las fuentes de validación son múltiples y su importancia varía en función de
los objetivos.
Los Standards for educational and psychological testing (AERA, APA y NCME,
1999) se refieren a las más importantes:
*el contenido del tests,
*los procesos de respuesta,
*la estructura interna de la prueba,
*las relaciones con otras variables y
*las consecuencias derivadas del uso para el que se proponen.

54
Metodología General 2020
TANY

Antes de resumir estos enfoques metodológicos, hemos de puntualizar que reflejan


distintas facetas de la validez que las engloba como un único concepto integrador. Por
tanto, no es riguroso utilizar términos, como validez predictiva, validez de contenido,
factorial, etc, que inducirían a considerar distintos tipos de validez.

VALIDACIÓN DEL CONTENIDO DEL TEST


Los tests están compuestos por un conjunto de ítems destinados a obtener una
puntuación que represente el nivel de una persona en un constructo (extraversión,
competencia en matemáticas, etc). Difícilmente se podrá justificar la calidad de las
medidas si los ítems no representan de forma suficiente las diferentes facetas de las
manifestaciones del constructo. Si eso sucede, el constructo estará infrarrepresentado
y, en consecuencia, las puntuaciones no alcanzarán el grado de validez requerido.
Asimismo, la evidencia de que las respuestas a los ítems están influidas por variables
ajenas al constructo de interés constituye una de las principales amenazas a la validez
produciendo la denominada varianza irrelevante al constructo. También son objeto de
la validez de contenido las instrucciones, los ejemplos de práctica, el material de la
prueba, el tiempo de ejecución, etc. La consulta a expertos es la vía más usual para
apreciar la calidad del contenido, especialmente en ámbitos educativos, aunque cada
vez son más empleados los métodos cualitativos basados en la observación directa,
las entrevistas o el análisis de archivos. Los procedimientos estandarizados de
consulta facilitan la obtención de datos cuantitativos indicativos del porcentaje de
ítems de calidad, el porcentaje de las facetas del dominio suficientemente evaluadas,
el porcentaje de jueces que han valorado positivamente la calidad de los materiales, la
concordancia entre los expertos, etc. Un tratamiento exhaustivo de la validación del
contenido puede encontrarse en Sireci (1998).

ANÁLISIS DE LOS PROCESOS DE RESPUESTA


Debido a la influencia de la ciencia cognitiva, la validación de los tests de
inteligencia, aptitudes y rendimiento debe incluir el análisis de los procesos, las
estrategias de resolución de problemas y las representaciones mentales que emplean
los participantes para resolver los ítems. Se obtendrá evidencia de validez cuando los
procesos utilizados se ajustan a los que se postulan en las teorías relativas al
constructo medido. La metodología de estudio es muy diversa: entrevistas a los
examinados para que describan cómo resuelven las tareas, análisis de los
movimientos oculares o tiempos de respuesta, etc.
Cuando las teorías acerca del constructo han superado las etapas meramente
exploratorias, se pueden construir los tests a partir de un diseño cognitivo que
especifica ciertos subconjuntos de ítems para suscitar determinados procesos latentes.
Las respuestas a los ítems permiten estimar, mediante modelos complejos de la TRI,
los parámetros de la persona en los distintos componentes cognitivos de la tarea e
identificar clases de personas que emplean distintas estrategias de procesamiento. En
este enfoque se basan las tendencias más avanzadas del diagnóstico cognitivo (Yang
y Embretson, 2007).

ANÁLISIS DE LA ESTRUCTURA INTERNA DEL TETS

55
Metodología General 2020
TANY

Algunos tests proporcionan una medida de un solo constructo, otros evalúan varios
constructos incluyendo una subescala para cada uno de ellos. El análisis de la
estructura interna persigue verificar empíricamente si los ítems se ajustan a la
dimensionalidad prevista por el constructor de la prueba. Cuando un test construido
inicialmente para evaluar a las personas de una población específica se pretende
adaptar a una población diferente (de otra cultura, por ejemplo), es obligado analizar
si la estructura interna de la prueba se mantiene invariante. En caso contrario, el
significado de las puntuaciones diferirá entre ambas poblaciones. El análisis de la
estructura interna del test suele llevarse a cabo con ayuda de los modelos de análisis
factorial que se describen en detalle en el artículo de Ferrando y Anguiano (2010) de
este monográfico.

Entre los métodos para evaluar la unidimensionalidad de la prueba, ocupa un lugar


importante el análisis del funcionamiento diferencial de los ítems (DIF). Se podrá
aseverar que un test tiene una validez similar en grupos de distinto sexo, cultura,
lengua materna, etc., si sus ítems no presentan DIF, como puede leerse en el artículo
de Gómez-Benito, Hidalgo y Guilera (2010).

ASOCIACIÓN DE LAS PUNTUACIONES CON OTRAS


VARIABLES
Las relaciones de las puntuaciones del test con otras variables externas a la prueba
constituyen una importante fuente de validación. Cuando se emplean las puntuaciones
para seleccionar los candidatos más aptos para un empleo, en los programas de
admisión, en la adscripción de pacientes a tratamientos, etc, la justificación se basa en
su utilidad para predecir un criterio externo. El criterio es una medida de la variable
de interés: rendimiento laboral, presencia o ausencia de un trastorno
neuropsicológico, calificaciones académicas, etc.

La utilidad de la prueba se suele cuantificar mediante la correlación entre sus


puntuaciones y las de alguna medida del criterio (coeficiente de validez), o mediante
otros procedimientos: diferencia en las puntuaciones entre grupos de distinto nivel en
el criterio, grado de acuerdo en las clasificaciones en categorías diagnósticas
realizadas mediante el test y expertos, etc. La elección de un criterio fiable y válido
(suficiente, objetivo y representativo de la conducta de interés) es el punto crítico que
determina la bondad del proceso de validación.
En función del momento temporal en el que se evalúa el criterio, se distinguen
distintos tipos de recogida de datos:
*retrospectiva (el criterio se ha obtenido antes de administrar el test, por ejemplo en
base a un diagnóstico clínico anterior),
*concurrente (las puntuaciones del test y del criterio se obtienen en la misma sesión)
y
*predictiva (el criterio se mide, en un momento posterior).
Los resultados entre estos procedimientos pueden diferir:

56
Metodología General 2020
TANY

Se preferirá el más adecuado al uso que se pretende (por ejemplo, el enfoque


predictivo es más apropiado al pronóstico de un rendimiento laboral futuro). De suma
importancia es analizar si la utilidad predictiva o diagnóstica se mantiene invariante
en distintos grupos de personas. La cuestión de la variabilidad de los resultados en
distintos grupos, distintos estudios, diferentes medidas del criterio, etc. afecta a la
generalización de la validez de la prueba. El meta-análisis (véase el artículo de
Sánchez-Meca y Botella, 2010) permite indagar cómo varían las correlaciones entre
el test y el criterio en función de distintas facetas de los estudios.

Cuando las puntuaciones de los tests se usan para estimar el nivel de las personas en
un constructo, sus correlaciones con las de otros tests que miden el mismo u otros
constructos son de una relevancia especial. Se espera que la asociación entre pruebas
que midan el mismo constructo, sean mayores (validación convergente) que entre
tests que miden constructos diferentes (validación discriminante). Para obtener
evidencia empírica, se emplean técnicas como el análisis factorial o la matriz
multirrasgo-multimétodo (Campbell y Fiske, 1959) en la que se resumen las
correlaciones de un test con marcadores (tests de validez comprobada) que miden
varios constructos a través de distintos métodos.

VALIDACIÓN DE LAS CONSECUENCIAS DEL USO DE LOS


TESTS
La última versión de los Standards for educational and psycological testing (AERA,
APA y NCME, 1999) plantea la previsión de las posibles consecuencias del uso de
los tests como parte del proceso de validación. Desde esta perspectiva, el análisis y
justificación de las consecuencias ocupan un lugar preponderante cuando los tests
vayan a emplearse para tomar decisiones críticas para personas e instituciones:
selección, contratación, graduación, promoción profesional, evaluación de programas,
etc. La literatura psicométrica denomina estos usos como de alto riesgo.

ESTAS PRÁCTICAS NO SON AJENAS AL CONTEXTO ESPAÑOL: selección


de los candidatos a piloto, al ejército profesional y los cuerpos de seguridad,
oposiciones para ingresar en diversas instituciones y empresas, exámenes
universitarios, pruebas de selectividad, evaluación del profesorado universitario,
evaluación del grado de dependencia, obtención del permiso de armas y del carnet de
conducir, etc. En estos casos, la pertinencia del uso no se limita a la comprobación de
que las puntuaciones representan adecuadamente los constructos y a la justificación
teórica de la red nomológica que vincula los constructos con los criterios de interés.
Las aplicaciones de alto riesgo tienen efectos colaterales de carácter personal y social.

Citemos como ejemplo de los primeros el efecto en la validez de las puntuaciones


del entrenamiento y aprendizaje de los tests que suelen seguir muchas de las personas
que se presentan a programas de selección. ¿Hasta qué punto son sensibles las
pruebas a este tipo de manipulación? Existen otros efectos de carácter institucional
tales como la peculiaridad del uso de los tests en un contexto social. Piénsese en el
fraude social relacionado con el uso de las pruebas psicotécnicas que se emplean en

57
Metodología General 2020
TANY

nuestro país para otorgar el permiso de armas o el de conducir. Si pensamos en las


consecuencias, ¿podríamos decir que ejercen su función? Está claro que si la
validez se refiere al grado en que la teoría y la evidencia empírica apoyan la
interpretación de las puntuaciones de los tests en relación con un uso específico, las
consecuencias no pueden ser ajenas al proceso de validación.

Aunque parece existir un cierto consenso sobre esta cuestión, también existen voces
discordantes. Por ejemplo, Borsboom y Mellenberg (2007) consideran que el
concepto de validez debe limitarse a un ámbito más restringido que el de la amplia
definición incluida en las propuestas de Messick (1989) y en los actuales Standards.
A su juicio, la validación debe limitarse a contrastar si existe una relación causal entre
el constructo y las puntuaciones del test; las interpretaciones de las puntuaciones en
contextos aplicados (selección de personal, acreditación, etc) y el impacto social del
uso de las pruebas serían ajenas, stricto sensu, al ámbito de la validez. Si bien esta
postura simplificadora parece libre de problemas, definir la validez de constructo
como la validez de la inferencia causal implica identificarla con la validez interna de
la evidencia a favor del constructo (para una versión actualizada de los distintos tipos
de validez en los diseños experimentales véase Shadish, Cook y Campbell, 2002).
Esta identificación podría, tal vez, justificarse en programas de investigación básica
ya avanzados, pero imposibilitaría en la práctica la mayor parte de las aplicaciones
psicológicas, y esto sin tener en cuenta los conocidos problemas del concepto de
causación.

De ahí que el pragmatismo nos lleve a preferir una postura más flexible, la que
considera que los procedimientos de validación han de servir para apoyar la
inferencia a la mejor explicación posible, incluyendo la evidencia aportada por los
diversos métodos cualitativos y cuantitativos a disposición de los psicómetras en cada
momento (Zumbo, 2007). Si se considera que la validación es un proceso abierto en
el tiempo, la validez es necesariamente una cuestión de grado, como señalan los
Standards, algo que, por otra parte, es común a los distintos conceptos de validez
empleados por los epistemólogos.

El debate sobre la inclusión de las consecuencias en el concepto de validez no es un


tecnicismo que preocupe solo a los sesudos teóricos de la psicometría.

TOMAR PARTIDO POR LA INCLUSIÓN CONLLEVA


RESPONSABILIDADES:
¿Pueden y deben los constructores de las pruebas aventurar las
consecuencias deseables e indeseables de su uso?
¿Qué repertorio metodológico usar para ello?
¿En qué instancia recae el análisis y la justificación de las
consecuencias?

58
Metodología General 2020
TANY

Estas y otras cuestiones relacionadas seguirán alimentando el debate y la generación


de propuestas: una excelente revisión sobre la validación de las consecuencias puede
consultarse en Padilla, Gómez, Hidalgo y Muñiz (2007).
Para terminar, un comentario terminológico: acorde con la trayectoria del uso de los
tests en contextos anglosajones, validation tiene en inglés un significado legal:

“declarar legalmente válido”. Por el contrario, en nuestra lengua, el término


validación tiene dos significados: “acción y efecto de validar”, que comparte con el
idioma inglés, y “firmeza, fuerza, seguridad o subsistencia de algún acto”.
Aunque solemos referirnos a la primera acepción, la más aséptica, es la segunda la
que más se acerca al objetivo que persigue la investigación psicológica en su variante
psicométrica.

MARIANO YELA (1996)

LOS TESTS

1. DEFINICIÓN Y DESCRIPCIÓN GENERAL

La palabra inglesa TEST significa, como nombre, reactivo y prueba, y como verbo,
ensayar, probar o comprobar. Se deriva del latín TESTIS, cuya raíz figura en palabras
españolas como TESTIGO, TESTIMONIO, ATESTIGUAR, etc. Ha sido
internacionalmente adoptada para denotar un cierto tipo de examen muy usado en
Psicología y Pedagogía.

Un test es, en efecto, un REACTIVO que aplicado a un sujeto revela y da


TESTIMONIO de la índole o grado de su instrucción, aptitud o manera de ser.

Así POR EJEMPLO, un test de inteligencia consiste en un conjunto de preguntas,


problemas o tareas cuya solución depende de las capacidades intelectuales del sujeto.
Cada uno de los problemas preguntas o tareas se llama ELEMENTO O ÍTEM DEL
TEST. La primera condición que debe cumplir todo test es, naturalmente, que las
respuestas suscitadas por sus elementos revelen la característica que desea apreciar o
medir. Una vez demostrado esto, se aplica el test a un grupo representativo de la
población de sujetos en que se va a usar el test. A este grupo se le da el nombre
de GRUPO NORMATIVO. Los resultados obtenidos por el grupo normativo,
estadísticamente analizados, constituyen las NORMAS, con las cuales hemos de
59
Metodología General 2020
TANY

comparar, en lo sucesivo, la puntuación que en el test alcance cualquier individuo de esa


población para juzgar así del grado de su inteligencia o del rasgo que mida el test. Este
proceso mediante el cual se fijan las normas de un test se llama TIPIFICACIÓN del
test.

Los tests de este tipo se llaman PSICOMÉTRICOS, porque su objeto es medir o


determinar el grado de algún rasgo mental.

Los test psicométricos son muy numerosos y variados. Para dar una idea de ellos
presentamos a continuación algunos de los elementos o tareas que más se usan en su
construcción.

LOS ELEMENTOS MÁS CORRIENTES EN LOS TESTS DE INTELIGENCIA


SON LOS SIGUIENTES:

OPUESTOS: El sujeto tiene que elegir los términos opuestos a una lista de palabras.
Por ejemplo: Alto... grueso, pequeño, bajo, corto. En este ejemplo se pide que el sujeto
subraye la palabra opuesta a alto. Este tipo de elemento, como todos los que se dan a
continuación, se presta a valoración objetiva, fácil y rápida. Son susceptibles de
ordenarse por su grado de dificultad y presentarse en varias formas y con diversas
modificaciones. De tipo parecido son los elementos formados por sinónimos y términos
que guardan entre sí diversas clases de relaciones.

ANALOGÍAS: Por ejemplo: Rojo es a sangre como amarillo es a, papel, limón,


bandera, ladrillo. Se pueden presentar analogías de este tipo con palabras, dibujos,
personas, etc.

PALABRA QUE SOBRA: Por ejemplo, subráyese la palabra que sobre entre las cinco
siguientes: gris, marrón, amarillo, útil, rojo.

SERIE DE NÚMEROS: Por ejemplo, 1, 10, 2, 11, 3, 12, _ La serie tiene una ley. Hay
que averiguarla y escribir sobre las rayas los números que siguen.

VOCABULARIO: Se presenta una serie, previamente experimentada y estudiada, de


palabras y se pide al sujeto que diga lo que significan. Las respuestas se califican de
distinta manera según su grado de abstracción.

INFORMACIÓN: Consiste en una serie de preguntas sobre cultura general y datos


supuestamente accesibles a todos los sujetos de la población en que se usa el test.

FRASES INCOMPLETAS: Es uno de los mejores elementos para apreciar la


inteligencia. Consiste en un texto al que faltan algunas palabras que el sujeto tiene que
averiguar y escribir en los espacios en blanco.

Por ejemplo: El ___ brilla siempre, pero las nubes lo ___ algunas veces.

OTROS ELEMENTOS MUY USADOS SON: Frases desordenadas, que el sujeto


tiene que comprender rápidamente; proverbios, cuyo sentido tienen que apreciar; juicios
prácticos, o decisiones que es razonable tomar en situaciones que se
plantean; absurdos, que el sujeto debe señalar en las escenas o sucesos que se le
60
Metodología General 2020
TANY

presentan; memoria de números, de palabras, de ideas, de formas,


etc.; interpretación de párrafos, láminas, etc.

Todos estos elementos y otros similares reclaman respuestas de tipo verbal o simbólico.

Existen otros elementos de distinto tipo, que requieren respuestas gráficas y procesos no
verbales como la realización de ciertos dibujos, la comparación estética de rostros, el
manejo de relaciones espaciales, el trazado de líneas, el itinerario correcto de
un laberinto y otros muchos de este tipo.

Las dos clases de elemento hasta aquí consideradas -verbales y no verbales- se


denominan en general elementos impresos o de papel y lápiz porque bastan estos dos
materiales para aplicarlos y resolverlos.

Hay otros elementos que exigen que el sujeto manipule trozos de madera, papel,
metal, etc., o aparatos diversos, para resolver la tarea. Así hay tests que requieren
formar un rompecabezas, reproducir un modelo con cubos coloreados, repetir un
ritmo o un recorrido golpeando con un trozo de madera sobre cierto objeto o conjunto
de objetos, clasificar objetos por su color, forma, volumen, peso, etc., o de todas las
maneras que el sujeto sea capaz, colocar trozos geométricos en tableros con huecos
especiales, etc. Todos ellos se llaman elementos y tests manipulativos. Se usan
preferentemente en tests de las llamadas inteligencia práctica o concreta, habilidad
manual o mecánica, en numerosos tests de aptitud profesional y con sujetos analfabetos,
deficientes físicos o mentales, o con niños muy pequeños.

Los tests de personalidad utilizan elementos de otra clase, generalmente preguntas


sobre aspectos de la conducta del sujeto, sobre sus preferencias y aversiones; sobre
sus actitudes y sentimientos, sobre sus tendencias e inclinaciones, sobre sus reacciones
emotivas, etc. Otros tests de personalidad utilizan el trazado de líneas y analizan el
valor expresivo de los trazos, o bien se sirven de otros movimientos expresivos como
el gesto, el canto, la palabra, el paso, la escritura, etc.

EL MÉTODO GENERAL AL QUE SE AJUSTAN TODOS ESTOS TESTS


REQUIERE:

a) Hallar elementos reveladores de la característica que se desea medir.

b) Plantear estos elementos de manera que puedan ser valorados cuantitativamente.

c) Averiguar en un grupo normativo las reglas para interpretar las diversas puntuaciones
posibles.

Este es el tipo clásico de tests psicométrico.

Pero hay otros tests, aparecidos más recientemente y cada día más usados, que reciben
el nombre de tests proyectivos. Pretenden asimismo revelar aspectos de la personalidad.
Pero su objeto no es tanto la medida, como el diagnóstico. Sus elementos suelen
ser palabras, colores, manchas, material plástico, fotografías, films, etc., que se
presentan al sujeto para que, sujetándose a normas muy amplias, reaccione ante ellos en
la forma y contenido que desee.

61
Metodología General 2020
TANY

Un test proyectivo muy conocido consiste, por ejemplo en una serie de escenas con
figuras humanas. El sujeto tiene que decir qué representa cada una y contar una
historia acerca de la situación, los sentimientos de los protagonistas y el desenlace del
asunto. Diferentes sujetos perciben en las mismas escenas aspectos diferentes, con
diferente significación, y los explican de diferente manera. Esas diferentes maneras de
percibir y explicar reflejan las notas peculiares de cada sujeto. Su personalidad
se proyecta en su interpretación. En estos tests es también preciso averiguar la
significación de las respuestas en un grupo normativo si bien esto no será aquí fuente de
reglas cuantitativas, sino de orientaciones para el diagnóstico.

En resumen, podemos concluir que un test es una situación problemática, previamente


dispuesta y estudiada, a que el sujeto ha de responder siguiendo ciertas instrucciones
y de cuyas respuestas se estima, por comparación con las respuestas de un grupo
normativo, de calidad, índole o grado de algún aspecto de su personalidad.

2. ORIGEN Y DESARROLLO DEL MÉTODO

Los intentos de apreciar con algún rigor las diferencias psicológicas entre los individuos
son muy antiguos. Varios modos de conseguir este propósito son indicados por los
autores clásicos como Platón, Hipócrates, Teofrasto y Galeno y de un modo más
concreto por el español Huarte de San Juan en el siglo XVI. Uno de los primeros
psicólogos que elaboran y aplican procedimientos prácticos para este menester es el
francés Seguín, hacia la mitad del siglo XIX. Seguín ideó varios tests manipulativos
para la educación de los débiles mentales. Algunos de ellos se usan todavía como tests
de inteligencia, por ejemplo, el Tablero de Formas de Seguín. Pero solo a fines del
siglo pasado comienzan a usarse los tests de modo sistemático. Desde entonces su
desarrollo ha sido progresivo y amplio; en él pueden distinguirse los cinco períodos que
a continuación describimos brevemente.

A) PRIMER PERÍODO: TESTS SENSORIALES Y MOTORES

El primer período se extiende aproximadamente desde 1882 hasta 1905. En 1882 el


inglés Galton, funda el Laboratorio Antropométrico de Londres. Su propósito principal
es el estudio de la herencia de las aptitudes físicas y mentales. Con este fin incorpora a
su laboratorio numerosos tests, la mayoría ideados por él mismo. Galton cree que la
inteligencia puede ser convenientemente apreciada a través de la actividad senso-
motora. Sus tests, y la mayoría de los que aparecen hasta finales del siglo, son, pues, de
carácter antropométrico, sensorial y motor. La figura más representativa de este
período es quizá el americano J. Mc. K. Cattell, que introdujo por vez primera la
palabra test en su artículo «Mental tests and measurements» aparecido en 1890 en la
revista Mind. Cattell ideó y aplicó numerosos tests de este tipo en la Universidad de
Columbia, de New York. En Alemania Munsterberg, Kraepelin y Ebbinghaus inician su
aplicación. En Francia, lo hacen Binet, Henri y Toulouse.

Pero los resultados no fueron satisfactorios. En 1894 Gilbert halló una correlación casi
nula entre varios tests de este tipo y el rendimiento escolar. Wissler, en 1901, confirma
estos resultados. En Alemania Kraepelin y Oehrn, por su parte, y Ebbinghaus por

62
Metodología General 2020
TANY

otra, y en Francia Binet, empiezan a usar, en la última década del siglo, tests de
procesos superiores, como asociación, frases incompletas, comprensión, etc. En 1889
Binet demuestra que los tests procesos superiores distinguen mejor la capacidad escolar
de los alumnos que los tests de tipo Galton.

LAS CARACTERÍSTICAS DE ESTE PERÍODO SON, PUES:

1º. El predominio de tests sensoriales y motores.

2º. La comprobación de su ineficacia como medida de la inteligencia.

3º. El uso incipiente de tests de procesos más complejos.

B) SEGUNDO PERÍODO: ESCALAS DE INTELIGENCIA

Alfredo Binet, es, más que ningún otro, el creador de los tests de inteligencia. Durante
los últimos años del siglo XIX, los intentos de discriminar el grado de inteligencia de
los individuos por medio de tests, resultaron en general fallidos. Binet comprendió que
el efecto no estaba en el método, sino en el material empleado. Se usan tests de procesos
elementales. Había que introducir elementos que estimulasen las funciones psicológicas
complejas superiores. Este es uno de sus aciertos. El otro gran acierto fue relacionar los
tests con la edad, formando la primera escala de inteligencia. Binet observó que, al
menos durante los años escolares, los niños van teniendo más capacidad mental cuanto
mayor son. Basado en esta sencilla observación ideó una serie de pruebas de fácil y
rápida aplicación, las ensayó en las escuelas de París, y determinó para cada prueba el
tanto por ciento de niños que la resolvían a cada edad. Así llegó a averiguar los tests que
eran característicos de cada edad.

Si un test es correctamente resuelto por el niño medio de 12 años, pero no por los
niños de edades inferiores, ese test representa la capacidad mental típica de los doce
años, o sea, la Edad Mental (E.M.) de 12 años. Ordenando los tests por edades
sucesivas formó pues, una escala mental. La primera fue publicada en 1905, pero fue
revisada y completada en 1908, y es esta segunda la que alcanzó enseguida fama
mundial. Binet seleccionó de 3 a 8 tests para representar cada edad de los 3 a los 13
años. Cada test equivale a un cierto número de meses. La puntuación total del niño es el
número de años y meses de edad mental que ha obtenido en sus respuestas. La escala
está preparada de tal modo que el niño medio de cada edad, obtiene una edad mental
(E.M.) igual a su edad cronológica (E.C.) Si un niño de 7 años obtiene una E.M. de 9
años, es un niño mentalmente adelantado, si su E.M. es de 5 años, está retrasado
mentalmente.

La escala de Binet tuvo un éxito extraordinario. Se comentó, criticó, tradujo y adaptó


paulatinamente a todos los idiomas principales. De las múltiples revisiones del test de
Binet, la más famosa, por mejor construida y tipificada, es la del psicólogo americano
Terman, llevada a cabo en la Universidad de Stanford en 1916, y revisada en 1937 y en

63
Metodología General 2020
TANY

ulteriores ocasiones. El test Stanford-Binet, de Terman, ha sido adoptado, también, en


casi todos los países. En España lo han hecho el Dr. Germain y la Srta. Rodrigo.

Una modificación importante de este tipo de escalas fue introducida por Yerkes y
Bridges, en 1915. Consiste en valorar no por meses, sino por puntos. La puntuación
final no es una E.M. sino simplemente el número de puntos obtenidos. Ahora bien,
como la puntuación media de los individuos de una cierta edad cronológica representa
esa edad mental, las puntuaciones totales se pueden convertir fácilmente en edades
mentales, por medio de una tabla de correspondencias entre edades mentales y
puntuaciones.

Para eliminar algunos inconvenientes que presentaban las edades mentales -por
ejemplo, un año de edad mental significa mucho más en los primeros años del
desarrollo que en los más avanzados-, se propuso usar el cociente entre la E.M. y la
E.C. Esta medida fué propuesta, independientemente al parecer, por el americano
Kuhlmann y el alemán Stern, en 1912. Terman aceptó esta medida y generalizó el uso
del cociente intelectual (C.I.) El C.I. es, pues el cociente entre la E.M. y la E.C. Para
evitar decimales, se suele multiplicar por ciento. De este modo el C.I. indica el tanto por
ciento que la E.M. de un individuo es de su E.C.

Una E.M. de 10 años no dice nada acerca de la agudéz mental de la persona, sino
simplemente que tienen el nivel mental de un niño corriente de 10 años. Si su E.C. es
de 14 años, el chico será torpe; si es de 7 años, el chico será listo, como indican sus C.I.
que serían 71 y 143 respectivamente.

A partir de la escala de Binet y con modificaciones diversas, se han elaborado tests de


este tipo. Quizá la más importante de las modificaciones es la escala "Wechler-
Bellevue", una de las mejores hasta la fecha para apreciar la inteligencia general de los
adultos.

LAS CARACTERÍSTICAS GENERALES DE TODOS ESTOS TESTS, SON:

1º. Predominio de elementos que hacen referencia a procesos cognoscitivos superiores.

2º. Variedad de los elementos, procurando estimular con ellos las más diversas
funciones mentales.

3º. Normas valorativas fundadas en la edad cronológica.

4º. Puntuación global indicativa de la inteligencia general del sujeto.

5º. Aplicación individual del test.

C) TERCER PERÍODO: TESTS COLECTIVOS

EN 1917 APARECE EN AMÉRICA UN NUEVO TIPO DE TEST: el test colectivo.


Hasta ahora los tests tenían que ser aplicados individualmente. Al entrar los Estados
Unidos en la primera guerra mundial, el país no tenía ejército. Para crearlo rápidamente
era preciso clasificar a los reclutas según sus capacidades. Los tests podían servir para
esto. Pero hacía falta que pudieran ser aplicados en poco tiempo a miles de individuos.
64
Metodología General 2020
TANY

Un comité de psicólogos presidido por Yerkes y formado, entre otros, por Terman,
Whipple y Goddar, todos ellos eminentes en este campo, prepararon una serie de tests
cuyos elementos, de tipo análogo a los ya citados, van impresos en una o varias hojas,
las cuales contienen además las instrucciones generales. El examinador solo tiene que
hacer una breve explicación al grupo y procurar que el test se realice según las
instrucciones. Este tipo de test se llamó "Alfa". Para los analfabetos o extranjeros se
creó el test "Beta", en el cual los problemas eran formulados sin hacer uso de palabras,
sino mediante figuras, dibujos, etc., y las instrucciones eran dadas por medio de mímica
o con demostraciones prácticas. Estos tests se aplicaron a cerca de dos millones de
hombres, sirviendo principalmente para rechazar a los ineptos y clasificar, según sus
aptitudes, a los útiles para el Servicio Militar.

De este primer ensayo nacen y se difunden por todo el mundo numerosos tests
colectivos. Su sistema de valoración es sencillo. Consiste, en general, en el número total
de aciertos. Para interpretar estas puntuaciones se recurre, bien a normas cronológicas
como E.M. y C.I., bien a normas estadísticas, como centiles o puntuaciones típicas.

Los tests del Ejército americano tuvieron otra consecuencia importante: generalizar el
uso de tests de manipulación. Estos son tan antiguos como el mismo método de los
tests. En los primeros años del siglo, los utilizó sobre todo el italiano Sancte de Sanctis.
Todas las escalas de inteligencia incluyen elementos manipulativos. Pero son los tests
del Ejército, principalmente los de tipo Beta, los que dan el impulso decisivo para la
creación de tests y escalas de inteligencia, exclusivamente, manipulativas. El primer
ejemplo lo constituye la Escala de tests manipulativos de Pintner y Paterson, que
aparece en 1917 y ha experimentado varias revisiones posteriores. Contiene tests que
requieren construir o completar ciertas escenas o figuras manejando bloques de madera
con dibujos o formas especiales. Los tests son en general rompecabezas de dificultad
creciente, por ejemplo, construir el perfil de una cara, un maniquí, un barco, una yegua
con su potro, y otras escenas, o colocar ciertos bloques de formas geométricas diversas
en los huecos de un tablero. Las tareas se valoran en función del tiempo y los errores.

Según este sistema, con variaciones más o menos grandes, se han construido numerosas
escalas de «performance» o manipulación.

ESTE PERÍODO INTRODUCE, PUES, EN EL MÉTODO DE LOS TESTS, LAS


SIGUIENTES NOVEDADES:

1º. Aplicación colectiva.

2º. Predominio de elementos exactamente cuantificables y mayor exactitud en los


aspectos estadísticos del método.

3º. Mayor facilidad, rapidez, economía, y objetividad en la aplicación e interpretación.

4º. Generalización del uso de tests manipulativos.

D) CUARTO PERÍODO: TESTS DE PERSONALIDAD

En 1917 Woodworth preparó en los Estados Unidos la llamada Hoja de datos


personales, en la cual, mediante preguntas sobre hábitos, intereses, actitudes, temores,
65
Metodología General 2020
TANY

etc., se pretendía llegar a un diagnóstico sobre la personalidad y problemas del sujeto.


En 1921 el Test Psicodiagnóstico del psiquiatra suizo Rorschach. Es el primer test que
pretende dar una visión comprensiva y dinámica de la personalidad. Es uno de los más
usados actualmente. Consiste en unas manchas de tinta que el sujeto debe interpretar,
contestando a la pregunta ¿qué ve usted en esta lámina? ¿a qué se parece ésto? Como
el estímulo que se presenta es ambiguo, la respuesta con que reacciona el sujeto
depende, según Rorschach, de su manera de percibir, fundada asimismo en la
estructura de su personalidad.

Siguiendo el tipo de cuestionario, el modelo proyectivo u otras técnicas más o menos


objetivas, se han creado innumerables tests que pretenden revelar la personalidad o
algún aspecto afectivo, temperamental, social, etc., de la misma.

SU CARACTERÍSTICAS PRINCIPALES SON:

1º) Extender el método de los tests al campo de la personalidad.

2º) Inclinarse más bien al análisis cualitativo que a la medición.

3º) Crear un nuevo tipo de test: el proyectivo.

E) Quinto período: El análisis factorial

Hasta ahora hemos visto como nuevas ideas iban ampliando el campo de los tests. En el
primer período se utilizan pruebas sensoriales y motores. En el segundo, desde 1905,
aparecen tests individuales de inteligencia general. En el tercero, desde 1917, se
emplean también tests colectivos de inteligencia. En el cuarto período, que se inicia
aproximadamente, por los mismos años, pero que solo alcanza verdadera difusión en la
segunda guerra mundial, se extiende el método al campo de la personalidad y se inventa
un nuevo tipo de tests, el proyectivo.

Pero a través de todos estos cambios y ampliaciones persiste, sin resolver, un


problema fundamental:

¿Qué es lo que miden o diagnostican los tests?

¿Cómo estar seguro de que miden los rasgos que los tests dicen medir y de que en
efecto los miden?

No basta con que los tests sean útiles y prácticos. Es preciso demostrar de alguna
manera que aprecian o miden las capacidades y rasgos unitarios de la personalidad.

La consideración de este problema dió origen a una serie de técnicas que se conocen
con el nombre de análisis factorial. Su creador Spearman, cuyos primeros trabajos
aparecen ya en 1904, y cuya teoría se publica en 1927, en el libro "The Abilities of
Man". El análisis factorial es un método para averiguar experimentalmente lo que un
test mide o aprecia. Los trabajos de Spearman han sido continuados principalmente en
Inglaterra y los Estados Unidos. Hoy sobresalen los nombres de Burt, Thomson y
Thurstone. Este último, basado en los hallazgos del análisis factorial, ha preparado una

66
Metodología General 2020
TANY

serie de tests de "Capacidades Mentales Primarias" con los que pretenden apreciar las
capacidades cognoscitivas, factorialmente descubiertas y definidas, de que depende la
actividad inteligente del individuo.

El análisis factorial ha influido decisivamente en el desarrollo del método de los tests.


Respecto a los tests de inteligencia su influjo ha sido doble. Por una parte ha ofrecido
una seria fundamentación teórica al uso de los antiguos tests de inteligencia general,
mostrando que en la mayor parte de las funciones cognoscitivas intervienen un factor
general (factor g), común a todos ellos y caracterizado por la abstracción y comprensión
de relaciones. Los tests de inteligencia general están justificados en la medida en que
aprecian el factor "g". Para ello se dispone hoy de tests más adecuados que los
tradicionales, como son las Matrices de Raven y el test de Dominó. Por otra parte, los
resultados del análisis factorial subrayan la importancia en el campo de la inteligencia
de otras aptitudes cognoscitivas distintas del factor "g" y que es preciso tener en cuenta
para apreciar suficientemente la inteligencia de los sujetos. No basta, pues, con designar
la inteligencia general mediante un índice global, es preciso trazar, además, el perfil
mental del sujeto según la puntuación que alcanza en diversos factores cognoscitivos y
motores, como inteligencia verbal, numérica, espacial, memoria, percepción, etc.

En el campo de la personalidad emotiva y social el análisis factorial ha señalado como


dimensiones básicas las correspondientes a la madurez emotiva y a la introversión-
extraversión de los sujetos. Asimismo se han desarrollado numerosos cuestionarios y
tests de intereses generales y profesionales a partir de los resultados obtenidos por el
análisis factorial.

El desarrollo que ha alcanzado el método de los tests lo manifiesta el hecho de que solo
en los Estados Unidos se aplicaron durante 1946, unos sesenta millones de tests a unos
veinte millones de personas. El número de aplicaciones, desde entonces, no ha hecho
más que aumentar y multiplicarse.

3. CLASIFICACIÓN

Los tests son muy numerosos y variados. Para hacerse una idea de los
principales tipos, es preciso clasificarlos. La clasificación que presentamos
a continuación, sin pretender ser única o completa, tiene por objeto ofrecer
un cuadro a la vez comprensivo y simple de los múltiples tests existentes.

Un test es un proceso, ajustado a ciertas normas generales, al cual una


persona es sometida por otra utilizando cierto material, para medir o
diagnosticar cierta característica y con un determinado fin.

PODEMOS, PUES, CLASIFICAR LOS TESTS ATENDIENDO A:

a) Normas generales del método.

b) El fin que se persigue.

c) Quién los da.

67
Metodología General 2020
TANY

d) Quién los recibe.

e) El material que se emplea.

f) La característica que pretenden estimar o medir.

A.- CLASIFICACIÓN POR EL MÉTODO

Según el método general que siguen los tests, se clasifican en psicométricos y


proyectivos. Es la división más importante y significativa. Los psicométricos se ajustan
a normas cuantitativas, sus elementos son valorados independientemente unos de otros
con una puntuación numérica, su resultado final es una medida. Los proyectivos se
ajustan a normas principalmente cualitativas, sus elementos son valorados
cualitativamente en relación con el test total, su resultado final es un diagnóstico. Los
tests psicométricos se refieren a características psicológicas, concebidas como unidades
más o menos independientes. Los proyectivos se refieren en general, a la personalidad
total. Estas diferencias no son, sin embargo, absolutas, sino relativas y variables. Hay
aspectos proyectivos en los tests psicométricos, principalmente en los individuales, y
hay aspectos cuantitativos en los proyectivos. Pero la diferencia es clara. Los
psicométricos son más rigurosos y exactos, más a costa, muchas veces, de prescindir de
los aspectos más profundos y reales de la personalidad. Los proyectivos son más
comprensivos, pero a costa, muchas veces, de caer en subjetivismos más o menos
arbitrarios. Hay que tener en cuenta, sobre todo, que para aplicar los tests proyectivos se
requiere una preparación teórica y una experiencia clínica mucho mayor que para
utilizar los psicométricos.

B.- CLASIFICACIÓN POR EL FIN

El fin de los tests es doble: diagnosticar y medir. Según esto, hay tests cualitativos y
tests cuantitativos, división que coincide, aunque no por completo, con la de tests
proyectivos y psicométricos.

Por otra parte, los tests pueden utilizarse como método práctico y como método de
investigación. El test es fundamentalmente un método práctico. Su objeto es señalar la
presencia, calidad o grado de algún rasgo. Pero desde principios de siglo, y sobre todo,
en los últimos años, se han utilizado, junto al análisis factorial, en la investigación de las
funciones psicológicas. No hay pues una distinción absoluta entre tests y experimento
psicológico. Pero si cabe afirmar que, en general, el test se refiere a las características de
las personas, mientras el experimento se refiere a las características de los fenómenos o
procesos.

C.- CLASIFICACIÓN POR EL EXAMINADOR

Los tests se dividen, según este criterio, en personales e impersonales. Son personales
aquellos en que la personalidad o conducta del examinador influye en los resultados.

En rigor, todos los tests son personales. Lo son muy especialmente los proyectivos, en
los que el examinador ha de procurar liberar al sujeto de toda presión racional o emotiva
que le impide expresarse libremente, y, por tanto, adaptar su manera de proceder a las

68
Metodología General 2020
TANY

condiciones únicas de cada sujeto. Lo son asimismo, aunque en menor grado, los
psicométricos individuales, en los que el examinador influye con su manera de hacer
preguntas, su gesto, su actitud general. En menor grado lo son los colectivos, donde el
examinador se limita a establecer un "rapport" afectivo adecuado con el grupo. Estos
últimos tests pueden considerarse, pues, como impersonales. Conviene tener muy en
cuenta este aspecto de los tests, a saber, la influencia de la personalidad y conducta del
examinador, para contar con ella y emplearla consciente y oportunamente cuando
convenga, y tratar de limitarla o hacerla, en lo posible, uniforme, cuando el carácter del
test así lo reclame.

D.- CLASIFICACIÓN POR EL SUJETO

Se llama sujeto al que recibe el test. Atendiendo al sujeto, los tests se dividen
en individuales y colectivos. Según se puedan aplicar tan solo a un sujeto o varios a la
vez. Los tests colectivos son fáciles de aplicar o interpretar. Los puede aplicar toda
persona que tenga una mínima preparación psicológica. Los individuales exigen una
preparación muy especial en la ciencia psicológica y una larga experiencia práctica.

SE PUEDEN HACER MUCHAS OTRAS CLASIFICACIONES DE LOS TESTS,


ATENDIENDO AL SUJETO QUE LOS RECIBE. LAS DE MAYOR INTERÉS
SON LAS SIGUIENTES:

Tests destinados a sujetos normales y tests para anormales ya sean físicos o mentales.

Tests destinados a la población general, o tests para grupos especiales (de cierto nivel
cultural, social, escolar, profesional, racial, etc.).

Y, finalmente, tests destinados a sujetos de todas las edades y tests destinados a


alguna edad especial. Conviene saber, sobre todo, que existen tests especiales para
los primeros meses y años de la vida, y tests especialmente preparados para adultos.

E.- CLASIFICACIÓN POR EL MATERIAL

Entre las muchas clasificaciones posibles, la de mayor valor práctico es, a nuestro
parecer, la que distingue entre test impresos y tests manipulativos (véase sección 1).

F.- CLASIFICACIÓN POR EL RASGO QUE APRECIAN O MIDEN

SEGÚN ESTE CRITERIO, LOS TESTS SE PUEDEN CLASIFICAR SEGÚN EL


CUADRO SIGUIENTE:

A) TESTS DE RENDIMIENTO:

- Escolares

- Profesionales

B) TESTS DE APTITUD:

69
Metodología General 2020
TANY

- Psicológica:

* Inteligencia general

* Factores cognoscitivos

* Aptitudes especiales

- Práctica:

* Escolares

* Profesionales

C) TESTS DE PERSONALIDAD:

- Por el fín:

* Sintéticos: Personalidad total.

* Analíticos: Actitudes, Intereses, Valores, Emotividad, etc.

- Por el medio:

* Subjetivos

* Expresivos

* Proyectivos

* Objetivos

* Situacionales

A) TESTS DE RENDIMIENTO

Su objeto es medir con precisión y objetividad los conocimientos o el rendimiento


actual de un sujeto en relación con los que, en una determinada materia, han mostrado
poseer los sujetos de su población.

Así, hay tests sobre conocimientos en las diversas materias escolares y académicas; son
como los exámenes tradicionales, pero sistematizados, objetivos y tipificados. Existen,
asimismo tests para apreciar la competencia profesional de un individuo en cierta
ocupación, siempre en relación, claro está, con un grupo normativo de la misma.

B) TESTS DE APTITUD

Llamamos aquí test de aptitud, a todo aquél que se refiere a las capacidades
cognoscitivas y psicomotoras potenciales del sujeto y no a su actual grado de
conocimientos o competencia. Estos tests pueden definirse, bien en relación con la
70
Metodología General 2020
TANY

estructura psíquica del sujeto, y los llamaremos tests de aptitud psicológica como son
los de inteligencia, de imaginación, de coordinación psicomotora, etc.; o bien en
relación con las exigencias de una determinada situación externa, en cuyo caso los
llamaremos tests de aptitud práctica, como son los de aptitud para las matemáticas, para
la ingeniería, para tornero, o impresor, o aviador, etc.

Entre los tests de aptitudes psicológicas destacan en primer lugar los llamados
de inteligencia general, de los cuales ya hemos dado una idea más arriba, y en segundo
lugar -aunque cada vez se les conceda mayor importancia- los tests que miden las
diferencias características de esa inteligencia general o, como hoy suele decirse, los
tests de factores cognoscitivos y de aptitudes primarias, como son los de:

• razonamiento abstracto,
• comprensión verbal,
• fluidez verbal,
• facilidad ideativa,
• razonamiento cuantitativo,
• imaginación espacial,
• facilidad y rapidez perceptiva,
• síntesis perceptiva,
• memoria lógica,
• memoria inmediata, etc.

Existen, además, tests de capacidades especiales, como son, por ejemplo los de destreza
manual, rapidez motora, habilidad mecánica, apreciación estética, etc., además de los
tests tradicionales de sensibilidad y precisión motora.

Con respecto a las aptitudes prácticas existen numerosos tests y grupos de tests (batería)
para apreciar la disposición de los individuos hacia los distintos trabajos y profesiones.
En la enseñanza se usan tests de aptitud para las matemáticas, para la física, para
los idiomas, etc., y tests más generales que distinguen entre los sujetos más aptos para
el estudio de disciplinas académicas y aquellos que tienen más aptitud para tareas
concretas, activas, mecánicas o sociales. En la Industria, el Ejército y otras empresas
oficiales y privadas, se utilizan baterías de tests para seleccionar al personal más apto.
Así, hay baterías de tests para seleccionar distintos tipos de aviadores, oficinistas,
mecánicos, etc.

C) TESTS DE PERSONALIDAD

La personalidad es la concreta realización de la persona: su manera de ser y


comportarse. Abarca, pues, todo el psiquismo con sus perspectivas pretéritas y futuras
según se articulan en un presente dinámico. En su aspecto psicológico se forma y
modifica a lo largo de la vida. No es ésta sin embargo la significación que suele tener la
palabra personalidad cuando se usa en relación con los tests. En este contexto adopta
por lo general un sentido más limitado. Suelen, en efecto, llamarse tests de personalidad
aquellos que se refieren a aspectos no cognoscitivos de la conducta tales como los
afectos, inclinaciones y actitudes. La personalidad, en este sentido, se refiere al
temperamento carácter y hábitos sociales del sujeto. Los tests de personalidad pueden
clasificarse según el fin que se proponen y según el medio que para ello utilizan. Por el

71
Metodología General 2020
TANY

fin, cabe distinguir los tests sintéticos de los analíticos. Los tests sintéticos pretenden
apreciar la estructura general de la personalidad, sus tendencias y problemas más
salientes. Suelen ser de carácter proyectivo como el Rorschach, el T.A.T., el Szondi,
etc. Otros son de tipo analítico y aprecian aspectos parciales de la personalidad, entre
estos últimos, existen tests sobre intereses y preferencias ya generales, ya con respecto
a un tema especial, por ejemplo, el profesional; tests de actitudes, que versan,
asimismo, o bien sobre actitudes generales del sujeto frente a la vida y se llaman tests
de valores, o bien sobre su actitud con respecto a un tema más o menos limitado, por
ejemplo, sistemas políticos, organizaciones sociales, profesiones, carreras, razas,
religiones, etc.; tests de rasgos especiales de carácter, como sinceridad, puntualidad,
cooperación, perseverancia, etc., y finalmente, tests de rasgos temperamentales y
emotivos, como introversión, sociabilidad, equilibrio emotivo, agresividad, etc.

Los medios que se utilizan en los tests de personalidad son muy diversos. Ya hemos
mencionado algunos. La mayor parte pueden clasificarse en:

1º) SUBJETIVOS: como son los cuestionarios, en los que el sujeto ha de responder a
preguntas más o menos explícitamente referidas a sus preocupaciones, hábitos,
opiniones, sentimientos, etc., tales, los cuestionarios de Guilford y de Eysenck sobre la
estabilidad emotiva y la introversión de los sujetos.

2º) EXPRESIVOS: en los que se estima la personalidad del sujeto a través del estudio
de los movimientos expresivos del mismo, como acontece en el test meocinético de
Mira y en los diversos intentos grafológicos.

3º) PROYECTIVOS: de los que ya se ha hablado antes.

4º) OBJETIVOS: en los que se observa y mide algún aspecto de la conducta que
previamente ha mostrado tener relación con determinadas características de la
personalidad; así, el estudio de la respuesta psicogalvánica como índice de emotividad.

5º) SITUACIONALES: en los cuales se observa la conducta del sujeto en una


situación real, por ejemplo, el juego, la representación de un papel en un drama
(psicodrama), su participación en una tarea de discusión de un grupo, etc.

4. EL TEST COMO INSTRUMENTO DE MEDIDA

Todo test psicométrico debe reunir como mínimo, tres condiciones fundamentales:
ser válido, ser preciso o fiable y estar tipificado.

Para conseguirlo la elaboración de un test suele seguir el esquema siguiente:

A) Definición del rasgo psicológico.

B) Selección de elementos apropiados.

C) Comprobación de la validez y precisión del test.

D) Tipificación del mismo.

72
Metodología General 2020
TANY

A.- DEFINICIÓN DEL RASGO

El creador de un test está siempre dirigido por una hipótesis de trabajo: su concepción
de la característica que quiere medir. Esta hipótesis debe formularse con la mayor
claridad, y precisión. Como, en general, se tiene un conocimiento muy precario y
limitado de la estructura del psiquismo, la característica cuyo grado se desea revelar no
suele concebirse como una capacidad o rasgo bien determinado, sino, simplemente,
como un aspecto del psiquismo o de la conducta cuya medida, aunque no descubra la
naturaleza intrínseca de este aspecto, permita conocer de antemano, con cierta
probabilidad, cuál será la conducta del individuo en otras ocasiones, al menos en cuanto
se refiere a ese aspecto de su comportamiento.

El ideal de un test es, sin embargo, apreciar un rasgo unitario de la personalidad. Una de
las mejores maneras de definir experimentalmente un rasgo unitario, para luego elaborar
un test que lo aprecie o mida es, por ahora, el análisis factorial.

B.- SELECCIÓN DE LOS ELEMENTOS

Una vez claramente definido el rasgo psicológico, se procede a inventar o reunir


elementos que lo pongan de manifiesto. La clase de elementos que se elijan depende, en
primer lugar, de la concepción que se tenga sobre el rasgo en cuestión. Es claro, sin
embargo, que cualquiera que sea nuestra manera de concebir una característica
psicológica, ésta puede manifestarse en un número infinitamente variado de situaciones
o elementos. El problema consiste en elegir, para formar el test, los más útiles y
significativos. En esta selección se utilizan algunas técnicas estadísticas auxiliares,
sobre todo para comprobar la validez y la dificultad de los elementos.

Para asegurarse de que los elementos son válidos, se prepara un número considerable de
ellos y se eligen, después de ensayarlos.

a) Los que tienen una correlación alta con el total, con lo que se asegura la unidad
interna del test, es decir, que todos los elementos contribuyan a medir lo mismo.

b) Los que tienen alta correlación con un criterio externo de validez, o con una
dimensión factorial previamente determinada. De este modo solo se retendrán
elementos que contribuyan eficazmente al propósito del test, a saber, predecir un cierto
criterio o apreciar un rasgo estable del psiquismo.

Para averiguar la dificultad de los elementos basta ensayarlos en un grupo


representativo y hallar el tanto por ciento de individuos que pasan cada elemento.
Cuanto mayor sea el tanto por ciento de individuos que pasan un elemento, tanto menor
será su dificultad. Según estos tantos por ciento, u otros índices de ellos derivados, se
pueden ordenar los elementos por su dificultad de la manera que mejor convenga.

C.- COMPROBACIÓN DEL TEST

Una vez reunidos los elementos más convenientes, según su validez y dificultad, se
tiene construido el test. Antes de usarlo, sin embargo, es absolutamente
imprescindible demostrar:

73
Metodología General 2020
TANY

a) Que es suficientemente válido, y

b) Que es suficientemente fiable o preciso.

A) LA VALIDEZ DEL TEST

Un test que se utilice para seleccionar conductores es válido si distingue entre buenos y
malos conductores. Un test de inteligencia es válido si distingue entre los torpes y los
listos. Para comprobar la validez de un test de selección de conductores se halla, pues,
su correlación con la eficacia profesional de éstos. Para comprobar la validez de un test
de inteligencia se halla su correlación con el grado de inteligencia manifestado por los
sujetos en su vida escolar, familiar, profesional, etc., En ambos casos es preciso, ante
todo, fijar un criterio externo -esto es independientemente del test con arreglo al cual se
puedan clasificar los sujetos en la característica que el test pretende medir. Este criterio
podría ser la destreza en el volante según es estimada por un grupo de jueces
competentes, en el caso de los conductores. O los juicios de maestros, jefes, padres,
amigos, etc., sobre la inteligencia de los sujetos, o quizá su éxito escolar, o las
estimaciones de clínicos que conocen bien al paciente, etc., en el caso del test de
inteligencia. El test es válido si tiene una alta correlación con el criterio.

Se comprende que este método de validación no es perfecto, pues no lo son en general


los criterios. Uno de los puntos más importantes en la elaboración de un test, es, pues, el
estudio minucioso de los criterios de validación, para eliminar de ellos todo posible
error.

De todos modos, esta validación es exclusivamente pragmática. Sólo indica que el test
sirve para lo que se le destina. Pero no si revela algún rasgo significativo del psiquismo.
Por consiguiente, para que los tests puedan perfeccionarse, es preciso, además de
criterios externos que garanticen su valor práctico, criterios psicológicos que puedan
aclarar el significado interno de los rasgos y funciones que los tests miden. Hacia este
objetivo se orienta el análisis factorial. Así otro medio de estimar la validez de un test es
hallar su correlación con una unidad funcional que, de antemano, se haya determinado
factorialmente.

B) LA PRECISIÓN O FIABILIDAD DE UN TEST

Se llama precisión de un test al grado de constancia de sus medidas. Si al aplicar un test


varias veces a un individuo, éste obtiene cada vez puntuaciones muy distintas, el test es
impreciso, no podemos fiarnos de sus resultados. Si las puntuaciones son iguales o
difieren poco, el test proporciona medidas precisas, fiables, dignas de confianza. La
precisión suele estimarse mediante la correlación del test consigo mismo, o por algún
otro procedimiento equivalente. Antes de utilizar un test como instrumento de medida
es, pues, imprescindible que se averigüe su precisión para saber el grado de confianza
que merece sus resultados cuantitativos.

C) CIRCUNSTANCIAS QUE FAVORECEN LA VALIDEZ Y PRECISIÓN DE


UN TEST

Las principales son las siguientes: La definición cuidadosa del rasgo; su pureza factorial
y la determinación rigurosa de criterios de validación. El uso de elementos claros,

74
Metodología General 2020
TANY

inequívocos, objetivos, ordenados, independientes, interesantes para el sujeto, que


cubran bien el campo de dificultad del rasgo, aunque con predominio de elementos de
dificultad media. La redacción de instrucciones breves y claras, adecuadas al nivel
mental mínimo de los sujetos. La introducción de ejercicios preparatorios. La estricta
observancia de las instrucciones por parte del examinador, y el establecimiento de un
"rapport" adecuado entre el examinador y el sujeto.

En igualdad de circunstancias, se prefieren tests breves, baratos y de material sencillo,


fáciles de aplicar, objetivos y rápidos en su valoración.

D.- TIPIFICACIÓN

Elaborado un test y comprobadas su validez y precisión, queda por determinar la


significación de las puntuaciones. El resultado de un test es un número o puntuación
directa. Con ella no sabemos si el sujeto es normal o no, ni la dirección y magnitud de
su desviación en el caso de que no lo sea. Para averiguar la significación de una
puntuación dada, es preciso compararla con las obtenidas por la población a que el
sujeto pertenece. Averiguar y ordenar las puntuaciones de la población es tipificar un
test. Como, en general, no es posible someter al test a toda la población, es preciso, ante
todo, seleccionar una muestra representativa de la misma, a la cual llamamos grupo
normativo porque de él se obtienen las normas. Una vez elegida la muestra, se aplica el
test a todos sus miembros. Las puntuaciones obtenidas se ordenan en forma de escala
cuantitativa, que sirva para interpretar, en lo sucesivo, el resultado que obtenga un
determinado sujeto.

Para ello es preciso que la escala tenga un punto de partida de significación conocida y
fija, y que su unidad se mantenga constante a lo largo de la escala, o, por lo menos,
varíe en forma conocida. Hay varias maneras de hacer esta ordenación y, por
consiguiente, varios tipos de normas. Los principales son tres:

* normas cronológicas, normas centiles y normas típicas.

A) NORMAS CRONOLÓGICAS

Se han empleado casi exclusivamente con los tests de inteligencia. El procedimiento, en


esencia, consiste en averiguar cuál es la puntuación media que cada edad obtiene en el
test. La puntuación media de cada edad designa la edad mental correspondiente. Así, si
la puntuación media de los niños de 8 años es, en un test de inteligencia, 26 puntos, en
ese test 26 puntos significa 8 años de edad mental. Esta escala tiene dos graves
inconvenientes. El primero es que su unidad no es constante. Un año de edad mental no
es lo mismo a lo largo del desarrollo. Al parecer, y prescindiendo de diferencias
cualitativas (que, no obstante, siempre son del máximo interés), la distancia mental de
un año al siguiente va disminuyendo con la edad. Esto, si no se tiene en cuenta, puede
inducir a errores. El segundo inconveniente es que en todos los tests de inteligencia
actuales se llega a una edad tope a partir de la cual la puntuación media no aumenta con
la edad. Por lo tanto, a partir de esta edad tope -de los 14 a los 18 años-, no tiene
aplicación al concepto de edad mental.

Para eliminar el primer inconveniente se usa el cociente intelectual, o sea, la razón


entre la edad mental y la edad cronológica, generalmente multiplicada por ciento para

75
Metodología General 2020
TANY

evitar decimales. Para que una escala de cocientes intelectuales sea correcta, es preciso
que cualquier C.I. dado signifique cuantitativamente lo mismo en todas las edades. Para
ello es necesario que el C.I. medio de todas ellas sea siempre igual a 100, y que las
distribuciones de C.I. de todas las edades, tengan la misma forma y la misma
dispersión. Si se cumplen estas condiciones, al menos aproximadamente, la escala de
C.I. indica con precisión la agudeza mental de los sujetos. Queda en pie, sin embargo,
el segundo inconveniente. El C.I. no es aplicable, en un test de inteligencia, por encima
de su edad tope.

Dentro de estos límites, el C.I. puede rendir y ha rendido servicios muy estimables
como método de medida. Una de las clasificaciones más usadas de C.I. es la
propuesta por Terman:

C.I. CLASIFICACIÓN
Sobre 140 "Genio" o casi "genio"
120 - 140 Inteligencia muy superior
110 - 120 Inteligencia superior
90 - 100 Inteligencia media o normal
80 - 90 Torpe
Frontera con deficiencia
70 - 80
mental
bajo 70 Deficiencia mental

El cuadro anterior debe ser interpretado con cautela. Solo podrá hacerlo una persona con
suficiente formación psicológica. El término genio, por ejemplo, no tiene aquí
significación corriente, sino otra más particular y limitada; indica simplemente una
inteligencia general excepcional. Del mismo modo la denominación deficiencia
mental se refiere únicamente a un nivel muy bajo de inteligencia y no equivale,
necesariamente, al término jurídico que indica incapacidad de conducta normal o
irresponsabilidad en los actos.

B) NORMAS CENTILES

Otra manera de establecer normas interpretativas consiste en ordenar las puntuaciones


del grupo normativo en una escala centil. Para ello es preciso averiguar los puntos
centiles, o sea, las puntuaciones que dejan por debajo los sucesivos tantos por ciento,
del uno al ciento por ciento, de los individuos de la muestra. Así, si solo el 3% de los
sujetos de la muestra alcanzan o superan la puntuación del 123, 123 designará el centil
97, porque el 97% de los individuos no llegan a ella. Si, en adelante, un sujeto obtiene
123 puntos en el test, podemos afirmar que es superior al 97% de su población en el
rasgo que mide el test. Para interpretar los centiles, hay que tener en cuenta, sin
embargo, que son en realidad, números ordinales, y que la distancia entre un centil y el
siguiente no es constante, sino mucho mayor en los extremos que en el centro de la
escala.

C) NORMAS TÍPICAS

Para eliminar los inconvenientes que presentan las escalas anteriores, se ha recurrido al
uso de normas y puntuaciones típicas. Una puntuación típica es igual a la diferencia
entre la puntuación directa y la media del grupo, dividida por la desviación típica de la

76
Metodología General 2020
TANY

distribución. Siempre que las distribuciones sean aproximadamente iguales y, mejor, si


son aproximadamente normales, las puntuaciones típicas son índices cuantitativos de
significación universal. Si un sujeto obtiene en un test una puntuación típica igual a 1,
sabemos que esto significa siempre que está situado una desviación típica por encima de
la media de su grupo. Si la distribución es normal, esto nos indica, además, que el
individuo es superior al 84% de los sujetos de su población. Las puntuaciones típicas se
pueden convertir en una escala con el origen situado suficientemente por debajo de la
media, por ejemplo, en el punto -5 sigmas, y con una unidad igual a una fracción de la
sigma, por ejemplo igual a 0’10 sigmas, con los cual se tiene una escala de 0 a 100, que
va desde -5 a 5 sigmas, de punto de partida fijo y de unidad constante.

Una de las escalas típicas más usadas es aquella en que el punto cero se sitúa en el punto
-2'5 sigmas y la desviación típica se hace igual a 20 unidades. Con ello se tiene una
escala que va de -2'5 sigmas a +2'5 sigmas, comprendiendo 100 unidades, desde 0 a
100, con la media en 50.

El único inconveniente de estas escalas es que su uso requiere algún conocimiento de


estadística elemental. Por otra parte, esto puede considerarse como ventaja, ya que
aparta así de los tests a los aficionados, cuya participación ha sido siempre deplorable
para el prestigio del método y la orientación del examinador, y al mismo tiempo, exige
que el psicólogo tenga, como debe, la competencia necesaria.

5. APLICACIÓN DE LOS TESTS

El test es un instrumento de medida y diagnóstico. Su eficacia depende tanto de su


validez y precisión como de la competencia y pericia del que lo usa. El resultado de un
test puede y debe expresarse mediante un número. Pero este número debe ser
interpretado en relación con el comportamiento del sujeto durante el examen y en
función de las circunstancias de su conducta. Todo test por exacto y válido que sea,
refleja solo un aspecto parcial de la personalidad del sujeto en su momento,
arbitrariamente fijado, de su vida. En el estudio del sujeto y de sus características
psicológicas, el test es un medio, riguroso y fecundo, si se utiliza con discreción, pero
no el único. Sus resultados deben interpretarse y ser complementados por otros
métodos, a la luz de la historia personal del sujeto.

MÓDULO 3

PERSPECTIVAS CUALITATIVAS

DE LA INVESTIGACIÓN EN PSICOLOGÍA

HERNANDEZ SAMPIERI (2014)

METODOLOGÍA DE LA INVESTIGACIÓN
CAPITULO 12

77
Metodología General 2020
TANY

EL INICIO DEL PROCESO CUALITATIVO:


PLANTEAMIENTO DEL PROBLEMA,
REVISIÓN DE LA LITERATURA,
SURGIMIENTO DE LAS HIPÓTESIS EN
INMERSIÓN EN EL CAMPO

Los planteamientos cualitativos están enfocados en profundizar en los fenómenos,


explorándolos desde la perspectiva de los participantes.
Los objetivos y las preguntas son más generales y enunciativos en los estudios
cualitativos.
Los elementos de justificación en los planteamientos cualitativos son los mismos
que en los cuantitativos: conveniencia, relevancia social, implicaciones prácticas,
valor teórico y utilidad metodológica.
La flexibilidad de los planteamientos cualitativos es mayor que la de los
cuantitativos.
Los planteamientos cualitativos son:
• abiertos, expansivos, no direccionados en su inicio, fundamentados en la experiencia
e intuición, se aplican a un número pequeño de casos, el
entendimiento del fenómeno es en todas sus dimensiones, se orientan a aprender de
experiencias y puntos de vista de los individuos, valorar procesos y generar teoría
fundamentada en las perspectivas de los participantes.
Para responder a las preguntas de investigación es necesario elegir un contexto o
ambiente donde se lleve a cabo el estudio; asimismo, es preciso ubicar el
planteamiento en espacio y tiempo.
Para quienes se inician en la investigación cualitativa, se sugiere visualizar
gráficamente el problema de estudio.

Los planteamientos cualitativos son una especie de plan de exploración y resultan


apropiados cuando el investigador se interesa por el signifi - cado de las experiencias
y los valores humanos, el punto de vista interno e individual de las personas y el
ambiente natural en que ocurre el fenómeno estudiado; así como cuando buscamos
una perspectiva cercana de los participantes.

En los estudios cualitativos, las hipótesis adquieren un papel distinto al que tienen
en la investigación cuantitativa. Normalmente no se establecen antes de ingresar en el
ambiente y comenzar la recolección de los datos. Más bien, durante el proceso, el
investigador va generando hipótesis de trabajo que se afi nan paulatinamente
conforme se recaban más datos o las hipótesis son uno de los resultados del estudio.

Ya que se ha elegido un ambiente o lugar apropiado, comienza la tarea de responder a


las preguntas de investigación. El ambiente puede ser tan variado como el
planteamiento del problema.
78
Metodología General 2020
TANY

Tal ambiente puede variar, ampliarse o reducirse y es explorado para ver si es el


apropiado.
Dos dimensiones resultan esenciales con respecto a la selección del ambiente:
• conveniencia y
• accesibilidad.
Para lograr el acceso al ambiente debemos negociar con los gatekeepers.
Con el fin de tener un mayor y mejor acceso al ambiente, así como ser aceptados,
se recomienda:
• desarrollar relaciones,
• elaborar una historia sobre la investigación,
• no intentar imitar a los participantes,
• planear el ingreso y
• no elevar las expectativas más allá de lo necesario.

La inmersión total implica observar eventos, establecer vínculos con los


participantes, comenzar a adquirir su punto de vista; recabar datos sobre sus
conceptos, lenguaje y maneras de expresión, historias y relaciones; detectar procesos
sociales fundamentales.
Tomar notas y empezar a generar datos en forma de apuntes, mapas, esquemas,
cuadros, diagramas y fotografías, así como recabar objetos y artefactos; elaborar
descripciones del ambiente. Estar consciente del propio papel como investigador y de
las alteraciones que se provocan; así como reflexionar acerca de las vivencias.

Las observaciones al principio son generales pero van enfocándose en el


planteamiento.
La descripción del ambiente es una interpretación detallada de:
• casos,
• seres vivos,
• personas,
• objetos,
• lugares específicos y
• eventos del contexto, y debe transportar al lector al sitio de la investigación
Se deben tomar distintos tipos de anotaciones:
• de la observación directa,
• interpretativas,
• temáticas,
• Personales y
• de reactividad de los participantes.
Las anotaciones se registran en el diario o bitácora de campo, que además
contiene:
• descripciones,
• mapas,
79
Metodología General 2020
TANY

• diagramas,
• esquemas,
• listados y
• Aspectos del curso del estudio.
Para complementar las observaciones podemos realizar entrevistas, recolectar
documentos, etcétera.

RESUMEN:

En el presente capítulo se comentará la manera en que la idea se desarrolla y se


transforma en el planteamiento del problema de investigación (cualitativo), es decir,
el capítulo trata sobre cómo plantear un problema de investigación, pero ahora desde
la óptica cualitativa. Seis elementos resultan fundamentales para plantear un
problema cualitativo: objetivos de investigación, preguntas de investigación,
justificación de la investigación, viabilidad de ésta, evaluación de las deficiencias en
el conocimiento del problema y definición inicial del ambiente o contexto. Sin
embargo, los objetivos y las preguntas son más generales y su delimitación es menos
precisa. En el capítulo se analizan estos elementos bajo el enfoque cualitativo.

Asimismo, se explica el papel que juegan la literatura y las hipótesis en el proceso


inductivo; del mismo modo, cómo se inicia, en la práctica, un estudio cualitativo,
mediante el ingreso al contexto, ambiente o campo. Por otro lado, se insiste en que el
proceso cualitativo no es lineal, sino iterativo o recurrente, las supuestas etapas en
realidad son acciones para adentrarnos más en el problema de investigación y la tarea
de recolectar y analizar datos es pertinente.

HERNANDEZ SAMPIERI (2014)

CAPÍTULO 13
MUESTREO EN LA INVESTIGACIÓN
CUALITATIVA

Se explican los métodos para recabar datos cualitativos e incluso la asistencia por
computadora con un par de programas para su análisis y de forma espléndida se detalla
el proceso donde no se miden variables, sino que se generan conceptos y categorías:
• se recolectan,
• revisan,

80
Metodología General 2020
TANY

• organizan,
• preparan análisis,
• se definen unidades de análisis,
• se codifican, describen e
• ilustran las categorías producidas para generar hipótesis, explicaciones y teoría
resultante enraizada en datos.
Se hace de forma iterativa y recurrente y las etapas son acciones. Varias
recomendaciones como la tipología de entrevistas, llevar bitácoras de análisis e
identificar correspondencias.
En los estudios cualitativos el tamaño de muestra no es importante desde una
perspectiva probabilística, pues el interés del investigador no es generalizar los
resultados de su estudio a una población más amplia. Asimismo, se considerarán los
factores que intervienen para “determinar” o sugerir el número de casos que
compondrán la muestra.
También se insistirá en que conforme avanza el estudio se pueden agregar otros tipos
de unidades o reemplazar las unidades iniciales, puesto que el proceso cualitativo es
más abierto y está sujeto al desarrollo del estudio.
Por último, se revisarán los principales tipos de muestras dirigidas o no
probabilísticas, que son las que se utilizan comúnmente en investigaciones
cualitativas.
RESUMEN:

En el capítulo se comentará el proceso para definir las unidades de análisis y la


muestra iniciales. En los estudios cualitativos el tamaño de muestra no es importante
desde una perspectiva probabilística, pues el interés del investigador no es
generalizar los resultados de su estudio a una población más amplia. Asimismo, se
considerarán los factores que intervienen para “determinar” o sugerir el número de
casos que compondrán la muestra.

También se insistirá en que conforme avanza el estudio se pueden agregar otros


tipos de unidades o reemplazar las unidades iniciales, puesto que el proceso
cualitativo es más abierto y está sujeto al desarrollo del estudio.

Por último, se revisarán los principales tipos de muestras dirigidas o no


probabilísticas, que son las que se utilizan comúnmente en investigaciones
cualitativas.

HERNÁNDEZ SAMPIERI:

CAPÍTULO 14

81
Metodología General 2020
TANY

"RECOLECCIÓN Y ANÁLISIS DE LOS DATOS


CUALITATIVOS”
Los principales métodos para recabar datos cualitativos son:
1) La Observación,
2) La Entrevista,
3) Los grupos de enfoque (Focus Group),
4) La recolección de documentos y materiales,
5) Las historias de vida.

El análisis cualitativo implica organizar los datos recogidos, transcribirlos a texto, y


codificarlos.

LA CODIFICACIÓN TIENE DOS PLANOS O NIVELES:

- del primero se generan unidades de significado y categorías


- del segundo emergen temas y relaciones entre conceptos. Al final se produce teoría
enraizada en los datos.

El proceso cualitativo no es lineal, ni lleva una secuencia como el proceso


cuantitativo.
Las etapas se yuxtaponen, son interactivas o recurrentes.
Al ingresar al campo estamos recolectando y analizando datos, y durante esta labor, la
muestra puede ir ajustándose. Muestreo, recolección y análisis resultan actividades
casi paralelas. No siempre la muestra inicial cambia.

Se recogen datos –en la muestra inicial- de una unidad de análisis o campo y se


analizan, simultáneamente se evalúa si la unidad es apropiada de acuerdo con el
planteamiento del problema y la definición de la muestra inicial.
Se recolectan datos de una segunda unidad y se analizan y se vuelve a considerar si
esta unidad es adecuada; del mismo modo se obtienen datos de una tercera unidad y
se analizan y así sucesivamente. La muestra inicial puede o no modificarse
(mantenerse las unidades, cambiar por otras, agregar nuevos tipos, etc).

RECOLECCION DE DATOS DESDE EL ENFOQUE


CUALITATIVO

Lo que se busca es obtener datos de personas, seres vivos, comunidades, contextos, o


situaciones en profundidad. Las “propias formas de expresión” de cada uno de
ellos. Los datos que interesan son conceptos, percepciones, imágenes mentales,
creencias, emociones, interacciones, pensamientos, experiencias, proceso, vivencias
manifestadas en el lenguaje de los participantes de manera individual, grupal o
colectiva. Se recolectan con la finalidad de analizarlos y comprenderlos y así
responder a las preguntas de investigación y generar conocimiento.
Esta clase de datos es muy útil para entender los motivos subyacentes, los
significados y las razones internas del comportamiento humano. No se reducen a
números para ser analizados estadísticamente.

82
Metodología General 2020
TANY

La recolección de datos ocurre en los ambientes naturales y cotidianos de los


participantes o unidades de análisis.
INSTRUMENTO DE RECOLECCION DE DATOS

El investigador es quien recoge los datos, es quien observa, entrevista, revisa


documentos, conduce sesiones, etc. No solo analiza, sino que es el medio de
obtención de los datos.
El genera las respuestas de los participantes al utilizar una o varias
herramientas, además recolecta datos de diferentes tipos: lenguaje escrito, verbal
y no verbal, conductas observables e imágenes. Su reto mayor consiste en
introducirse al ambiente y mimetizarse con éste, también en adquirir un profundo
sentido de entendimiento.
DOCUMENTOS, REGISTROS, MATERIALES Y ARTEFACTOS

Una fuente muy valiosa de datos cualitativos son los documentos, materiales y artefactos
diversos. Nos pueden ayudar a entender el fenómeno central de estudio. Prácticamente la
mayoría de las personas, grupos, organizaciones, comunidades y sociedades los producen
y narran, o delinean sus historias y estatus actuales.

RESUMEN
En el capítulo se considera la estrecha vinculación que existe entre la
conformación de la muestra, la recolección de los datos y su análisis. Asimismo,
se revisa el papel del investigador en dichas tareas.
Los principales métodos para recabar datos cualitativos son la observación, la
entrevista, los grupos de enfoque, la recolección de documentos y materiales, y las
historias de vida.
El análisis cualitativo implica organizar los datos recogidos, transcribirlos a texto
cuando resulta necesario y codificarlos. La codificación tiene dos planos o niveles.
Del primero, se generan unidades de significado y categorías.
Los periodos de la observación cualitativa son abiertos. La observación es
formativa y constituye el único medio que se utiliza siempre en todo estudio
cualitativo.
Podemos decidir hacer entrevistas o sesiones de enfoque, pero no podemos
prescindir de la observación. Podría ser el caso de que nuestra herramienta central
de recolección de los datos cualitativos sea, por ejemplo, la biografía; pero
también observamos.
La observación es muy útil: para recolectar datos acerca de fenómenos, temas o
situaciones delicadas o que son difíciles de discutir o describir; también cuando
los participantes no son muy elocuentes, articulados o descriptivos; cuando se
trabaja con un fenómeno o en un grupo con el que el investigador no está muy
familiarizado; y cuando se necesita confirmar con datos de primer orden lo
recolectado en las entrevistas.

83
Metodología General 2020
TANY

MARRADI, ARCHENTI, PIOVANI (2007)

CAPÍTULO 10
LA OBSERVACIÓN

INTRODUCCIÓN
Es el acto y efecto de observar, que a su vez significa mirar o examinar con atención.
Se trata de una actividad con presencia constante y recurrente en la vida cotidiana.
En el ámbito de la ciencia, la observación es el modo de establecer algún tipo de
contacto empírico con los objetos/sujetos/situaciones de interés a los fines de su
descripción, explicación, comprensión.

LA OBSERVACIÓN LA VIDA COTIDIANA Y EN LA CIENCIA


La distinción entre observación científica y común se entienden recurriendo a las
nociones de ruptura o de continuidad.
La idea de ruptura destaca el quiebre entre ambos mundos, y se inscribe en el marco
de una concepción que le asigna a la ciencia un lugar privilegiado, inmune a las
contaminaciones del conocimiento ordinario que caracteriza a la vida cotidiana.
En tiempos más recientes se ha tendido a favorecer la idea de continuidad entre
ciencia y vida cotidiana, y en ese sentido se ha destacado que las competencias
observacionales desarrolladas en la vida social, junto con esfuerzo reflexivo y crítico,
constituye un fundamento de notable no solo para aprender y comprender el
significado de la observación científica, sino también para llevarla a cabo de manera
apropiada. La observación común y generalizada puede transformarse en una
poderosa herramienta de investigación social y técnica científica.

DISTINTAS FORMAS DE OBSERVACIÓN CIENTÍFICA


Todos los métodos de investigación científica son en algún sentido
observacionales. Una distinción entre las formas de observación se puede establecer
a partir de la coincidencia (o no) entre el sujeto observador y el objeto/sujeto

84
Metodología General 2020
TANY

observado. Cuando ambos coinciden se habla de una autoobservación, que será más o
menos introspectiva según el grado de profundidad del análisis.

Suele distinguirse entre observación directa e indirecta. La última es cuando se


adquiere conocimiento del objeto a través de observaciones previas realizadas por
otras personas, por ejemplo, cuando recurre a datos secundarios. La primera es
cuando el investigador se pone en contacto directo con el fenómeno de interés, y esto
se puede hacer de manera controlada (a través de experimentos) o no controlada,
cuando se observa la situación en su ambiente natural, sin alterar el contexto
artificialmente. También es frecuente hablar de controlada como la que se hace en un
laboratorio, y no controlada a la que se hace como observación de campo. Esta última
puede ser participante o no participante, según se observe el fenómeno “desde
adentro” o “desde afuera”.

Otras formas de definir la observación incluyen a la estructurada o no


estructurada, según el grado de sistematicidad y delimitación prevista de que/quien,
como y cuando será observado; retrospectiva, cuando se investigan fenómenos del
pasado, y mediada o no mediada, según se apele a instrumentos técnicos de
observación (telescopio, etc.) o simplemente a los sentidos, sin la ayuda de tales
dispositivos. En este sentido, se puede distinguir entre los instrumentos que amplían
la capacidad de los sentidos, y en un modo más general, aquellos que hacen posible
acceder a través de ellos a la observación de un espacio/objeto dado.

Gold profundizó en la caracterización de los tipos ideales de roles de trabajo de


campo que el cientista social puede adoptar a partir de la observación y la
participación.
Su tipología se basa en dos criterios:
• el grado de participación y
• el grado de revelación de la actividad de observación.
De aquí surgen los 4 tipos teóricos:
• participante completo,
• participante como observador,
• observador como participante y
• observador completo.

En el caso del participante completo, la verdadera identidad y propósito del


investigador se mantienen ocultos, interactuará de manera más natural, aprendiendo
roles y tareas cotidianas de los observados como si fuera uno de ellos. Es análogo al
observador encubierto.

El participante como observador es un rol de trabajo de campo con


características similares a la anterior, pero se diferencia en tanto que investigador
como sujeto observado son consciente de que su relación es de campo. Establece

85
Metodología General 2020
TANY

relaciones con informantes a lo largo del tiempo y tiene la oportunidad de participar


de la situación investigada.

El observador como participante es el típico rol de quien limita el trabajo de


campo a una entrevista. La actividad de observación es más bien formal, ya que no
se dan las condiciones para una observación y participación informales a lo largo del
tiempo.

El observador completo es aquel que no interactúa socialmente con los sujetos


investigados.
Se limita a observar intentando que su actividad pase inadvertida.
Se plantea que hay dinamismo y conexión entre estos 4 y no caminan por separado,
inclusive a lo largo de un mismo estudio se pueden adoptar todos. Inclusive, el rol no
se da solo por el investigador, ya que este es también es observado.

En vez de pensar en tipos cerrados de observación y participación, muchos autores


favorecen la idea de un continuum de diversas combinaciones posibles.

LA OBSERVACIÓN PARTICIPANTE
Consiste en ver el fenómeno estudiado en su ambiente natural, sin manipularlo y
presenciado de forma directa. Conlleva el involucramiento del investigador en una
variedad de actividades y en un período prolongado de tiempo.
Se distingue entre dos modos:
• pasivo y
• activo.
Los modos pasivos se observación implica el mirar y el escuchar, mientras que el
activo es el conversar.
Los modos pasivos de participación son el estar y el hacer; el modo activo es el
compartir. A partir de estas observaciones, se distingue entre la observación
participante en un sentido débil (modo pasivo) y fuerte (modo activo). Autores
están más de acuerdo con un modo u otro.

La observación participante también puede adquirir diferentes sentidos según cual


sea la relación de membresía del investigador con respecto al grupo que estudia; el
observador puede ser miembro (nativo o no nativo), puede hacerse pasar por un
miembro, o desarrollar un rol de observador participante en el grupo en el sentido del
“participante como observador”.
La observación de la propia comunidad exige un trabajo de
extrañamiento/distanciamiento que permita desnaturalizar prácticas. La tradición de
las ciencias sociales ha tendido a pensar al observador como un “extraño que está
dentro” de la comunidad, que adquiere ciertas competencias sociales necesarias para

86
Metodología General 2020
TANY

participar en ella, pero que no debe hacer propias las ideas y valores característicos de
ésta. En otras palabras, no debe ser un miembro activo ni convertirse en uno.
Se han discutido los límites de la interpretación de una cultura extraña sin que
medien procesos de resocialización en el juego del lenguaje que esa cultura implica.
Se han puesto en cuestión la posibilidad de “traducción” de una cultura a los términos
de otra partir de una racionalidad que le es ajena. La supuesta “objetividad” puede
convertirse en un obstáculo para acceder al sentido de ciertas prácticas sociales y
culturales.

Igualmente, la visión canónica ha tendido a favorecer las ventajas del observador


profesional no nativo.

Las diferencias entre el rol técnico del observador participante y el papel del
profano de participación típico de un miembro nativo del grupo son el contraste de
propósitos, los modos de atención, los ángulos de observación, la experiencia,
introspección y registro.

Cuando el observador se hace pasar por miembro (observación encubierta), si bien


se tiende a desaconsejar esta forma de intervención por razones éticas, hay casos en
que podría ser la única forma de conocer un fenómeno sin que la presencia incida en
la situación.
En la actualidad, la observación participante suele utilizarse en el marco de una
investigación que se caracteriza por la presencia física del investigador en el terreno;
es alguien que se une temporalmente a un grupo con fines científicos y que no oculta
su rol.

Este sentido actual de la observación participante implica la comprensión a través de


un acceso privilegiado a los significados que los actores construyen (y le asignan) a
su mundo.

UNO DE LA OBSERVACIÓN PARTICIPANTE EN LA


INVESTIGACIÓN SOCIAL. VENTAJAS Y LÍMITES

En un sentido genérico, ha tendido a destacarse la utilidad de la observación


participante para realizar estudios exploratorios y descriptivos, y su muy limitada
capacidad como instrumento de la investigación explicativa, ya sea que se trate de
construir teorías o de poner a prueba hipótesis científicas. Sin embargo, esta visión
que restringe el uso de la observación participante a fases preparatorias (como mera
disparadora de hipótesis que deberían dar lugar a estudios sucesivos más acordes a la
lógica de la contrastación) ha sido desafiada por muchos científicos sociales.
Entre las principales ventajas de la observación participante, destacamos:
a) Permite acceder a las situaciones investigadas en toda su complejidad y en el
momento en que los acontecimientos suceden, sin artificios ni simplificaciones.

87
Metodología General 2020
TANY

b) Permite acercarse al punto de vista de los actores investigados


c) Es flexible, posibilitando de este modo redefinir aspectos significativos a lo largo
del proceso de investigación.

Entre sus límites señala que hay importantes cuestiones de interés para las ciencias
sociales que no son pasibles de observación directa, o al menos observación
participante. También las limitaciones para fenómenos que tienen su raíz psicológica
profunda, y que requieren métodos indirectos. También se destaca como negativo el
tiempo que lleva la observación participante.

Pero las ventajas o límites deben entenderse como en relación a otros métodos
observacionales y el objeto de interés de una investigación.
La reactividad es la tendencia de los actores a modificar su comportamiento habitual
como consecuencia de ser observados. La idea es que la observación participante
genere la menor reactividad posible.
Para maximizar las ventajas y restringir los límites de la observación
participante, especialmente en términos de fiabilidad, se suele sugerir una serie
de estrategias y recomendaciones:
a) Analizar críticamente la información provista por informantes clave, prestando
especial atención a su estatus en el marco de la situación/comunidad/grupo
observado.
b) Llevar un registro de lo que se percibe como efecto reactivo, en particular lo que se
conoce como notas metodológicas
c) Realizar cruces y controles con los resultados de observación realizados por otros
miembros del equipo, y complementar la observación con entrevistas y documentos
de distinta naturaleza.
Las críticas más frecuentes remiten a la fiabilidad y validez. Autores afirman que los
problemas de fiabilidad y validez tienden a solucionarse si se contrastan las
perspectivas de varios investigadores.

EL REGISTRO DE LA INFORMACIÓN EN LA OBSERVACIÓN


PARTICIPANTE

Se recurre a lo que se conoce como notas de campo. Bajo este rotulo, hay distintas
modalidades de registro.
La forma más común de distinción del registro informacional escrito involucra
las notas:
• observacionales,
• teóricas y
• metodológicas,
También llamadas:

88
Metodología General 2020
TANY

• sustantivas,
• analíticas y
• metodológicas.
Las primeras son el registro descriptivo de lo observado. En ellas es importante
rescatar el lenguaje nativo, lo espontáneo y limitando las interpretaciones. Como todo
lleva un ejercicio analítico, se realizan notas teóricas o analíticas Estos son intentos
preliminares del observador para dar sentido a lo que observa. Las notas
metodológicas son apuntes descriptivos acerca del investigador y el proceso de
investigación, por ejemplo, las decisiones que toma en el campo.
Otro autor distingue entre notas condensadas, que se realizan mientras se lleva a
cabo la observación, y notas expandidas, que se realizan fuera del campo y que son
más detalladas.

MARRADI, ARCHENTI, PIOVANI (2007)

CAPÍTULO 12
LA ENTREVISTA EN PROFUNDIDAD

INTRODUCCIÓN
En las ciencias sociales, la entrevista se refiera a una forma especial de
encuentro: una conversación a la que se recurre con el fin de recolectar
determinado tipo de información en el marco de una investigación. Se trata de
una técnica muy utilizada.
En la tradición antropológica, la entrevista ha sido vista como un complemento en
la observación de campo, mientras que en la sociología y otras ciencias sociales, se le
ha dado un lugar central y valor científico por sí misma.
En la vida cotidiana estamos permanentemente involucrados en prácticas
conversacionales que implican el intercambio de información. No solo son
conversaciones formales, existen, por ejemplo, otras más formalizadas como las
entrevistas profesionales, que pueden ser las consultas médicas, terapia, etc. La
entrevista de investigación social podría concebirse como una forma especial de
conversación profesional. Se diferencia de la psicoterapia en que su objetivo primario
es conocer y no, en cambio, modificar actitudes o conductas del entrevistado.
Podemos definir la entrevista en profundidad como una forma especial de
conversación entre dos personas, dirigida y registrada por el investigador con el
propósito de favorecer la producción de un discurso conversacional continuo y con
cierta línea argumental por parte del entrevistado, acerca de un tema de interés
definido en el marco de la investigación.

TIPOS DE ENTREVISTA
Se propone una tipología para clasificarla basada en dos criterios: la presencia (o no)
de un contacto visual directo entre entrevistador y entrevistado, y el grado de libertad

89
Metodología General 2020
TANY

concedido a los actores en la situación de entrevista, ya sea al preguntar o al


responder.
Burgues afirma que el grado de menor estructuración se da en el marco de las
conversaciones espontáneas surgidas como complemento de la observación de
campo. En el otro extremo están las entrevistas estructuradas típicas de las encuestas
o sondeos.
La entrevista puede ser:
• estructurada,
• semiestructurada y
• no estructurada. Igualmente, no existe aún una terminología unificada para
designarlas.
En el caso de las menos estructuradas se habla de entrevista abierta; no directiva,
no estandarizada, intensiva, cualitativa, hermenéutica. En el caso de la
semiestructurada se recurre a la expresión “entrevista centrada”. Se propuso también
la noción de entrevista focalizada, un tipo semiestructurado que se caracteriza por
el hecho de que los entrevistados han recibido un estímulo específico (una película,
un libro, etc.) o han participado de una situación social cuya experiencia subjetiva es
objeto de la entrevista. Marradi propuso una forma especial de entrevista
semiestructurada a partir de un estímulo particular, se trata de historias en las que se
narran episodios de la vida cotidiana y que el entrevistador cuenta al entrevistado para
luego explorar sus reacciones y reconstruir sus preferencias valorativas.

CARACTERIZACIÓN DE LA ENTREVISTA EN PROFUNDIDAD


Se caracteriza por su estructura paradójica: en un intercambio explícitamente
instrumental y muy circunscrito en el tiempo –entre personas relativamente extrañas-
exige a la vez intimidad e impersonalidad, profesionalismo en un marco de
sociabilidad.
Es un proceso comunicativo por el cual el investigador extrae una información de una
persona.
Pero no cualquiera, sino aquella que se encuentra en la biografía del entrevistado, la
que fue experimentada e interpretada.
Es un proceso donde se pone en juego una relación social e involucra a dos actores.
Dado que la relación es asimétrica, el entrevistador debe ser capaz de reflexionar
sobre su rol, sus elecciones y sobre la dirección y sentido de la investigación. Debe
tener una persistente actitud de apertura y a encontrar aquello que no esperaba,
moviéndose entre conceptualización y observación. La función principal del
entrevistador es la de escuchar.

Este tipo de entrevistas se caracteriza por el alto grado de subjetividad, para


muchos esto es su principal rasgo y su mayor limitación. Se habla de hiper-
subjetividad: el entrevistado es un self que relata historias mediadas por su memoria
e interpretación personal, y en este sentido la información que provee no debe
apreciarse en términos de veracidad-falsedad, sino como el producto de un individuo
en sociedad cuyos relatos deben ser contextualizados y contrastados.

90
Metodología General 2020
TANY

La relevancia o irrelevancia de este juego comunicativo depende en gran medida de


las capacidades, perspicacia y personalidad del entrevistador. La viabilidad se
establece a través de un contrato comunicativo que involucra un conjunto de saberes
explícitos e implícitos, compartidos por ambas partes, que harán posible el
funcionamiento de la entrevista. La entrevista se realiza a partir de un
consentimiento informado de parte del entrevistado; los saberes implícitos aluden a
los códigos lingüísticos, culturales y reglas sociales que hacen posible la
comunicación en un contexto.

USOS DE LAS ENTREVISTA EN LAS CIENCIAS SOCIALES.


VENTAJAS Y DESVENTAJAS.

Se utiliza generalmente cuando se busca acceder a la perspectiva de los actores para


conocer como ellos interpretan sus experiencias en sus propios términos. Se trata de
explorar el mundo de la vida cotidiana.

Con respecto a las ventajas, permite obtener de manera flexible u na información


rica y profunda, en las propias palabras de los actores. También señala que
proporciona la oportunidad de clarificación de un marco más dinámico y espontaneo
que el de las entrevistas estructuradas de las encuestas. Resultan significativas para
realizar un primer acercamiento al tema, y además se destaca su uso a fin de
enriquecer resultados de indagación cuantitativa o cualitativa. Permite acceder a
información difícil de conocer sin la mediación del entrevistador, generalmente
situaciones no directamente observables. A diferencia de las entrevistas grupales, las
individuales tienen mayor intimidad
Con respecto a las limitaciones, se señala una desventaja en términos de tiempo, así
como menor capacidad de captar fenómenos de gran dispersión territorial y/o
tipológica, menor capacidad para generalizar resultados, mayor complejidad de
registro, procesamiento y análisis. Presenta potenciales problemas de reactividad,
fiabilidad y validez. No se pueden observar fenómenos en su ambiente natural.

Cosas que influyen: la empatía del entrevistador y su habilidad para crear un clima
favorable.
Las características personales (género, edad, raza, etc.) pueden potenciar ventajas y
desventajas en la entrevista en profundidad.

PREPARACIÓN Y PLANIFICACIÓN DE LA ENTREVISTA


No tiene reglas fijas. Cada investigador tiene su propio estilo de conducirla, derivado
de un saber práctico incorporado y de las propiedades sociales singulares de
entrevistador y entrevistado.

91
Metodología General 2020
TANY

Hay una serie de cuestiones que pueden planificarse de antemano. La primera es


refiere a la selección de los sujetos a entrevistar por dos motivos importantes:
a) Las entrevistas en profundidad se emplean casi siempre en el marco de una
investigación no estándar, que no tienen como objetivo principal la generalización
estadística de sus resultados.
b) Por las características mismas de la entrevista, la cantidad que se puede llevar a
cabo es reducida.

No existe un criterio único para la selección de entrevistados, se propone tener


en cuenta:
a) ¿Quiénes tienen la información relevante?
b) ¿Quiénes son más accesibles física y socialmente?
c) ¿Quiénes están más dispuestos a cooperar?
d) ¿Quiénes son los más capaces de comunicar la información de interés con
precisión?
Para responder estas preguntas se recurre a diversas estrategias. La más conocida es el
muestreo intencional, en este caso el investigador seleccionará a los entrevistados de
acuerdo con un conjunto de criterios relevantes, que obviamente pueden cambiar de
una investigación a otra.
Se tiene en cuenta 4 tipos de aspectos:
• la homogeneidad/heterogeneidad de la población;
• la tipiedad/marginalidad/representatividad de los sujetos;

• las variables sociodemográficas y

• otras cuestiones que permitan diferenciar a las personas sustantivamente en


función del fenómeno de interés.
A partir de la consideración de uno o varios de estos aspectos, es frecuente
segmentar a la población formando subgrupos de los cuales se seleccionará uno o
más entrevistados con el fin de tener un panorama amplio de diferentes
experiencias y discursos.

Cuando se trata de personas que no son fácilmente identificables por parte del
entrevistador (por ejemplo, una minoría) se suele recurrir a la técnica de bola de
nieve: a partir de uno o unos pocos contactos iniciales, se busca ampliar
progresivamente el grupo de potenciales entrevistados que comparan aquellas
características que los hacen minoritarios o poco visibles y accesibles.

Las cuestiones de accesibilidad general se relacionan con lo que se conoce como


muestreo oportunista: se seleccionan aquellos sujetos proclives a colaborar en el
estudio y donde el entrevistador tiene acceso.

92
Metodología General 2020
TANY

Una cuestión importante es aquella relativa al número de entrevistas. Para dar


una respuesta, se sigue el criterio de saturación: se debería seguir realizando
entrevistas hasta tanto se alcance la certeza práctica de que nuevos contactos no
aportan elementos desconocidos con respecto al tema de investigación, o no emergen
aspectos hasta entonces no tratados.

Otro aspecto clave es el diseño de la guía, también llamado: guion, que se utilizará
en el desarrollo. Se trata de trazar un esquema que anticipe los modos de abordar el
tema central y lo secundario. Supone tener listas de preguntas de amplio espectro, así
como argumentos que sirvan (en caso de ser necesarios) para pasar a otros temas. Su
nivel de detalle puede variar.

Existe una relación directa entre el grado de familiaridad con el tema y la capacidad
de pensar de antemano la guía: a mayor conocimiento, la guía será más exacta. No es
un interrogatorio, la entrevista debe seguir su propia dinámica.

Los preparativos de la entrevista también deben incluir algunos aspectos relativos


al investigador/entrevistador.
Otro punto es el lugar donde se va a realizar la entrevista, así como la forma en que
será registrada, generalmente se graba si se tiene el consentimiento del entrevistado.
No se debe dejar de tener en cuenta el lenguaje no verbal del entrevistador, si se
escribe todo, esto se pierde.
A pesar de todo, la relación de entrevistador y entrevistado es imprevisible, se
deberán poner en juego las llamadas “tácticas del entrevistador”, que son
conocimiento que forman parte de marcha a partir de las intervenciones del
entrevistador.

MARRADI, ARCHENTI, PIOVANI (2007)

CAPÍTULO 13
FOCUS GROUP Y OTRAS FORMAS DE ENTREVISTA
GRUPAL.

EL FOCUS GROUP
Las entrevistas grupales se caracterizan por la presencia simultánea de varios
entrevistados que se relacionan a través de técnicas conversacionales. EL FOCUS
GROUP es un tipo de entrevista grupal que se enmarca dentro de los enfoques
cualitativos; su dinámica es organizar un grupo de personas para que discutan un
tema determinado que constituye el objeto de la investigación. La información es
recopilada, registrada y clasificada para su análisis.

93
Metodología General 2020
TANY

Los miembros del grupo son seleccionados en función de los objetivos. Comparten
ciertas características, como puede ser edad, sexo, etc.
La técnica ha tomado diferentes denominaciones; grupos focales, grupos focalizados,
grupos de discusión y motivacionales. Es una entrevista múltiple donde se
promueve la interacción entre los entrevistados, lo que se busca es la situación social
de base. Se presentan preguntas abiertas y se estimula al intercambio.
Un estudio requiere una selección adecuada de los integrantes, un moderador
entrenado, un clima de confianza y tolerancia y analistas experimentados. Se
caracteriza por ser muy pautado en su diseño y estructura a fin de garantizar la
calidad de la información y el control de tiempo, y por la baja estructuración en los
contenidos de la información que fluye libremente, pues solo son orientados a que los
integrantes no se desvíen de la propuesta.

OBJETIVOS
Se desarrolla en un escenario que permite observar todos los elementos que se ponen
en juego en la discusión grupal. Se orienta hacia una pluralidad de perspectivas
vinculadas a una temática, que surge de la interacción colectiva, donde se pone al
descubierto las motivaciones y cosmovisiones de los participantes así como los usos
frecuentes del lenguaje.
Se utilizan preguntas abiertas y análisis interpretativo de los datos que lo ubican
dentro de una perspectiva no estándar.
La principal riqueza de la técnica reside en la reformulación de significados que se
produce en una dinámica grupal, por esto, pertenecen a un tipo de investigación
interpretativa donde el sujeto de interpretación es un grupo social intencionalmente
construido.
UTILIZACIÓN
Originalmente eran utilizados en estudios de mercado. Más recientemente se usaron
en estudios académicos, como es medicina y sociología. Se utiliza en política. Es muy
útil en estudios de evaluación y en campañas publicitarias electorales.
Se puede utilizar como un método en sí mismo o en combinación con otros métodos
de investigación. Sus observaciones y conclusiones no pueden generalizarse a
poblaciones más amplias, ya que los sujetos que los integran no constituyen una
muestra estadísticamente representativa.

LA DINÁMICA DE LA SESIÓN GRUPAL


Lo necesario para poner en funcionamiento un grupo focalizado es: un espacio físico
adecuado, la presencia de los integrantes, al menos un moderador grupal y equipos
para registrar la información.

94
Metodología General 2020
TANY

Cada grupo se integrará de forma homogénea según ciertas características de sus


integrantes, lo cual los convierte en miembros de algún segmento de la población, o
sea que aquello que hagan puede ser interpretado como de ese segmento social.
Este requisito cumple dos funciones:
1) vinculado al objetivo de la técnica, en la medida de que los resultados se
consideran como expresiones correspondientes al segmento de población
seleccionado, y

2) la otra relacionada con su dinámica, ya que la similitud social facilitará el


dialogo. La información recabada no es considerada un dato individual, tampoco
como dato generalizado, sino como una expresión grupal del segmento.
El tamaño del grupo varía entre 6 y 10 personas. La selección es intencional. Un
requisito es que no se conozcan entre sí. Dura entre hora y media y dos horas, durante
las cuales el moderador deberá mantener la discusión focalizada en el tópico en
cuestión. La estimulación a la discusión es mediante preguntas abiertas, y se deberá
evitar el predominio de algunas voces.
En el focus group no es posible garantizar el anonimato ni la confidencialidad de los
datos, ya que todo es vertido sobre el mismo grupo. El escenario del grupo focal es
construido y organizado por el equipo de investigación, lo cual también es una de sus
críticas, porque la artificialidad de la situación distorsiona discursos y discusiones.
La dinámica se puede dividir en tres momentos:
1) La presentación del grupo: se explican los objetivos, reglas, uso del tiempo y
participantes
2) Planteo de las preguntas abiertas
3) Cierre

TIPOS DE FOCUS GROUP: GRUPOS CARA A CARA


Los más utilizados, los entrevistados están en el mismo espacio. Cualquier persona
puede ser invitada a participar. La presencia simultánea genera una gran cantidad de
datos que trasciende al discurso verbal, como la gestualidad y el lenguaje corporal.
Otra ventaja es que se pueden presentar muchos materiales, como puede ser
audiovisual. Sus principales desventajas residen en reclutar sujetos en un área
geográfica delimitada y que deban desplazarse hasta el lugar de reunión, incidiendo
en los costos y en la tasa de aceptación. La desgravación y transcripción demoran
pero son necesarias.
GRUPOS TELEFÓNICOS
Se permite integrar individuos que residen en lugares geográficos diferentes. Útil para
reunir personas que no asistirán a una reunión cara a cara por sus características
individuales. Tiene un menor costo, un mayor grado de anonimato, y las
transcripciones son accesibles en tiempos más cortos. La desventaja es la incapacidad
de presentar material audiovisual, aunque algunas cosas pueden ser enviadas a los
integrantes por algún medio. Para hacer estos grupos, es necesario contar con algún
tipo de tecnología que permita conferencia telefónica.

95
Metodología General 2020
TANY

GRUPOS FOCALES ONLINE


Los integrantes deben tener acceso a internet. No necesitan trasladarse. Bajo costo. Se
pueden trasmitir materiales audiovisuales. No se produce una dinámica interacción
fluida, ya que los sujetos tienden a tipear simultáneamente sus respuestas de forma
que se producen en forma paralela bajando la influencia entre los participantes. La
transcripción se produce de forma automática.

LA COORDINACIÓN
El coordinador es clave. Su rol es de promover el interés, la participación, la
interacción y el debate. Su objetivo es que el grupo funcione con autonomía, permitir
que las ideas fluyan libremente y solo intervenir como guía, manteniendo focalizado
su contenido y estimular a todos los miembros a participar.
El coordinador trabaja con una pauta de entrevista organizada en base a la lógica que
va de lo general a lo individual. Las preguntas abiertas iniciales son más generales y
permiten ubicar al grupo en la temática; luego se acerca la discusión al objeto deseado
a través de preguntas más puntuales.
El moderador no forma parte de la discusión ni plantea posiciones, sino que le genera
el clima.
La mayor dificultad radica en estimular a los participantes a profundizar en el foco de
la discusión. Puede utilizar diferentes técnicas para estimular las asociaciones, como
juego de presentación, test proyectivos y role playing.

EL REGISTRO Y ANÁLISIS DE LA INFORMACIÓN.


Generalmente en el grupo cara a cara se registra mediante audio o video, el video
permite observar el lenguaje no verbal. Posteriormente se desgraba y se transcribe
para su análisis.
Debe ser textual y sin omisiones, dejando inclusive registrados los silencios. En un
grupo de doble coordinación, uno toma nota.
Una vez des-grabada, es procesada a través de su codificación y clasificación. Una
vez organizada, se procede al análisis en dos niveles: la narración descriptiva y la
interpretación.

Lo ideal sería que el moderador, quien realiza la transcripción, y el analista, sean la


misma persona, ya que como todo análisis cualitativo, la habilidad y subjetividad del
analista influye en los resultados.

Todos los pasos del focus group deben reflejarse en el informe final. Debe contener
los objetivos y las estrategias, así como toda la información relevante de la puesta en
marcha, así como los aspectos formales: número de grupos, participantes, criterios y
procesos de selección, fechas, cantidad de moderadores, tipo de registro, etc. Es

96
Metodología General 2020
TANY

importante que aparezcan todas las opiniones y posiciones expresadas, ya que en el


informe no se puede incluir toda la información registrada.

OTRAS FORMAS DE ENTREVISTA GRUPAL


En algunas el énfasis no está puesto en la interacción grupal, sino en las respuestas
individuales de los integrantes. En este caso, es menos importante que los miembros
se conozcan, y es habitual que se apliquen a grupos que tengan una existencia previa
dentro de una institución o comunidad. Las dinámicas aquí son semejantes a la
entrevista individual.

También es posible realizar una entrevista a miembros de un grupo en forma


simultánea con un cuestionario auto administrado. Responde cada uno en forma
individual, no existe interacción. Aquí se procesa al igual que una encuesta.
Otro tipo puede ser la tormenta de ideas, con el fin de generar nuevas ideas, y es de
carácter in-estructurado y exploratorio.
El grupo terapéutico es otra forma particular orientada a la elaboración colectiva de
problemas que afectan la vida individual. Se relaciona a la búsqueda de ayuda a
través de procesos emocionales que se desatan en la interacción grupal. Es liderado
por un terapeuta, quien conforma el grupo. Los contenidos son abiertos basados en la
libera asociación.
Los denominados grupos nominales o técnica Delphi se usan para solucionar
problemas basados en opiniones de expertos. La idea es consultar a un grupo de
especialistas sobre determinado tema y circular las respuestas en ronda para lograr un
consenso. No existe interacción simultánea o presencial, pero cada uno conoce las
respuestas del resto, con lo que se puede reformular una nueva respuesta. Los
cuestionarios utilizados tienen preguntas precisas, y luego se aplican técnicas
cuantificables.

MARRADI, ARCHENTI, PIOVANI (2007)

CAPÍTULO 14
ESTUDIO DE CASO/S

¿MÉTODO O ESTRATEGIA DE INVESTIGACIÓN?


El estudio de casos (EC) se basa en un diseño de investigación orientado al
análisis de las relaciones entre muchas propiedades centradas en una sola
unidad. Trabajar con muchas variables y un caso (o muy pocos) ha dado lugar a
diversas estrategias de abordaje encaminadas a la búsqueda de múltiples fuentes de
evidencia.

Bartolino lo grafica como una fila de la matriz de datos cuando se trata de un estudio
sincrónico (un caso observado en el correr del tiempo) y lo diferencia del “estudio de
desarrollo del caso” cuando incorpora al tiempo como una dimensión de variación.

97
Metodología General 2020
TANY

Sartori considera el análisis comparativo y el estudio del caso como estrategias


complementarias.
Otros autores incluyen en sus categorizaciones del EC la posibilidad de analizar más
de un caso en forma comparada. El primero lo denomina “estudio de caso colectivo”
y el segundo se refiere a “casos múltiples”.
En algunos trabajos al EC se lo considera un método, a pesar de que resulta difícil
señalar características del EC que permitan diferenciarlo de otros métodos de
investigación, asignándole la autonomía necesaria para hablar de un método diferente.
Parece más adecuado considerar una estrategia o diseño de investigación, al cual
generalmente se hace referencia en vinculación con los métodos cualitativos o con el
método comparativo.
Consideramos adecuada la propuesta de Stake que sostiene que el EC no se trata de
una opción metodológica sino de la elección de un objeto de estudio; es el interés en
el objeto lo que lo define y no el método que se utiliza. Cualquier unidad de análisis
puede convertirse en ese objeto (el caso) el cual se puede tratar tanto de una unidad
individual como colectiva. El objeto se puede abordar desde diferentes métodos y con
diversas técnicas de recolección de datos y análisis.
El predominio de las perspectivas no estándar en los EC se basa en diversos
factores:
Tratándose de una o pocas unidades, el enfoque predominante es el análisis en
profundidad; la búsqueda no se orienta hacia el establecimiento de las regularidades
empíricas sino hacia la comprensión del caso en su unicidad
Resulta difícil realizar inferencias generalizantes
Los estudios se llevan a cabo en el escenario natural
A pesar de ser un método no estándar, no se descarta la aplicación de un método
estándar en el caso que se intente abordar una visión más macro.
En resumen, metodológicamente los EC son, generalmente, de tipo multimétodo,
dado que el objetivo es abordar un objeto de forma holística.

CUANDO HACER UN ESTUDIO DE CASO


Generalmente se diseña un estudio de caso ante un objeto particular que despierta el
interés del investigador o por la decisión de elegir un objeto de estudio típico para dar
cuenta de un fenómeno observable. En otras oportunidades, el objeto de estudio no es
una elección sino que llega al investigador ya caracterizado como tal (un caso
terapéutico).
Las siguientes son algunas situaciones que dan lugar al diseño de un EC:
a) La aparición de un fenómeno nuevo que excede a la teoría existente
b) La percepción de un caso, tradicionalmente enmarcado en algunas teorías
existentes, que presenta especificidades que ésta no alcanza a explicar.
c) A partir del interés por estudiar un fenómeno general, se selecciona un caso de
observación, por sus características paradigmáticas o ejemplificadoras. La intención
puede ser proveer una base empírica o una teoría a desarrollar un estudio critico
tendiente a su reformulación

98
Metodología General 2020
TANY

d) Las dificultades (económicas o de accesibilidad) para llevar a cabo un estudio


amplio algunas veces desembocan en la elección de uno o algunos casos como etapa
previa a futuras investigaciones más abarcativas.

ALGUNAS TIPOLOGÍAS DE ESTUDIO DE CASO


La falta de consenso sobre la caracterización metodológica de esta estrategia ha
dado lugar a la construcción de diversas tipológicas de EC desde diferentes
enfoques:

1) STAKE CLASIFICA LOS EC A PARTIR DEL PROPÓSITO


DEL INVESTIGADOR:

EC intrínsecos: el caso en sí mismo es el que despierta interés. La investigación se


orienta a una descripción densa que relate la especificidad de ese caso, relaciones y
particularidades.

EC Instrumental: el caso cumple el rol de mediación para la comprensión de un


fenómeno que lo trasciende. El propósito va más allá del caso, este es utilizado como
instrumento para evidenciar características de algún fenómeno o teoría.

EC Colectivo: investigación comparativa del estudio de varios casos.


Los tipos propuestos por Stake no son excluyentes entre ellos.

2) YIN. DOS TIPOLOGÍAS BASADAS EN DIFERENTES


CRITERIOS:

Por un lado distingue, según el número de casos seleccionados, entre el EC


único que concentra la atención en un solo caso y el EC múltiple que incluye más de
un caso en un mismo estudio.

El diseño basado en un EC único se justifica cuando se trata de un caso crítico


(utilizado para poner a prueba una teoría) de un caso extremo (muy raro o difícil de
encontrar) o de un caso revelador (fenómenos de difícil acceso).

En segundo lugar, distingue entre el EC holístico y el incrustado. Esta distinción se


basa en el número de unidades de análisis que incluye el diseño de investigación. Es

99
Metodología General 2020
TANY

holístico cuando se trabaja con una sola unidad de análisis, mientras que el incrustado
se presta atención a subunidades que permiten análisis más amplios.
El eje único/múltiple es cruzado por un lado con el eje holístico/incrustado.

Por otro lado, Yin combina el eje único/múltiple con una clasificación EC basa
en el objeto de la investigación:
• EC Exploratorio: orientado a definir preguntas e hipótesis para estudios posteriores
más amplios.

• EC descriptivos: descripción densa del caso contextualmente situado.

• EC Explicativo: se intenta establecer relaciones de asociación entre las variables


bajo estudio en el caso. Se orienta a estudios causales .

3) LIJPHART CONSIDERA QUE LA DISCUSIÓN DEL MÉTODO


COMPARATIVO NO ESTÁ COMPLETA SI NO SE TOMA EN
CONSIDERACIÓN EL MÉTODO DE EC: DIFERENCIA A LOS
MÉTODOS SOBRE LA BASE DEL NÚMERO DE CASOS:

Caracteriza el método estadístico por basarse en muchos casos,


El comparativo por aplicarse a pocos casos y
El EC por aplicarse a solo uno. Afirma que no es posible inferir una generalización
ni refutar una generalización establecida. Le reconoce el mérito de contribuir al
proceso de formulación de proposiciones y construcción de teorías a partir de los
resultados de un análisis intenso del objeto.
ENUNCIA 6 TIPOS DE EC:
• EC Ateórico: investigación totalmente descriptiva que resulta útil como fuente
exploratoria de información.

• EC Interpretativo: el in teres sigue puesto en el caso más que en una teoría general,
pero a diferencia de los anteriores utilizan proposiciones de la teoría establecida de
forma explícita. Se orientan a iluminar la comprensión de un caso.

100
Metodología General 2020
TANY

• EC Generadores de hipótesis: intentan comprobar hipótesis iniciales cagas y


desarrollar generalizaciones teóricas. Alto valor teórico.

• EC que confirman una teoría: ponen a prueba proposiciones e hipótesis

• EC que debilitan una teoría

• EC desviados: con la intención de comprender o explicar casos que se desvían de


teorías generales.
Según Lijphart, los generadores y los desviados son los que más contribuyen a la
construcción de teoría.

4) SATORI RETOMA LAS CATEGORÍAS DEL AUTOR ANTERIOR


PERO TOMA EN CUENTA SOLO AQUELLAS QUE SE
VINCULAN A LA TEORÍA Y LAS DENOMINA ESTUDIO DE
CASO HEURÍSTICO, CRUCIAL Y DESVIADO:

EC heurístico: útil para la generación de hipótesis


EC heurístico: útil para la generación de hipótesis
EC Crucial: fortalecen o debilitan una teoría
EC Desviado: son los que se desvían de una proposición general o teoría
establecida.

5) BENT FLYVBJERG FORMULA UNA TIPOLOGÍA DE


CUATRO TIPOS DE EC QUE NO CONSIDERA EXCLUYENTES
ENTRE SÍ:

EC extremo o desviado: a los casos inusuales dentro de una teoría


La máxima variación de casos: diseño de casos múltiples seleccionados por sus
disimilitudes.
EC crítico: permiten inferir conclusiones para el tipo en su conjunto. Está
vinculado a la presencia de todas las propiedades que se intentan estudiar, afirmando
algo para un caso es válido para todos los casos.
EC paradigmático: son casos que resaltan características más generales de la
sociedad.

La mayoría de las categorías presentadas podrían reducirse a cuatro tipos básicos


definidos a partir de dos ejes:
a) El número de casos de estudio, y

101
Metodología General 2020
TANY

b) la intervención prevaleciente en la selección de casos.


Los autores han prestado mayor atención a la categorización de los estudios de caso
único vinculados con la construcción de teoría. Para los comparativistas, los estudios
basados en más de un caso se enmarcan en un método comparativo y no en el
denominado EC.
Por otro lado, se otorga mayor valor a los EC con valor heurístico, ya que proveen
soporte empírico, elementos conceptuales y núcleos de sentido para la comprensión de
fenómenos que los trasciende.

La función de EC en tanto control de una teoría, no están, exentos, de debate. Se


destaca la tensión entre investigaciones basadas en muchos casos y pocas variables
(método estadístico) e investigaciones orientadas a analizar pocos casos en toda su
complejidad.
LA SELECCIÓN DE CASOS
Cuando el caso no viene definido desde fuera de la investigación, o cuando no se trata
de un caso intrínseco, surge el problema de su selección.
En primer lugar es necesario definir la unidad de análisis (individuos, ciudades, etc.),
para luego seleccionar dentro del conjunto de unidades de análisis del caso. La
selección de la unidad de análisis está condicionado por la perspectiva teórica y los
objetivos de la investigación, y una vez que esta ha sido determinada, ella condiciona
la estrategia de la recolección de datos.
La selección del caso nunca se realiza por azar como en los métodos estadísticos,
porque se parte de la no equivalencia entre los casos, que se destaca a través de la
propuesta orientada a la comprensión de la especificidad de cada caso. El proceso de
selección está basado en criterios teóricos, experiencias de observación y
expectativas.
La importancia de definir los limites (acotar) está en definir que se desea incluir en la
investigación y que queda por fuera.
Stake enuncia dos criterios de selección: maximizar lo que potencialmente podemos
aprender del caso y su mayor accesibilidad.
Es importante destacar que el proceso de selección y sus criterios no se agotan en la
identificación del caso, el investigador también debe establecer los niveles
intermedios de análisis, es decir, hasta donde se abordarán las complejidades del caso.
Uno de los riesgos es la selección desviada, en particular, cuando se trata de estudios
para confirmar o debilitar generalizaciones, esto es culpa de la selección no azarosa y
la participación de la subjetividad del seleccionador. Es importante hacer explícitos
los criterios de selección y su relación con la teoría para evitar esto.

MARRADI, ARCHENTI, PIOVANI (2007)

CAPITULO 15
Preguntarle al profe. Error en biografia

102
Metodología General 2020
TANY

HERNANDEZ SAMPIERI (2014)

CAPITULO 15
DISEÑOS DEL PROCESO DE INVESTIGACIÓN
CUALITATIVA
En el enfoque cualitativo, el diseño se refiere al “abordaje” en general que habremos
de utilizar en el proceso de investigación.
El diseño, al igual que la muestra, la recolección de los datos y el análisis, surge desde
el planteamiento del problema hasta la inmersión inicial y el trabajo de campo; desde
luego, va sufriendo modificaciones, aun cuando es más bien una forma de enfocar el
fenómeno de interés.
Los principales tipos de diseños cualitativos son:
a) teoría fundamentada, b) diseños etnográficos, c) diseños narrativos y
d) diseños de investigación acción, además de los diseños fenomenológicos.

El planteamiento básico del diseño de teoría fundamentada es que las proposiciones


teóricas surgen de los datos obtenidos en la investigación, más que de los estudios
previos.

Se han concebido fundamentalmente dos diseños de teoría fundamentada:


a) sistemáticoy b) emergente.
El procedimiento regular del análisis de teoría fundamentada es: codificación abierta,
codificación axial, codificación selectiva, generación de teoría.
Los diseños etnográficos pretenden describir y analizar ideas, creencias, significados,
conocimientos y prácticas de grupos, culturas y comunidades.
Existen varias clasificaciones de los diseños etnográficos. Creswell (2005) los
divide en:
• realistas,
• críticos,
• clásicos,
• microetnográficos y
• estudios de caso.En los diseños etnográficos el investigador, por lo general, es
completamente un observador participante.
Los diseños etnográficos investigan grupos o comunidades que comparten una
cultura:
• el investigador selecciona el lugar,
• detecta a los participantes y,
• por último, recolecta y analiza los datos.
En los diseños narrativos el investigador recolecta datos sobre las historias de vida y
experiencias de ciertas personas para describirlas y analizarlas.

103
Metodología General 2020
TANY

Los diseños narrativos pueden referirse:


a) toda la historia de vida de un individuo o grupo,
b) un pasaje o época de dicha historia de vida o
c) uno o varios episodios.
Mertens (2005) divide a los estudios narrativos en:
a) de tópicos (enfocados en una temática, suceso o fenómeno),
b) biográficos (de una persona, grupo o comunidad; sin incluir la narración de los
participantes “en vivo”, ya sea porque fallecieron, porque no recuerdan a causa de su
edad o enfermedad, o son inaccesibles,
c) autobiográfi cos (de una persona, grupo o comunidad incluyendo testimonios orales
“en vivo” de los actores participantes).
Existen dos esquemas principales para que el investigador narre una historia:
a) estructura problema-solución, y b) estructura tridimensional.

La finalidad de la investigación-acción es resolver problemas cotidianos e inmediatos y


mejorar prácticas concretas. Se centra en aportar información que guíe la toma de
decisiones para programas, procesos y reformas estructurales.
Tres perspectivas destacan en la investigación acción:
• la visión tecnico-científica,
• la visión deliberativa y
• la visión emancipadora.
Creswell (2005) considera dos diseños fundamentales de la investigación-acción:
práctico y participativo.
El diseño participativo implica que las personas interesadas en resolver el problema
ayudan a desarrollar todo el proceso de la investigación: de la idea a la presentación de
resultados.
Las etapas o ciclos para efectuar una investigación-acción son:
• detectar el problema de investigación,
• formular un plan o programa para resolver el problema o introducir el cambio,
• implementar el plan y
• evaluar resultados,
• además de generar retroalimentación, la cual conduce a un nuevo diagnóstico y
a una nueva espiral de reflexión y acción.

MÓDULO 4
FUNDAMENTOS
PARA LAS METODOLOGIAS MIXTAS

FERNANDO CORTÉS (2008)

104
Metodología General 2020
TANY

ALGUNOS ASPECTOS DE LA CONTROVERSIA


ENTRE LAS INVESTIGACIONES
CUALITATIVA Y CUANTITATIVA

CAPÍTULO 1
MÉTODO CIENTÍFICO Y POLÍTICA SOCIAL.
A PROPÓSITO DE LAS EVALUACIONES CUALITATIVAS
DE PROGRAMAS SOCIALES.
SÍNTESIS
• TEMA
La controversia entre la investigación cualitativa y la investigación cuantitativa. O la
“guerra de paradigmas” entre el empirismo lógico y el
constructivismo naturalista.
Los cuestionamientos a las investigaciones cualitativas .
• PROPÓSITO
Desbrozar el campo de la discusión entre ambos tipos de investigación.

• CONCLUSIÓN
“Mucho me temo que la discusión esté enfrentando al positivismo lógico y no al
actual post positivismo, y si éste fuera el caso estaría luchando contra molinos de
viento” (p.39)

PUNTO DE PARTIDA
“La controversia sobre la investigación cualitativa y la cuantitativa en las
ciencias sociales abarca varios dominios. Se entremezclan discusiones
cuyas bases se asientan en los fundamentos filosóficos en que enraízan
las teorías (ontología), en las teorías acerca de la relación de
conocimiento (epistemología), en el papel de los valores en la
producción del conocimiento (axiología), y en las disputas sobre la
causalidad frente a la interpretación; con temas propiamente
metodológicos como la objetividad, la generalización o la medición…”
(p.27)
EXPOSICIÓN Y CRÍTICA
Positivismo Constructivismo Post positivismo
lógico naturalizmo

105
Metodología General 2020
TANY

Ontología Supone que hay Las realidades La realidad es


una realidad son múltiples y construida
construidas

Epistemología El sujeto y el El sujeto y el El objeto es


objeto son objeto son construido a
independientes independientes e partir de una
inseparables hipótesis o teoría

Axiología La investigación La investigación -


es libre de esta orientada
valores por valores

Generalización Es posible No es posible -


generalizar para generalizar para
cualquier espacio todo tiempo y
y tiempo lugar

Causalidad Hay causas Es imposible -


reales que son distiguir entre
temporalmente causas y efectos
precedentes o
son simultáneas
a los efectos

Lógica Se enfatizan los Se enfatizan los -


argumentos que argumentos que
van de los van de lo
general a lo particular a lo
particular, o las general o un
hipótesis a priori énfasis en las
teorías
“aterrizadas”

*Estas casillas estan en blanco porque Tashakkori y Teddlie no hacen mención


explícita a las posiciones que mantendría el postpositivismo respecto a los valores,
la generalización, la causalidad y el papel de la lógica.
REFORMULACIÓN (DE LOS TÉRMINOS DEL DEBATE)
• “El desarrollo del empirismo lógico y su trasmutación en el paradigma post
positivista fue borrando paulatinamente las fronteras con el paradigma constructivista
naturalista” (p.57).
• “… en la actualidad los contendientes de la discusión sobre los paradigmas deben ser
las posiciones del constructivismo y del post positivismo; no tiene sentido una
confrontación con el empirismo lógico, postura ya superada” (p.37).
• Ejemplos : los debates en torno a la causalidad (la imposibilidad para poder fundar
empíricamente el concepto) y la observación (el hombre ve lo que sabe, no sabe lo
que ve).
CONVERGENCIAS

106
Metodología General 2020
TANY

CONSTRUCTIVISMO POST
POSITIVISMO

Ontología Recortan teóricamente sus objetos de


investigación, a partir de los cuales puede
generarse una diversidad de objetos.

Epistemología Plantean la interrelación entre sujeto y


objeto, siendo imposible separar la parte
que pone el sujeto y la que pone el objeto.

Axiología Habiendo varias teorías compatibles, la


adopción de una u otra dependerá también
de los valores

Generalización No es posible generalizar para todo tiempo


y lugar (ver diapositivas 9 a 11)

Causalidad Como atribución o imputación de sentido.

Lógica El proceso de investigación implica un


movimiento continuo y ascendente entre
hipótesis y material empírico (movimiento
helicoidal).

OTRAS CONVERGENCIAS ENTRE PARADIGMAS


De la reformulación anterior se deriva también:
• OBJETIVIDAD
Se pasa a la idea de objetividad como “contrastación intersubjetiva” (Popper),
próxima a la de “sujeto descentrado” (Piaget).
• CONTRASTACIÓN
En la contrastación entre hipótesis y datos empíricos, uno u otro tiene que ser
desechado, pero no forzosamente la hipótesis.

CUESTIONES METODOLÓGICAS 1
MEDICIÓN
• Cuestionamiento a las investigaciones cualitativas: no podrían medir (poner a
objetos o a sus atributos en correspondencia con un lenguaje formal). Problema de
confiabilidad y validez de los datos.

• Planteo del autor: “… independientemente del tipo de concepto involucrado en la


hipótesis de trabajo como respuesta provisional a la pregunta de investigación) y del
instrumento de recopilación de información, se termina con una matriz de datos

107
Metodología General 2020
TANY

que contiene números que o son códigos o bien representan la magnitud de las
unidades de observación” (p.47)

CUESTIONES METODOLÓGICAS 2
GENERALIZACIÓN
• Cuestionamiento a la investigación cualitativa: se critican sus resultados porque no se
podrían generalizar. Una crítica que, incluso, aceptan los propios representantes de la
investigación cualitativa.

• Según esta crítica, la muestra no aleatoria (intencional) conduciría a sesgos y su


tamaño reducido a imprecisiones.

• Planteo del autor: esta crítica “no es científicamente correcta” porque “proviene de
una manera específica de generalizar los resultados íntimamente asociada a la
investigación cuantitativa.” (Cap 2, p.59): la teoría del muestreo estadístico.

• “…la misma estadística advierte que con n pequeños las muestras intencionales
tenderían a producir menores sesgos que las aleatorias” (idem, p.94).

• Por otra parte, “los errores estadísticos de muestreo no tienen cabida


si la muestra no es de azar, y también porque la investigación cualitativa rara vez
intenta … estimar parámetros poblacionales, lo que es… el problema central que
aborda el muestreo estadístico” (idem, p.94-95).

Finalmente, el autor identifica en el capítulo 2 “una serie de reglas que conducen a


producir investigaciones y evaluaciones cualitativas ajustadas a los cánones de la
ciencia” (p.95)

• Seleccione los casos de las muestras intencionales por las variables independientes.

• Repita el estudio tantas veces como se pueda…

• Maximice la variedad de las observaciones y de los contextos…

• Genere a partir de las proposiciones teóricas un número manejable de enunciados


empíricos cuyo contraste aumentará la verosimilitud de la validez interna.

• Derive consecuencias de las relaciones validadas a los contextos en que se efectuarán


las réplicas y sométalas a contraste (p.95-96)

108
Metodología General 2020
TANY

CONCLUSIÓN
“Lo único que interesa destacar es que hay una relación estrecha entre la pregunta de
investigación y la elección de la situación que se debe observar. En otros términos, el
diseño que se considere apropiado para responder la pregunta de investigación guiará
la información que será recabada, ya sea mediante la observación, la entrevista, la
grabación de discursos u otros medios (p.54)”

HERNÁNDEZ SAMPIERI (2014)


METODOLOGÍA DE LA INVESTIGACIÓN

CAPÍTULO 17
LOS MÉTODOS MIXTOS
O HÍBRIDOS
Han tenido un crecimiento vertiginoso en la última década.
Los métodos mixtos representan un conjunto de procesos sistemáticos, empíricos y
críticos de investigación e implican la recolección y análisis de datos cuantitativos y
cualitativos, así como su integración y discusión conjunta, para realizar inferencias
producto de toda la información recabada (metainferencias) y lograr un mayor
entendimiento del fenómeno bajo estudio.
Los métodos mixtos representan una vía adicional a los enfoques cuantitativo y
cualitativo de la investigación.

EN EL SIGLO XX SE DIO UNA CONTROVERSIA ENTRE DOS


ENFOQUES PARA LA INVESTIGACIÓN:

• el cuantitativo y
• el cualitativo.
Los defensores de cada uno argumentan que el suyo es el más apropiado y fructífero
para la investigación.
La realidad es que estos dos enfoques son formas que han demostrado ser muy útiles
para el desarrollo del conocimiento científico y ninguno es intrínsecamente mejor que
el otro.
Los métodos mixtos han terminado con la “guerra de los paradigmas”.
La investigación mixta se utiliza y ha avanzado debido a que los fenómenos y
problemas que enfrentan actualmente las ciencias son tan complejos y diversos que el
uso de un enfoque único, tanto cuantitativo como cualitativo, es insuficiente para
lidiar con esta complejidad.

El enfoque mixto —entre otros aspectos— logra una perspectiva más amplia y
profunda del fenómeno, ayuda a formular el planteamiento del problema con mayor

109
Metodología General 2020
TANY

claridad, produce datos más “ricos” y variados, potencia la creatividad teórica, apoya
con mayor solidez las inferencias científicas, y permite una mejor “exploración y
explotación” de los datos.

LAS PRETENSIONES MÁS DESTACADAS DE LA


INVESTIGACIÓN MIXTA SON:

• triangulación, • iniciación,
• expansión,
• complementacion,
• visión holística, • compensación y

• desarrollo, • diversidad.

El sustento filosófico de los métodos mixtos es el pragmatismo, cuya visión es


convocar a varios “modelos mentales” en el mismo espacio de búsqueda para fines de
un diálogo respetuoso y que los enfoques se nutran entre sí, además de que
colectivamente se genere un mejor sentido de comprensión del fenómeno estudiado.

El pragmatismo es ecléctico (reúne diferentes estilos, opiniones y puntos de vista),


incluye múltiples técnicas cuantitativas y cualitativas en un solo “portafolios” y
selecciona combinaciones de asunciones, métodos y diseños que “encajan” mejor con
el planteamiento del problema de interés.
Realmente no hay un proceso mixto, sino que en un estudio híbrido concurren
diversos procesos.
Un estudio mixto sólido comienza con un planteamiento del problema contundente y
demanda claramente el uso e integración de los enfoques cuantitativo y cualitativo.
En la mayoría de los estudios mixtos se realiza una revisión exhaustiva y completa
de la literatura pertinente para el planteamiento del problema, de la misma forma
como se hace con investigaciones cuantitativas y cualitativas.
Cada estudio mixto implica un trabajo único y un diseño propio, sin embargo,
podemos identificar modelos generales de diseños que combinan los métodos
cuantitativo y cualitativo.

PARA ESCOGER EL DISEÑO MIXTO APROPIADO, EL


INVESTIGADOR TOMA EN CUENTA:

• prioridad de cada tipo de datos (igual o distinta),


• secuencia o tiempos de los métodos (concurrente o secuencial),

110
Metodología General 2020
TANY

• propósito esencial de la integración de los datos y


• etapas del proceso investigativo en las cuales se integrarán los enfoques.

LOS DISEÑOS MIXTOS ESPECÍFICOS MÁS COMUNES SON:


• diseño exploratorio secuencial (DEXPLOS),
• diseño explicativo secuencial (DEXPLIS),
• diseño transformativo secuencial (DITRAS),
• diseño de triangulación concurrente (DITRIAC),
• diseño anidado o incrustado concurrente de modelo dominante (DIAC),
• diseño anidado concurrente de varios niveles (DIACNIV),
• diseño transformativo concurrente (DISTRAC) y
• diseño de integración múltiple (DIM).
Los métodos mixtos utilizan estrategias de muestreo que combinan muestras
probabilísticas y muestras propositivas (CUAN y CUAL).

LOS PRINCIPALES AUTORES SOBRE INVESTIGACIÓN


MIXTA HAN IDENTIFICADO CUATRO ESTRATEGIAS DE
MUESTREO MIXTO ESENCIALES:

• muestreo básico,
• muestreo secuencial,
• muestreo concurrente y
• muestreo por multiniveles.

Gracias al desarrollo de los métodos mixtos y ahora la posibilidad de hacer


compatibles los programas de análisis cuantitativo y cualitativo (por ejemplo, SPSS y
Atlas.ti), muchos de los datos recolectados por los instrumentos más comunes pueden
ser codificados como números y también analizados como texto.

Para analizar los datos, en los métodos mixtos el investigador confía en los
procedimientos estandarizados cuantitativos (estadística descriptiva e inferencial) y
cualitativos (codificación y evaluación temática), además de análisis combinados.

El análisis de los datos en los métodos mixtos se relaciona con el tipo de diseño y
estrategia elegidos para los procedimientos.

111
Metodología General 2020
TANY

Una vez que se obtienen los resultados de los análisis cuantitativos, cualitativos y
mixtos, los investigadores y/o investigadoras proceden a efectuar las inferencias,
comentarios y conclusiones en la discusión.

NORMALMENTE SE TIENEN TRES TIPOS DE INFERENCIA


EN LA DISCUSIÓN DE UN REPORTE DE INVESTIGACIÓN
MIXTA:

• las propiamente cuantitativas,


• las cualitativas y
• las mixtas, a estas últimas se les denomina metainferencias.

IGNASIO PARDO (2011)


INNOVACIONES EN DISEÑOS DE INVESTIGACION Y
CRITERIOS “BILINGUES” DE VALIDEZ

1) EL PUNTO DE PARTIDA DE LAS PRINCIPALES


INNOVACIONES METODOLÓGICAS

En el cambio de siglo se fueron desarrollando clasificaciones, de forma de ordenar la


experiencia concreta de los investigadores en mc.
¿Para qué combinar métodos? Mason (2006b) identificó seis estrategias del para
qué usar MC, que se comentan a continuación:

1) Para tener información de contexto (desde lo cualitativo agregar descripciones


cuantitativas), o enfocar algún aspecto específico (desde lo cuantitativo ilustrar
cualitativamente, con algún “ejemplo” o caso particular, como suele hacerse en los
informes de ciertos organismos). En esta lógica la combinación funciona casi como
un plus retórico, que no modifica la lógica de investigación.

112
Metodología General 2020
TANY

2) Para contestar preguntas distintas (lo cuantitativo para “preguntas cuantitativas”,


sobre magnitudes y asociación entre ellas; lo cualitativo para ir hacia los
significados). significados). La lógica de combinación es así paralela, con más
presencia conjunta que integración de métodos, por lo que no es muy arriesgada como
estrategia; los beneficios son asimismo limitados.

3) Para contestar preguntas acerca de diferentes porciones conectadas de una


totalidad mayor. La lógica, es de integración; es necesario explicitar a qué niveles y
cuál es el modelo con respecto al cual se integran ambas partes.

4) Para lograr una medición más precisa a través de la triangulación. En términos


lógicos, buscar la corroboración.

5) Para contestar preguntas distintas pero que se interceptan. La lógica es aquí


multidimensional y provoca una tensión creativa entre lo cuantitativo y lo
cualitativo; el fin último es dar cuenta de una complejidad social donde hay
causalidad y regularidades expresadas en realidades mensurables y que tiene lugar, al
mismo tiempo, en contextos y desde perspectivas locales, con significados y
racionalidades situadas.

6) Para aprovechar circunstancias de forma oportunista. Sin lógica explícita, sino el


mero accidente de una oportunidad de recoger datos, o acceder a datos secundarios,
que “convierten” la investigación en una de mc, aunque casi por el absurdo.

EL PUNTAPIÉ INICIAL PARA LA SISTEMATIZACIÓN ACTUAL


DE LOS MC, PROVIENE DE GREENE, CARACELLI Y GRAHAM
(1989). CINCO PROPÓSITOS PARA LA COMBINACIÓN:

• Triangulación (para corroborar resultados o ver cómo confluyen dos abordajes


distintos en un mismo tema, minimizando sus respectivos sesgos).

• Complementariedad (para elaborar mejor o clarificar un tema a través de


perspectivas diversas, que aprehendan mejor su complejidad).

• Desarrollo (para favorecer la puesta a punto de técnicas, mediciones o muestras de


un abordaje, usando los resultados del otro; como los grupos de discusión que
preceden al refinamiento de las escalas Likert).

• Iniciación (para descubrir paradojas o aspectos conflictivos y poder abrir paso, a


nuevas preguntas).

• Expansión (para ampliar el abanico de dimensiones que incluimos en nuestros


objetivos de investigación).

113
Metodología General 2020
TANY

2) ALGUNOS DISEÑOS DE INVESTIGACIÓN QUE SACAN


PROVECHO DE LA COMBINACIÓN DE MÉTODOS

La combinación de los datos debe entonces estar informada por el compromiso


sustantivo y teórico con el problema en cuestión” (Irwin, 2006: 3).
Para eso, el diseño se deberá orientar a la combinación de tipos de evidencia
específicos, que son los que por un lado reflejan una realidad fáctica estructurada por
hechos sociales externos cuyo tratamiento estadístico cuantitativo genera datos [y por
otro los que refieren a] una realidad simbólica estructurada por significaciones y
símbolos que formaría eso que E. LACLAU Y CH. MOUFFE han llamado campo de
la discursividad y cuyo tratamiento es fundamentalmente comunicativo, lingüístico
y semiológico. (Alonso, 1998: 158).
Puede haber una fase cuantitativa y otra cualitativa de la investigación, la
potencialidad de los MC reside en que confluyan para que la validez de las
conclusiones sea reforzada por algún tipo de sinergia entre ambas perspectivas.
Hay algunos diseños “evidentes” y sencillos para trabajar desde el post-positivismo o
interpretacionismo, pues se han usado extensamente. Nada impide que se conviertan
en fases de un estudio con MC.

BELTRÁN (1986): La elección metodológica debe someterse a la definición de los


objetivos del estudio.

Decisiones de diseño, según el rastreo bibliográfico presentado por, HALL Y


HOWARD (2008):
a) decisiones de ponderación (qué peso tendrá un enfoque u otro) y eventualmente
de prioridad;
b) decisiones acerca de en qué niveles o etapas tendrá lugar la combinación de
perspectivas;
c) decisiones acerca de la secuencia en que se dará la combinación.

EN TEDDLIE Y TASHAKKORI (2009) se conciben 6 criterios como


diferenciadores a la hora de enumerar tipos de diseño:

a) el número de fases del estudio,


b) las formas de implementación de la parte cuali y cuantitativa,
c) la etapa en que se integran,
d) el énfasis o predominio de alguno de ellos,
e) las funciones del estudio y
f) la perspectiva teórica o ideológica. En esa misma línea, se distinguieron cinco
“familias” de diseños:

114
Metodología General 2020
TANY

• Simultáneos.
• Secuenciales.
• De conversión (un tipo de datos se convierte al “otro paradigma” para ser trabajado
desde una lógica de análisis diferente, cuantitativizando o cualitativizando la
información).
• Multinivel (integración y combinación de perspectivas en varios niveles de análisis).
• De integración total (combinación interactiva en todas las etapas de la investigación,
con muchas posibilidades de implementación, donde un abordaje afecta la
formulación del otro).

GREENE (2008) quiso sistematizar las decisiones de diseño en MC en dos grupos:


• las primarias, (independencia/interacción entre paradigmas; paridad/ predominio de
alguno de ellos; secuencialidad/simultaneidad) y

• las secundarias, (intencionalidad transformativa; cantidad de estudios involucrados;


cantidad de frases; formas de compensar los sesgos).

Por otro lado, el campo de MC avanza rápidamente en este momento, por lo que
además de estar al día con el estado del arte se debe lidiar con las incertidumbres
ineludibles de un campo en construcción. Además, “tomar decisiones acerca de cómo
secuenciar y combinar métodos dependerá de la naturaleza de la investigación que se
esté llevando adelante y es un asunto de juicio, experiencia... y ¡suerte!” (SPRATT,
WALKER Y ROBINSON, 2004)

3) VARIANTES DEL DISEÑO MUESTRAL COMBINADO


En comparación con las discusiones y tipologías en torno al diseño, existe un poco
menos de acumulación acerca de las formas de generar diseños muestrales novedosos
y útiles.
En términos tradicionales y de “guerra de paradigmas”, el muestreo probabilístico
ha sido el adecuado para responder las preguntas desde la mirada cuantitativa, la
generalización descansa en la representatividad estadística de la muestra con respecto
a la población, vía estadística inferencial; así como el intencionado, lo ha sido para
la cualitativa, las unidades muestrales no se seleccionan según criterios
probabilísticos sino que se eligen deliberadamente por la información clave que
pueden brindar y por su variabilidad; para la generalización de resultados no se
cuenta con formas de estimar los errores de inferencia.

Abriendo las oportunidades a todos los tipos de muestreo, sean desde lo cuanti o
cualitativo, podemos encontrar decenas de posibilidades.
Pero ¿de qué diseños muestrales han echado mano las investigaciones con mc?
En principio, un estudio con mc tendrá probablemente múltiples muestras, de distinto
tamaño y naturaleza. Y de acuerdo a nuestra pregunta de investigación queremos
representatividad estadística y/o información rica, densa y contextual.

115
Metodología General 2020
TANY

TEDDLIE Y YU (2007) y luego TEDDLIE Y TASHAKKORI (2009)


tipologizaron los diseños muestrales de MC en cinco categorías:
1) Muestreo básico de MC.
2) Muestreo secuencial de MC.
3) Muestreo simultáneo, concurrente o paralelo de MC.
4) Muestreo multinivel de MC.
5) Combinación de estrategias de muestreo combinado.

Un ejemplo del primer caso es el muestreo por cuotas, que resulta intrínsecamente
combinado. Con respecto al muestreo secuencial de MC, por otra parte, hay variedad
de ejemplos que ilustran su potencial:
Se trata de iluminar el muestreo de la fase cualitativa a partir de los resultados de la
cuantitativa, o viceversa, cuando tomamos casos extremos del puntaje en un cierto
test cuantitativo, por ejemplo, para realizar entrevistas en profundidad a la búsqueda
de significados subjetivos.
En el muestreo simultáneo, menos habitual, se utiliza información que proveyó el
análisis derivado de una de las muestras para diseñar la otra.
Finalmente, hacer una muestra multinivel es uno de los procedimientos más
interesantes, usado sobre todo en sociología educativa u otro terreno donde haya
unidades de análisis que a su vez contienen unidades de otro nivel jerárquico.

El diseño muestral deberá para eso contemplar las vertientes cuanti y cualitativas de
la pregunta de investigación, o las diferentes preguntas de investigación, si las
hubiere.
En cuanto al tamaño muestral, existen recomendaciones, a menudo provistas de
alguna cuota de arbitrariedad, en torno a tamaños mínimos para el uso de una u otra
técnica de análisis.
Para las muestras dentro de lo cuantitativo, puede haber umbrales mínimos,
marcados por los procedimientos estadísticos, según el número de variables que se
quiera usar y el análisis que se lleve a cabo.
En la lógica cualitativa, no tiene sentido tomar un tamaño muestral tan chico que no
permita alcanzar el punto de saturación, allí donde el investigador interprete que
obtener más información sólo sería redundante.
Este nuevo panorama de opciones hace necesaria la observación de dos reflexiones
centrales a cualquier investigación:
1) la inexcusable reflexión sobre la validez de nuestros resultados y

2) la discusión menos frecuente, pero de creciente importancia ante las investigaciones


de MC, en torno a los pasos a seguir cuando nos encontramos con conclusiones
conflictivas entre sí.

116
Metodología General 2020
TANY

El primer punto, comenzando por el recorrido y destino de las reflexiones sobre la


validez en los abordajes cuanti y cualitativo, necesariamente desafiados en la
actualidad por la transformación que aquí estamos observando:
• ya no los separa una barrera sino una membrana permeable móvil, que admite el
trabajo conjunto en el marco de mc con las opciones de diseño y muestreo que se
comentaron.

4) SOBRE LOS PROBLEMAS DE VALIDEZ

4.1 DEBATES PARALELOS


La discusión acerca de las amenazas a la validez y de cómo conjurarlas es
consustancial a cualquier práctica de investigación en la sociología y las ciencias
sociales.
La discusión sobre la validez está más que nada vinculada a la tradición cuantitativa
y surgida al calor del diseño experimental:
Allí se trata de conocer hasta qué punto es apropiado inferir una relación causal, en
ese ámbito controlado de manipulación de variables. En tal tradición, se comenzó a
conceptualizar la validez de constructo para luego construir la idea de validez sobre
tres tipos:
• de constructo (el grado en que el indicador usado para recoger información sobre un
concepto está realmente midiendo ese concepto), de contenido (el grado en que la
medición u observación da cuenta de todas las dimensiones del concepto que pretende
observar) y

• de criterio (el grado en que nuestra medición se acerca a un estándar externo, sea
concurrente o futuro, en tal caso se hablará de validez predictiva).

En las ciencias sociales, el eje suele centrarse:


Por un lado, en la validez de constructo; allí se relacionan nuestras pretensiones
teóricas con las posibilidades de observación empírica.

Por otro, se trata de atender al concepto de validez relacionada con el diseño:


En ese sentido, se habla de validez interna, como la capacidad de descartar las
posibles explicaciones alternativas y alcanzar coherencia en la explicación propia.

En tercer lugar, se suele evaluar la capacidad de generalizar los resultados en


términos de validez externa.
Otra forma de recoger estas mismas evaluaciones sobre la validez general de una
investigación se presenta en GLINER Y MORGAN (2000: 377), distinguiendo
entre:
1) validez en la medición,

117
Metodología General 2020
TANY

2) en el diseño y
3) de la inferencia estadística.
Aunque la elaboración de tipos de amenazas a la validez, como las clásicas de
CAMPBELL Y STANLEY (1963): hayan surgido, con base en lo cuantitativo y
experimental, en el otro “mundo”, cualitativo, el propio debate sobre la validez
resulta consustancial a la legitimidad de esta perspectiva.
Las posiciones van desde:
1) las más extremas en su especifismo, que proclaman la inconveniencia de atenerse
a un criterio cargado de la tradición cuantitativista, pasando por
2) las intermedias, que dan otra forma a la palabra validez manteniendo el concepto,
hasta las que
3) se adaptan a los criterios dominantes y finalmente
4) las de quienes intentan pensar en criterios comunes para lo cuali y cuantitativo,
negociando las cuestiones terminológicas, siempre más polémicas de lo deseable
cuando se trata del diálogo entre investigadores de los distintos “mundos”. Por
ejemplo, autores como MILES Y HUBERMAN (1984).

La discusión sobre la idea de validez, más establecida en el abordaje cuantitativo y


más contestado, en el cualitativo, pero en fin plagada de desafíos comunes, nos lleva
hacia nuestro interés central:
• la construcción de una idea de validez que atienda las prácticas de investigación
actuales, incluyendo especialmente la investigación combinada.

4.2 LA VALIDEZ ANTE LOS DISEÑOS COMBINADOS


Más allá de distintos procedimientos o distintos a prioris y puntos de partida, no hay
en ningún caso una llegada “directa” a la experiencia humana misma, por más
flexible o riguroso que se sea, sino una construcción conceptual que reduce
complejidad. Y que es previa a la observación, aun cuando ésta (especialmente desde
lo cualitativo) la modifique sustancialmente.
DELLINGER Y LEECH (2007: 324-325) Las autoras aciertan al pensar la validez
como un criterio integral de adecuación a la pregunta de investigación que
encaramos; desde una postura pragmática pero abierta a todo el rango de problemas
que pueden amenazar una investigación.

La propuesta de TASHAKKORI Y TEDDLIE (2003):


Generar una nomenclatura propia de la investigación en MC, “bilingüe”, como
comienzo del largo camino de asociar a esa nomenclatura las soluciones nuevas a los
viejos problemas de validez.
En principio, tales autores asocian la validez, o la calidad de la inferencia, a las
dimensiones de:

118
Metodología General 2020
TANY

a) calidad de diseño (idoneidad, adecuación, consistencia interna y adecuación


analítica) y
b) rigor interpretativo (consistencia interpretativa y teórica, acuerdo interpretativo,
especificidad interpretativa e integración eficaz).
Para la llamada generalización, el término elegido es transferibilidad de las
inferencias. En cualquier caso, si es posible este lenguaje “bilingüe” es por lo que se
dijo más arriba:
Los problemas de validez no resultan radicalmente distintos desde lo cuali y lo
cuantitativo, más allá de matices y diferencias terminológicas y de énfasis distintos en
la consistencia y la generalización.
En síntesis, las inferencias de calidad podrían ser evaluadas, resumiendo de otro
modo la misma propuesta, según:
a) La consistencia interna del diseño,
b) La consistencia conceptual,
c) El acuerdo interpretativo que despierten y.
d) La distinción de las interpretaciones de otras interpretaciones diferentes: la forma
en que se descartaron las explicaciones competidoras (TASHAKKORI Y
TEDDLIE, 2003).

Dado que el “bilingüismo” es la solución que aquí se propone, terminemos repasando


otra propuesta que intenta reunir en términos comunes los lenguajes cuanti y
cualitativo (SALE Y BRAZIL, 2004; CITADOS EN BRYMAN, 2005):
• Valor de verdad = validez interna + credibilidad
• Aplicabilidad = validez externa/generalización + transferibilidad
• Consistencia = fiabilidad + dependabilidad
• Neutralidad = objetividad + confirmabilidad

En definitiva, más allá de las pistas que otorgan las cuestiones terminológicas, de lo
que se trata es de saber cómo se evalúa la calidad de un estudio con MC, que debe
otorgar conclusiones pertinentes y que no hubieran sido alcanzadas con los abordajes
tradicionales por sí solos.
Atendamos los desafíos de aquellas investigaciones de MC en las cuales las
conclusiones, aunque parezcan haber conjurado las amenazas a la validez, muestran
divergencias entre sí.

5) MAYOR COMPLEJIDAD EN LA INVESTIGACIÓN,


MAYOR PROBABILIDAD DE CONCLUSIONES
CONFLICTIVAS

Una de las consecuencias más interesantes de utilizar diseños de MC es que con


relativa frecuencia nos encontramos con conclusiones que parecen oponerse

119
Metodología General 2020
TANY

(SLONIM-NEVO Y NEVO, 2009). Buscar reconstituir la coherencia o la


interpretación “correcta” no es la única opción, aunque haya sido la más frecuentada.
Recientemente se ha revalorizado la posibilidad de contemplar los resultados
conflictivos, entendiendo que pueden dar cuenta de la complejidad de un fenómeno
aunque en primera instancia parezcan errores (ARNON Y REICHEL, 2009;
SLONIM-NEVO Y NEVO, 2009). Esta decisión debiera estar sustentada
teóricamente y meditada en cada investigación específica, sopesando la fuerza de las
inferencias hechas, el proceso de implementación de cada técnica, las amenazas a la
validez detectadas en cada componente y los posibles anclajes teóricos de cada
conclusión, así como los objetivos científicos y prácticos de la investigación.

El de la coherencia entre conclusiones derivadas de abordajes diversos es un


debate informado por otro:
• el de la calidad de los datos y
• de las inferencias que se hacen. Una posición posible recomienda que “las
interpretaciones” sean coherentes una con otra.

Además de la complejidad del objeto y lo inevitablemente parcial del conocimiento


científico, hay muchos motivos por los cuales puede haber conflictos, como
problemas en la investigación o errores.
La conclusión de BRYMAN (2005), tras revisar más de 200 artículos y entrevistar
a los investigadores en MC, en relación a que poco importan los verbos a usar
(“integrar” resultados, por ejemplo) ya que la metáfora más apropiada para combinar
resultados en MC es la de una conversación.

Los resultados conflictivos pueden ser integrados en un marco en que sea válida la
existencia de aspectos disonantes de un fenómeno complejo, cruzado por múltiples
perspectivas.
Reexaminar los datos o transformarlos es otra opción importante cuando existen
conclusiones conflictivas, así como el diseño de una nueva fase de la investigación.

Los problemas vinculados a la integración de resultados en MC no son tan


específicamente distintos a la integración de resultados en otras investigaciones.
Posiblemente cuando termine de consolidarse una masa crítica importante de
investigadores en MC, que tejan relaciones entre la práctica de investigación y la
reflexión metodológica, la tarea resultará menos problemática.

En esa construcción, los nuevos diseños combinados se beneficiarán del


“bilingüismo” como camino privilegiado para discutir aspectos de validez; es un
procedimiento, que implica una negociación de sentido, sobre pautas que deben
someterse a una evaluación sobre la validez de toda la investigación.

120
Metodología General 2020
TANY

El marco desde el cual evaluar resultados de investigación ya no podrá


construirse, sino desde una reflexividad ampliada, a la combinación de perspectivas
epistemológicas, y a la relación de ida y vuelta entre epistemología, teoría y
métodos. Esa relación adoptará una forma específica en cada caso, pero son
necesarios criterios abstractos y consensuados entre la comunidad de investigadores
para evaluar la validez de las investigaciones.
RESUMEN:

Luego, de varias décadas de "guerra de paradigmas", la combinación entre los


abordajes cuantitativos y cualitativos representa hoy una posibilidad extendida y de
mayores proporciones. Con una comunidad de investigadores en consolidación en
torno al término Métodos combinados ("Métodos mixtos"), se ven sistematizando
las distintas opciones que este abordaje otorga en el estado actual del arte. Aquí se
repasan las innovaciones generadas en torno a diseño de investigación y diseño
muestral, para atender el problema de la validez a la luz de esas novedades.

Este problema, anteriormente compartimentado en los mundos cualitativos o


cuantitativos, necesita específicamente combinadas, por lo cual se toma partido por
una construcción "bilingüe".

Finalmente, se reflexiona sobre un tema poco tratado: qué sucede cuando distintas
fases de una misma investigación arrojan resultados conflictivos. Tras varias décadas
de "guerras de paradigma", hoy la combinación de enfoques cuantitativos y
cualitativos representa una mayor posibilidad y una creciente popularidad. Con una
comunidad de investigadores de acuerdo con el término "Métodos mixtos", este
nuevo enfoque de la investigación está sistematizando diferentes opciones.

Las innovaciones generadas en relación con la investigación y el diseño de


muestras se revisan para atender el problema de validez planteado por estos
nuevos métodos. Este problema, previamente compartimentado en dimensiones
cuantitativas y cualitativas, necesita una definición combinada, por lo que se admite
una construcción "bilingüe".

Finalmente, se considera un sujeto apenas tratado: qué sucede cuando distintas


fases de una misma investigación arrojan resultados conflictivos.

LECTURA OBLIGATORIA, 2020

121

También podría gustarte