Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Libro Unlz Metodologia
Libro Unlz Metodologia
de la
Investigación Social
Roberto Pérez Lalanne
S. Raquel Míguez
Alfredo Oscar Castro
1
INTRODUCCIÓN
2
CAPÍTULO 1: LA INVESTIGACIÓN SOCIAL
1
En un trabajo anterior (Pérez Lalanne, 2010) se ha desarrollado esta problemática de “los mundos finitos
de sentido” conjuntamente con los distintos modos de producirlos. La expresión “mundos finitos de
sentido” le pertenece al filósofo y sociólogo vienés Alfred Schutz (1974) quien fuera el promotor del
enfoque fenomenológico especialmente en el análisis sociológico de la vida cotidiana.
2
Cf. Ibañez, Jesús: “...sólo se puede encontrar lo que no se puede buscar: porque si lo pudiéramos buscar,
ya lo habríamos encontrado” (García Ferrando y otros, 1993:75). También Picasso solía decir: “... es
artista el que encuentra, no el que busca...”.
3
El mismo se ha elaborado siguiendo --aunque no en su totalidad--, a Sierra Bravo, (1991).
3
TIPOS DE INVESTIGACION SOCIAL
Criterios Clasificaciones
Teórica
Naturaleza Empírica
Teórico-empírica
Finalidad Básica
Aplicada
Exploratoria
Nivel de análisis Descriptiva
(profundidad) Explicativa
Amplitud Microsocial
Macrosocial
Primarias
Fuente de datos Secundarias
Mixtas
Cualitativas
Características Cuantitativas
Cualicuantitativas
Marco De campo
De laboratorio
4
monográficos que tan útiles aportes han realizado a las ciencias sociales. Sin embargo,
cabe aclarar su diferenciación con muchos pseudos estudios que terminan siendo copias
burdas de autores --a veces malintencionadas o lo que es peor, mal hechas--, como
sucede con muchos trabajos erróneamente llamados monográficos que incluso se
practican o fomentan en los ámbitos académicos; en tal caso, cabe recordar que a los
autores hay que citarlos y no plagiarlos. También dentro de este tipo de estudios están
la mayoría de los análisis filosóficos, lógicos y epistemológicos. Por otra parte, hay que
evitar “el teoricismo estéril” o como lo denomina Bourdieu la “institución” de la teoría
en tanto campo discursivo separado, cerrado y auto referente, es decir, palabras a
propósito de palabras. Las investigaciones teóricas se ciñen en gran medida a los
mismos procedimientos técnicos-metodológicos que cualquier otra investigación:
formulación del problema, objetivos, hipótesis, control de variables extrañas, etc.
Por su parte, los estudios empíricos abarcarían todas las demás investigaciones
que se basan en el abordaje experiencial de cualquier fenómeno de la realidad, incluidos
los de carácter documental. Precisamente, a estos últimos (los empíricos) se hará
referencia en lo que resta del desarrollo del presente trabajo. Sin embargo, cabe aclarar
que la denominación de empírico no implica que estas investigaciones carezcan de
marco teórico o que no puedan ser teóricas (como se verá en el punto siguiente). Serán
igualmente empíricas en la medida que se aluda a hechos o a fenómenos de la realidad.
En la actualidad, la mayoría de las investigaciones que se realizan en las ciencias
sociales son teórico-empíricas, aunque puedan ser predominantemente teóricas o
predominantemente empíricas o aunque no se expliciten algunos de estos planos.
5
riesgo ha llevado por ejemplo, a la creación de carreras universitarias o de profesiones
vacías o con muy pobres contenidos teóricos, o que deben necesariamente nutrirse de
modelos teóricos provenientes de otras ciencias. Y esto último, aunque pueda parecer
engorroso o hasta ofensivo, tiene que ver con la reivindicación de la teoría y con el
ámbito por excelencia en dónde ésta se produce: la Universidad.
En definitiva, tanto la básica como la aplicada son investigaciones empíricas
aunque la primera sea predominantemente teórica porque apunta a elaborar --valga la
redundancia-- teoría, mientras que la segunda sea predominantemente empírica o
empírica propiamente dicha porque aborda problemas concretos. Además, si bien por lo
general esta última se basa en aquélla también puede retroalimentarla y hasta dar origen
al desarrollo de investigaciones básicas.
c) Alcance temporal: este criterio nos remite a los momentos en que se efectúan las
mediciones y a los “grupos” involucrados por ellas. Las investigaciones sincrónicas,
seccionales o transversales realizan el estudio en un único momento, es decir, efectúan
una sola medición del fenómeno obteniéndose como resultado una única fotografía del
mismo. Por su parte, las diacrónicas o longitudinales implican dos o más mediciones en
diferentes tiempos dando por resultado varias fotografías o, en el mejor de los casos,
una película. Dicho de otra manera, son de carácter procesual e implican un seguimiento
del problema. A su vez, estas últimas pueden ser retrospectivas (cuando los momentos
estudiados se refieren al pasado) o prospectivas (cuando apuntan a efectuar mediciones
en el futuro). También pueden ser de panel (cuando se realizan a un mismo grupo o
cohorte) o de tendencia (cuando las observaciones se efectúan en grupos diferentes).
Tanto las sincrónicas como las diacrónicas pueden ser comparativas cuando se trabaje
simultáneamente con dos o más poblaciones.
6
objetivas o despersonalizadas). Por ejemplo, si el objetivo es estudiar cómo influyen las
condiciones laborales en el rendimiento de los trabajadores de una determinada
empresa, la investigación es microsocial; en cambio, si se trata de analizar los niveles de
desocupación de un país, es macrosocial. De esto se desprende, que la opción entre los
enfoques micro y macro depende de cuál sea la problemática y los objetivos de la
investigación. Con respecto a este criterio cabe hacer notar que no hay que confundir la
distinción entre micro y macro con la diferencia entre muestra y universo; es decir, que
el estudio puede realizarse a una muestra o conjunto de unidades de análisis y la
investigación ser macrosocial y a la inversa, el estudio puede efectuarse al conjunto del
universo o población y ser microsocial.
4
Al respecto, cfr. Kinner, T. y Taylor, J. (1994) y también Aaker, D. y Day, G. (1992).
7
menor costo. En cuarto lugar, también hay que señalar que los datos secundarios
pueden tener falencias y desventajas como por ejemplo, que su origen sea dudoso, que
responda a determinados intereses o que hayan sido recogidos para investigaciones que
no responden a los objetivos para los cuales se los está utilizando. Un ejemplo de esto
último, lo constituye la llamada “cifra negra” de las estadísticas que se publican sobre
victimización.5
5
Se considera “cifra negra” a la totalidad de casos de delitos padecidos que por diversas causas no están
contemplados en las estadísticas que se dan a conocer: por ausencia de la denuncia por parte de la
víctima, por el rechazo a recibirla por parte de los organismos jurisdiccionales competentes, etc.
8
Giddens (1997). Por esto y tantos otros motivos es que se torna casi imposible la
replicabilidad de los estudios cualitativos.
En definitiva, ambos tipos corresponden a los dos enfoques históricos de la
investigación social: el cualitativo presentándose como subjetivo y el cuantitativo como
objetivo. Esto último sin perder de vista que tanto uno como el otro cubren aspectos
que forman parte de la objetividad social. Dado que estos enfoques no son excluyentes
bien pueden complementarse en los estudios cualicuantitativos.
Para finalizar, vale la pena repetir que los criterios desarrollados no son
exhaustivos dado que existen otras formas de agrupamiento (según el interés analítico)
y no son excluyentes dado que en un mismo estudio pueden confluir varios de ellos; por
ejemplo, una investigación cuyo propósito sea medir la evolución de la intención de
voto de los ciudadanos del país frente a una próxima elección se caracteriza por ser
descriptiva, cuantitativa, empírica, macrosocial, de campo, diacrónica, etc.
Todos estos criterios presentan puntos fuertes y débiles, y en general, son útiles a los
efectos clasificatorios y pedagógicos pero también lo son cuando se trata de evaluar si
existe correspondencia entre la “autodefinición” de la investigación y como la misma ha
sido realizada.
9
razonamientos, métodos, consecuencias observacionales y predicciones; es de
naturaleza lógico-normativa y por lo tanto, materia de estudio de la Filosofía de la
Ciencia y de la Epistemología.
De esta manera y durante muchos años prevaleció esta distinción impuesta por el
positivismo lógico y demarcacionista que “menospreciaba o desconocía” el contexto de
descubrimiento (excluyéndolo de la reflexión epistemológica), reconociéndole status
científico sólo al contexto de justificación y asignándole el monopolio de su tratamiento
a la Lógica y a la Epistemología en desmedro de otros posible abordajes. En sintonía
con esta línea de razonamiento y argumentación en forma simultánea comenzó a
restringirse el concepto de investigación al contexto de justificación; así fue como su
validez se fue analizando y certificando en función de este contexto y a preservar la
misma de cualquier ingrediente o influencia ideológica, valorativa, ética, etc. De esta
forma y a la luz de esta concepción paradigmática, la investigación se autodefinía como
neutra, objetiva y libre de valores. En primera y única instancia, la validez de una
“investigación científica” se reducía y se analizaba mediante la reproducción artificial
lógica y de su concordancia con las tablas de verdad del razonamiento hipotético
deductivo en su versión falsacionista o “modus tollens”.
Sin embargo, paulatinamente a partir de la pasada década del ’50 se producen
algunas modificaciones y/o reacciones que comenzarán a interrelacionar la Filosofía de
la ciencia con la Sociología e Historia de la ciencia o a reclamar la necesidad de
caracterizar de un modo más amplio el concepto de “racionalidad” y sus nociones
asociadas. En lo que concierne al objetivo de este apartado, dichos aportes se analizarán
con el propósito de demostrar que el contexto de justificación es sólo un momento más
(y no el único) de la investigación y que en última instancia, esta distinción entre
contextos (cualquiera sea su número) es arbitraria (como toda distinción) y sólo
aceptable a los fines pedagógicos y analíticos.
En los años ‘60 Thomas Kuhn (1986) introduce en su conceptualización del
paradigma un criterio sociológico para analizar la validez y vigencia de una teoría: la
adhesión por parte de la comunidad científica. Según este epistemólogo, historiador de
la ciencia y físico norteamericano en épocas de normalidad científica o paradigmática
(que son las ordinarias y de duración más prolongada) los investigadores no se dedican
ni a verificar ni a falsar las teorías sino que trabajan convencidos en la utilidad de las
mismas procurando solucionar los problemas, desarrollando y enriqueciendo el
paradigma al cual pertenecen o a la matriz disciplinaria a la cual adhieren. En ningún
caso necesitan distinguir entre contextos o efectuar un análisis lógico de sus teorías.
Tampoco lo hacen en época de crisis paradigmática en la que se suceden las anomalías
(problemas para los cuales el paradigma vigente no ofrece respuestas/soluciones
satisfactorias). En estos períodos, los científicos comienzan a descreer de las teorías a
las que hasta ese momento adherían y a trabajar en procura de un nuevo modelo de
análisis, pero no lo hacen ni por motivos lógicos ni justificacionistas. Y cuando se
produce una revolución científica o paradigmática y queda desplazado el paradigma
anterior, a los efectos de adherir a las nuevas concepciones tampoco las someten a la
reproducción artificial de su racionalidad lógica. Esto es así porque Kuhn entiende la
investigación en un sentido amplio como la tarea cotidiana que desarrollan los
científicos en la cual se entremezclan los contextos con diferentes lógicas y
racionalidades, utilizando los métodos más convenientes y estando sometidos a
múltiples influencias. Este análisis que en principio Kuhn desarrolla para las ciencias
naturales es más complejo aún en el campo de las ciencias sociales, en donde conviven,
interactúan y hasta convergen paradigmas diferentes sin desplazarse mutuamente ni
lograr captar la adhesión mayoritaria de la comunidad de los cientistas sociales. Y sin
10
embargo, tampoco aquí se cuestiona explícitamente la “logicidad” ni siquiera de las
teorías rivales.
Siguiendo una línea de pensamiento similar a la kuhniana, en la década del ’70
Imre Lakatos (1975) introduce la distinción entre los programas de investigación
regresivos y progresivos, de acuerdo a como hayan sido sus predicciones y el estado en
que se encuentre su “cinturón protector”. Y tampoco en este análisis, para justificar el
retroceso de ciertos paradigmas se apela al “contexto de justificación”. Por otra parte y
según este autor, programas que en su momento fueron regresivos pueden volverse
progresivos, sin que para ello hayan aprobado el “exámen lógico tollensdiano”. Y esto
ocurre con frecuencia en el campo de las ciencias sociales: el programa marxista (hoy
en retroceso) tuvo amplia vigencia en los años ’70 y en ninguno de los dos momentos
se tuvo en cuenta su reconstrucción lógica justificacionista. Ni que hablar del programa
del “darwinismo social” que luego de ser considerado perimido (ni siquiera en
retroceso) y fracasado, resurgió como el ave Fenix de sus cenizas en los ’80 y no
precisamente porque se le reconocía su validez lógica. Tanto Kuhn como Lakatos
consideran además que ningún científico abandona una teoría (paradigma o programa)
por un hecho (o varios) que la contradigan o por alguna incoherencia lógica sino existe
otra (para reemplazarla) que la supere, y esto último, sí tiene lógica, aunque más no sea,
la del sentido común: es una lógica “pramática”.
En nuestro país, la distinción entre ambos contextos generó entre los
epistemólogos y metodólogos la polémica acerca de si formaban o no parte del proceso
científico; si la objetividad del conocimiento se veía o no afectada y en tal caso en que
contexto; si los investigadores eran o no responsables del destino final de dichos
conocimientos, etc. Esta controversia - que aún perdura en nuestros días -, se desarrolló
con particular virulencia durante los años ’60 y ’70 y tuvo entre los principales
contendientes y representando a posturas opuestas, a Klimovsky y Varsavsky. Gregorio
Klimovsky introduce un tercer contexto: el de aplicación, para referirse a los usos
posteriores que se hacían de los conocimientos. En aquellos años Klimovsky –
adhiriendo a la tradición positivista lógica--, sostenía que sólo se puede considerar
como propiamente científico el contexto de justificación, dado que en él se garantizaba
metodológicamente (y por supuesto también lógicamente) la no interferencia ideológica,
valorativa, etc. y en tal sentido, la ciencia (y por ende la investigación) resultaba ser
imparcial, avalorativa, etc. y por lo tanto los científicos (y por ende los investigadores)
no eran responsables de las consecuencias finales de los productos de su actividad
(contexto de aplicación). De esta manera, los contextos de descubrimiento y aplicación
(en los cuales Klimovsky reconocía todo tipo de contaminación) no formaban parte del
proceso científico: al de descubrimiento lo rotulaba de precientífico y al de aplicación
directamente lo excluía de toda pertenencia o relación con la ciencia. Oscar Varsavsky
en su réplica introducía un cuarto contexto que denominaba de mistificación, para
denunciar que –al establecer la distinción entre los contextos--, lo que se pretendía era
encubrir la verdadera responsabilidad de la ciencia y el sesgo ideológico de los
conocimientos (Klimovsky, Varsavsky y otros, 1973).
Dentro de los aportes más recientes y con intenciones similares (pero que por
escapar a la finalidad del presente tratamiento no se desarrollarán) se pueden citar a:
Nikcles, Thomas con su tricotomía de etapas de generación, de prosecución y de
aceptación,6 Samaja (1993) que incorpora el contexto de exposición, Echeverría (1998)
que introduce el contexto de educación. A modo de síntesis, Klimovsky y Schuster en
el libro citado identifican cuatro tendencias distintivas del tratamiento de la
6
Citado en Klimovsky y Schuster, (2000).
11
problemática con la finalidad de destacar una nueva corriente que estaría revalorizando
el contexto de descubrimiento y un retroceso de los partidarios del contexto de
justificación:
a) metodológica-algorítmica (Herbert Simon) que reconstruye inductivamente el
contexto de descubrimiento;
b) clásica (Popper) que distingue los dos contextos y reserva la racionalidad para la
justificación:
c) “amigos del descubrimiento” que identifica racionalidad también con
descubrimiento reclamando su ampliación y en consecuencia los de inferencia y
logicidad;
d) sociologista que rechaza la distinción, no privilegia la justificación ni se apoya
en el concepto de racionalidad (a la que relativiza a cada contexto).
Particularmente y más allá que se simpatice parcialmente con la última,
agregaría algunas consideraciones:
No existe un límite preciso entre la producción y la validación de los
conocimientos ni tampoco un orden cronológico dado que la validación puede a su vez,
llevar a descubrir una nueva hipótesis; la distinción es más bien analítica y en tal caso,
los contextos interactúan y se retroalimentan (unidades entrelazadas).
Existen investigaciones en donde los conocimientos se producen al tiempo que
se validan; en efecto, esto sucede especialmente en el campo de las investigaciones
cualitativas. Un ejemplo sería el programa de Glaser y Strauss que frente a la
alternativa entre verificación y falsación proponen la Teoría Fundamentada que al igual
que la inducción analítica supone la elaboración y fundamentación simultánea de las
categorías y proposiciones.7
El contexto de descubrimiento también tiene lógica y metodología (inducción,
abducción, comprensión, fundamentación, hermenéutica, etc.) y en muchos casos son
las mismas que las del contexto de justificación.
El contexto de justificación está sometido a las mismas influencias y
condicionamientos que el contexto de descubrimiento: objetividad I y II (Schuster),
hábitus, interés, capital y campo científico (Bourdieu), a priori histórico e imaginario
social (Díaz), razón histórica (escuela crítica), supuestos básicos subyacentes
(Gouldner), pertenencia paradigmática (Kuhn), ciencia contextualizada (Barnes y Boor),
paradigmas primitivo y técnico (Lores Arnaiz), educación (Echeverría), etc.
Ambos contextos merecen y deben ser tratados por la Epistemologia, Sociología,
Psicología, Filosofía, Historia y por cualquier otra disciplina que tenga algo que decir.
El hecho de incluir los aspectos sociales, históricos, económicos, etc. no obliga
como sostiene Gaeta,8 a los filósofos, epistemólogos y lógicos a tener que formarse y
especializarse en dichas orientaciones; simplemente los invita a compartir el espacio
que hasta el momento ocuparon y monopolizaron.
Los aspectos lógicos sólo son una parte (importante pero parte al fin) y más
pequeña aún cuando se los reduce exclusivamente a la racionalidad hipotética
deductiva. Tal vez, en algún momento será conveniente distinguir (como creo que
parcialmente hizo Kuhn) entre validez, vigencia y utilidad.
La investigación entendida como tiene que ser incluye todos los contextos: dos,
tres, cuatro, cinco o los que sean. La distinción (como todas) es –se reitera--, arbitraria
y a los efectos meramente pedagógicos y analíticos. El científico no puede (ni debe)
desentenderse de las consecuencias de su actividad. La investigación es una de las
tantas prácticas sociales y está sujeta --como todas ellas--, a los mismos
7
Ver por ejemplo Schwartz, H. Y Jacobs, J., 1984.
8
Rodolfo Gaeta: La justificación del contexto de descubrimiento, en Klimovsky y Schuster, (2000).
12
condicionamientos al tiempo que condiciona y modifica la objetividad social en la que
se desarrolla.
Por último y de acuerdo con la propuesta que se pretende desarrollar, quienes
defienden la autonomía y exclusividad del contexto de justificación o quienes afirman la
no pertinencia científica de las consecuencias o usos del conocimiento son partidarios
de una concepción restringida y mutilada de la investigación. Bastaría con mencionar el
Proyecto Genoma Humano y sus posibles derivaciones (Maddox, 1999) o la fisión
nuclear, la clonación, la fecundación in vitro y otros programas que Hobsbawn (1998)
trae a colación cuando analiza las controversias y paradojas de la ciencia
contemporánea. No obstante, es necesario recalcar que la discusión no es sobre las
consecuencias o si se está a favor o en contra de estos u otros proyectos científicos, sino
si a la hora de analizar o evaluar debe tenerse en cuenta la totalidad del proceso
investigativo –incluyendo sus posibles consecuencias--, o simplemente la porción que
remite a la lógica justificacionista. Para finalizar y a propósito de Hobsbawm habría que
agregar que él –como buen historiador--, entiende la Ciencia en un sentido amplio.
Pero ocurre que él participa de lo que se denomina la visión apocalíptica/pesimista de la
ciencia (o versión posmoderna o nihilista) mientras que, personalmente, habría que
inclinarse por la corriente optimista (y moderna) que en el balance reconoce a favor de
la investigación científica el peso de los logros obtenidos aunque en el haber queden
todavía muchas cosas pendientes y cuentas sumamente importantes que saldar como la
lucha por la emancipación del ser humano. Pero este es otro tema que al igual que la
demanda ética también merecen su urgente tratamiento.
13
términos de objetivos, hipótesis, variables, etc.) el investigador necesita elaborar una
estrategia de investigación que le garantice solucionarlo con éxito. Habría que agregar
que a veces la formulación del problema requiere a su vez de su propio diseño tal como
sucede con algunos estudios exploratorios que reciben también el nombre de
formulativos. Con otras palabras, diseñar una investigación implica un trabajo de
reflexión previo a su realización. Supone planificar su implementación; reflexionar
sobre los alcances de la misma, sobre cada uno de los pasos a seguir y sobre cada una de
las decisiones a tomar. Significa adelantarnos mentalmente e imaginarnos las diferentes
secuencias. Pardinas (1972) señala que el diseño es la comprobación de un modelo.
Distingue entre el diseño de la prueba de hipótesis (definición del universo de estudio,
de las unidades de análisis y de información, elección de las técnicas de muestreo y de
recolección de datos, etc.) y el diseño general de la investigación. A este último a su
vez, lo descompone en un conjunto de diseños específicos: el modelo teórico (desarrollo
conceptual de cada uno de los pasos de la investigación incluyendo el marco teórico de
referencia), el modelo gráfico (elaboración de un esquema de procedimientos,
flujograma, cronograma, etc.), el modelo simbólico (elección de los soportes
informáticos), el modelo estadístico matemático (elección de la muestra, margen de
error y tamaño muestral, coeficientes estadísticos, plan de cuadros y gráficos, etc.) y el
modelo económico-administrativo (elaboración del presupuesto y conformación del
equipo de investigación).
Los diferentes criterios mencionados cuando se analizaron los tipos de
investigación no sólo son útiles a los efectos clasificatorios y pedagógicos sino también
cuando se trata de evaluar si existe correspondencia entre la “autodefinición” de la
investigación y su diseño, concordancia que no siempre ocurre en el campo científico
especialmente en el de las ciencias sociales.
Precisamente, el diseño es algo común a todos los estudios independientemente
de cuál sea su tipo dado que aun en aquellos casos caracterizados como exploratorios y
cualitativos también requieren de algún tipo de planificación por más flexible que ésta
sea. Pero el hecho de que se trate de “algo en común” no debe prestarse a confundir
diseño con investigación ni tampoco a tratar ambos conceptos como “cosas” totalmente
diferentes. Sin embargo, existe una doble tendencia: por un lado, a considerarlos como
sinónimos o lo que es igual, a definir la investigación en función de su diseño o más
aun, a subordinarla como si la misma se realizara en beneficio o por el diseño en sí
mismo o por el simple placer de implementar lo diseñado o de llegar a la meta
independientemente de cuál sea su costo o sus consecuencias. De hecho, el diseño debe
ajustarse a los objetivos pero teniendo en claro que no son objetivos propios sino que
son objetivos de la investigación y que al igual que ella, debe contemplar otros
elementos y factores que muchas veces ni siquiera están presentes o explicitados en
aquéllos pero que forman parte del problema y por lo tanto deben ser contemplados por
el investigador. Por otro lado, la otra tendencia es a separar el diseño del resto del
proceso de investigación. Como si fuera una etapa previa –e incluso realizada por
personas diferentes--, que culminaría con la planificación a priori de la investigación.
Ambas inclinaciones muchas veces obedecen --como luego se verá--, a que se confunde
o prioriza el interés analítico por sobre la concepción de la investigación en forma
global.
A los efectos de ilustrar como se concretan y hasta coinciden en la práctica
ambas tendencias, recurriré a una analogía que con frecuencia se traza entre el diseño de
una investigación y el diseño de una construcción (por ejemplo de una vivienda). En
este caso, el plano de la obra elaborado por el arquitecto equivaldría al diseño elaborado
por el investigador, mientras que lo mismo ocurriría entre la construcción de la vivienda
14
y la realización de la investigación. Algunos arquitectos suelen desentenderse de la
obra una vez que la han diseñado aunque por lo general, acompañan, supervisan,
dirigen, etc. la obra en su totalidad; lo mismo ocurre con el diseñador de una
investigación --aunque también, no en todos los casos--. Sin embargo, son más
frecuentes de los que se cree, los estudios (cuantitativos, en su mayoría) que se
planifican desde un escritorio al mejor estilo del burócrata. Esta actitud, en ambos
casos, le estaría otorgando al diseño un valor intrínseco, que por cierto tiene pero que es
un valor parcial, relativo y más bien potencial, dado que son ínfimos los casos en que
una investigación pueda ser diseñada totalmente antes de su realización. 9 Pero esto no
es todo ni lo más grave. Particularmente, me ha tocado participar en la evaluación de un
programa (subvencionado e implementado por el estado nacional, a través de uno de
sus ministerios) de construcción de viviendas comunitarias para poblaciones aborígenes
con el propósito de “preservar” dichas culturas ancestrales. Las viviendas habían sido
diseñadas por arquitectos desde Buenos Aires, con criterios y estilos urbanísticos
propios de esta ciudad, que --aun a riesgo de ser injusto--, poco se preocuparon por sus
futuros moradores como así también poco se interesaron en supervisar la obra y sus
“alrededores” dado que para su aprobación final y envío correspondiente de los fondos,
se evaluaba el “producto” en función de los planos originales. Así fue como se
construyeron las viviendas, siguiendo al pié de la letra su diseño arquitectónico.
No es necesario tener mucha imaginación para saber qué fue lo que pasó. Entre
otras cosas, la comunidad había construido baños externos (afuera de las viviendas) en
lugar de utilizar los construidos (internos) porque según sus pautas culturales ese tipo de
necesidades debían realizarse afuera y no dentro de la casa. Lo cual tiene su lógica,
pero aunque no la tuviera, si se trata de preservar la cultura aborigen hay que empezar
por no cambiarle sus estilos de vida. Tal vez, el ejemplo pueda parecer algo grotesco o
ficticio; sin embargo, la realidad suele superar a la ficción (y no tan solo a la
imaginación).
Ahora bien, qué es lo que se pretende demostrar con el ejemplo? Lo apuntado
más arriba: que el diseño no es equivalente a la investigación sino que es un ingrediente
más, tal vez uno de los más importante o como señala Samaja el “alma mater” pero
sólo es una parte; con otras palabras, que el diseño --por más adecuado que sea--, no
garantiza el éxito de la investigación o la resolución del problema, que en tal caso, es
una condición necesaria pero no suficiente; que el diseño no es sólo un paso previo y
acabado sino que acompaña, se ajusta durante y termina con la propia investigación.
En cambio no despierta la misma unanimidad el concepto de proyecto de
investigación. Alvira Martín (1993) lo equipara al diseño. Para Sierra Bravo el proyecto
contiene al diseño y “... consiste en la especificación organizativa, temporal y
económica de los distintos elementos, pasos y operaciones del proceso de investigación
respecto a un caso concreto de investigación” (1991:124). Mientras que para Samaja
(cuya posición --en este punto--, comparto) “... abarca otra porción y otro plano del
proceso de investigación, ya que se refiere a aquel conjunto de componentes que
producen y regulan la información más adecuada para llevar a cabo una dirección y
control eficaz del desarrollo del proceso (...) casi invariablemente se trata de una
información escrita y presentada de acuerdo a un cierto formato establecido por un
sujeto supervisor (o sistema regulador administrativo)” (1993:205).
9
Quiero aclarar que tanto para el caso del arquitecto como del investigador me estoy refiriendo
especialmente a aquellas investigaciones (o construcciones) que efectivamente se realizan. Cuando esto
no ocurre, los diseños igualmente tienen su valor pero como se señaló se trata de un valor parcial y
relativo, como ocurre cuando se juzga cualquier promesa o acto en potencia. Con otras palabras, una cosa
es el plano de la obra y otra cosa es la obra terminada, sobre la que recaerá el veredicto final.
15
Como se puede observar, tanto el proyecto como el diseño responden a lógicas o
racionalidades diferentes. La lógica del proyecto obedece más a lo formal y burocrático,
posibilitando la evaluación y control de gestión, contemplando aspectos del diseño y del
proceso de investigación (en un sentido restringido), “balanceando” objetivos y
recursos, pero además contemplando a quien va dirigido (entre ellos, los eventuales
evaluadores), a sus posibles beneficiarios (y también “perjudicados”), las consecuencias
manifiestas (entre ellas las llamadas trasferencias al medio socio productivo) y las
latentes (o muchas veces no explicitadas) que el investigador ni los evaluadores pueden
ignorar y que remiten a los compromisos éticos involucrados. Mientras que la lógica
del diseño en principio es más “reducida” y obedece especialmente a lo técnico-
metodológico-operativo (a las que se volverán para su tratamiento más adelante, rige la
relación entre el cuerpo de conocimientos existentes (marco teórico), los procedimientos
y herramientas, contemplando los diferentes criterios de demarcación, de control y de
validez científica, tal como enseguida se analizará.
Ahora bien, si el diseño implica la organización de la investigación y el proyecto
la comunicación –generalmente, por escrito--, de lo que se piensa hacer conforme a
ciertos protocolos que necesariamente habrá que completar, constituyendo un
dispositivo burocrático imprescindible, en especial, cuando la investigación requiere de
la evaluación de una instancia superior para su aprobación y/o financiación, el proceso
de investigación nos remite a la ejecución, implementación de lo diseñado y
comunicado. Precisamente, la investigación concebida como proceso será objeto de
tratamiento en los capítulos siguientes.
Se ha dicho que todo diseño implica un conjunto de decisiones sobre las que el
investigador deberá reflexionar. A continuación se presenta un esquema sintético sobre
las mismas y que serán desarrolladas en los capítulos siguientes:
16
3.2. Principios y criterios operativos generales del diseño
Una de las claves de todo investigador que se precie como tal es el manejo y
conocimiento de la lógica del diseño, tanto para realizar sus propias investigaciones
como para evaluar las implementadas por otros. Esto último, resulta particularmente
importante para muchos profesionales (de cualquier índole) y personal directivo que en
el ejercicio de sus funciones están en contacto con investigaciones.
El dominio de la técnica del “diseño” contempla algunos principios (Sierra
Bravo, 1991):
a) Un conocimiento adecuado de la lógica del proceso de investigación, sus
metodologías y técnicas y de los factores que puedan afectar su validez.
b) Realismo para la adaptación, de modo creativo y original, a las cambiantes
circunstancias de cada investigación.
c) Imaginación para intuir todos los factores que pueden afectar la validez y para
encontrar soluciones eficaces a los mismos.
d) Flexibilidad o capacidad de adaptación del diseño inicial a las nuevas exigencias
que el desarrollo de la investigación ponga de manifiesto.
Como bien señala Sierra Bravo, el fin último de todo diseño es lograr la máxima
validez posible, es decir, la correspondencia más ajustada de los resultados del estudio
con la realidad. Kerlinger (1975) sostiene que hay que disponer la investigación de
modo que resulte maximizada la variación o efecto en la variable dependiente producido
por las variables independientes estudiadas, a fin de que su influencia aparezca lo más
clara posible, controlando las variables extrañas no investigadas, minimizando la
influencia de los factores aleatorios y los errores de medida e incrementando todo lo
posible la seguridad y fiabilidad de las operaciones de la investigación. En tal sentido,
ya en 1966 Campbell y Stanley (1978) habían establecido dos criterios valorativos:
El criterio de validez interna.
El criterio de validez externa.
Luego en los últimos años se agregaron dos criterios más:
El criterio de validez de constructo.
El criterio de validez estadística.
Si bien estos criterios (especialmente los dos primeros) fueron delineados
pensando en los diseños experimentales (para cualquiera de sus modalidades), a
continuación se los desarrollará de manera que puedan adaptarse a cualquier tipo de
estudio. Independientemente de lo anterior, en todos los casos --tal como se verá--,
estos criterios suponen diferentes tipos o procedimientos de control de variables:
eliminación, conversión a constantes, igualación, aleatorización, contrabalanceo,
repetición, grupos testigos, etc.
Validez interna
10
Alvira Martín, F (1993) que a su vez las toma de Selltiz, C. y otros (1974).
17
2) Acontecimientos externos a la investigación que tengan lugar durante el
desarrollo de la misma.
3) El proceso de maduración de los sujetos de la investigación.
4) Los propios efectos reactivos de la utilización de diferentes técnicas de
investigación, en especial de los instrumentos de medición.
5) El investigador como fuente de invalidación interna.11
Cabe agregar, que algunas de las variables incluidas en este agrupamiento se
pueden controlar mientras que otras forman parte de los denominados factores no
controlables. Por otra parte, no todo estudio tiene que verse afectado por los mismos.
Debe señalarse también que la validez interna es un ideal al que hay que
aproximarse y que se alcanza en menor o mayor grado. Un diseño podrá tener menor o
mayor validez interna que otro, pero casi nunca podrá carecer totalmente de ella. El
grado de validez interna condiciona la interpretación analítica de los resultados de una
investigación. Su control puede efectuarse a priori al plantear el diseño de la
investigación, o a posteriori en el análisis e interpretación de los datos.
Algunos ejemplos:
Una de las técnicas que con frecuencia se utilizan en los estudios cualitativos es la
de Focus Groups. La validez de los mismos puede resentirse seriamente si el
reclutamiento de los integrantes no es adecuado: muchas veces se conforman con
individuos que son “especialistas en el arte de ser reclutados” (invalidación interna o
error de tipo 1). Dado que no todos los integrantes participan de la misma manera (algo
natural que refleja lo que ocurre en cualquier grupo) a veces sucede que alguien “copa
la parada” entorpeciendo o anulando la dinámica grupal (error de tipo 3) o lo que es
peor aún, que el coordinador confunda la dinámica de ese sujeto con la dinámica grupal,
perdiendo de vista a las “mayorías silenciosas” (error de tipo 5). También con
frecuencia en estas sesiones se suelen testear pautas publicitarias: si con anterioridad a
la exposición el grupo fue interrogado sobre la opinión del producto promocionado,
cuando se realice el postest es probable que todos o algunos se cierren a la influencia del
“estímulo” y mantengan su parecer inicial (error de tipo 4).
En períodos preelectorales son frecuentes los estudios de intención de voto. Sin
entrar a discutir los problemas de representatividad de la muestra (validez externa)
muchas de estas investigaciones adolecen de ciertos sesgos: el llamado “voto
vergonzoso” de aquel entrevistado que miente u oculta su verdadera intención (error de
tipo 3); el “voto publicado” dado a conocer por los medios de comunicación y que
influye en la respuesta de los entrevistados (error de tipo 2); el encuestador que
presiona o induce a los encuestados (error de tipo 5).
Validez externa
Un diseño tiene validez externa cuando los resultados obtenidos pueden ser
generalizados o inferidos estadísticamente a otras unidades de análisis/universo, a otras
situaciones/contextos o a otros momentos/tiempos distintos a aquel en que se realizó la
investigación. En tal sentido, existen diferentes estrategias:
1) Utilizar técnicas del muestreo probabilístico tanto para seleccionar unidades de
análisis como contextos o momentos.
2) Creación y selección deliberada de grupos heterogéneos de unidades de análisis,
situaciones o tiempos. Es decir que en lugar de trabajar con muestras aleatorias se
11
Tanto Alvira Martín como Selltiz mencionan cuatro categorías, la quinta la agrego --por su
significación--, tomándola de Hernández Sampieri, R. (1994:124).
18
utilizan muestras por cuotas forzando la inclusión de unidades más heterogéneas y
distintas.
3) Tomar ejemplos/casos modales/muestras “ad hoc” o determinar las
características de aquellas unidades, contextos y momentos a los que se quiere
generalizar (muestreo intencional, evaluado, racional o dirigido).12
Estas estrategias están ordenadas de mayor a menor poder de inferencia o
generalización y a la inversa en lo que respecta a las posibilidades prácticas de
utilización.
Validez de constructo
Validez estadística
12
Con respecto al tema del muestreo intencional o a la utilización de muestras “ad hoc” cabe aclarar que
siempre se tratan de muestras no probabilísticas pero en ningún caso de muestreo predispuesto (en el que
los resultados obtenidos son consecuencias directas del mismo procedimiento de selección empleado).
Pero por tratarse de muestras no probabilísticas sería cuestionable la posibilidad de generalización. Para
mayores detalles ver Jorge Padua (1982); Samaja, J. (1993); Alvira Martín, F. (1993); y en este mismo
libro el capítulo referido a esta temática.
13
Ver más adelante el capítulo correspondiente.
19
una determinada relación puede ser cierta con un 99.5 % de seguridad o confianza pero
también puede ser equívoca (en mucho menor medida). Precisamente la validez
estadística se refiere a este tipo de error aleatorio (que no debe confundirse con el error
de muestreo) que informa sobre la estabilidad y fiabilidad de los resultados obtenidos.
Resumiendo, existen cuatro criterios para analizar la validez de un diseño, que
suelen sintetizarse en dos: interna (en el que se incluye como un caso especial, la
validez de constructo) y externa (incluyendo como otro caso especial, la validez
estadística). A priori, el más importante es la validez interna, dado que si no se pueden
interpretar los resultados por no tener controladas las variables extrañas y/o hipótesis
alternativas o no estar adecuadamente operacionalizadas las variables, no tiene sentido
hablar de errores aleatorios (validez estadística). Por otra parte, si el diseño tiene
validez interna aunque no se pueda generalizar (validez externa), los resultados
obtenidos serán válidos por los menos para ese contexto restringido. Sin embargo,
también hay que señalar que la validez que debe primar depende de los objetivos de la
investigación: si se pretende, por ejemplo, medir la conducta electoral resulta más
importante la generalización (validez externa); en cambio, si el propósito es analizar
las condiciones laborales de los empleados de una empresa será más importante la
validez interna.
Retomando el análisis comparativo entre diseño, proyecto y proceso de
investigación, se podría agregar que no todo lo diseñado se comunica ni puede
comunicarse en el proyecto; por varios motivos: básicamente, porque no se trata de
“avivar giles” ni de exponerse a que le “roben” la idea y porque muchas de las
decisiones se toman durante la investigación. Ni tampoco los contenidos de ambos
coinciden necesariamente con lo realizado luego en la investigación que tiene sus
propios “avatares” y su propia “dialéctica” y dinámica en la que interviene no sólo el
investigador sino también el contexto y los propios sujetos investigados. Esto último se
manifiesta especialmente en los estudios cualitativos en donde como bien señala Guber
(1991) “el investigador no es el único estratega”.
En síntesis, diseño, proyecto y proceso --con sus lógicas respectivas,
relativamente autónomas pero a su vez complementarias--, constituyen tres
componentes de la Investigación, que a su vez, tiene su propia lógica solidaria e
inclusiva de las anteriores pero que --como más arriba se señaló--, involucra otras
cuestiones y pertinencias. Parafraseando a Bourdieu serían tres subcampos (con sus
propias reglas de juego y fuerza gravitatoria) dentro del campo científico, que también
tiene sus propias reglas de juego que condiciona a las anteriores al tiempo que están
determinadas por la estructura de relaciones (de poder) del espacio social en el que
interactúan los actores.
En lo que respecta a las preguntas iniciales sobre los límites (¿Cuándo comienza
y termina una investigación?, etc.) y si necesariamente hay que definir un comienzo, el
mismo estaría en el momento en que se decide convertir un problema --valga la
redundancia--, en problema de investigación.14 Pero no se podría, de la misma manera,
hablar de un final; dado que este proceso se retroalimenta o citando nuevamente la frase
de Poincaré “... no hay problemas resueltos, hay problemas más o menos resueltos”.15
14
Veáse el capítulo correspondiente al problema de investigación.
15
En Moledo, L. (1994).
20
3.3. Formulario para la presentación de proyectos de investigación
21
CAPÍTULO 2: EL PROCESO DE INVESTIGACIÓN
16
Ver bibliografía general.
17
La característica referida al método será tratada en el apartado correspondiente.
22
frente al objetivo de lograr un nuevo conocimiento necesariamente resulta pertinente la
pregunta del para qué de ese conocimiento. Y esto último, no significa promover --
como algunas veces se ha dicho y ciertos precursores soñaron18--, el gobierno de los
científicos o el relativismo valorativo ni tampoco pecar de racionalista perdiendo de
vista la historia externa de la ciencia o lo que se denomina la razón histórica.
Como señala Miguel Beltrán19 la racionalidad de los fines no implica que la
ciencia social hubiera de suplantar la decisión política llegándose con ello a la engañosa
utopía del gobierno de los sabios. Por el contrario, de lo que se trata es del ejercicio
racional de la crítica de fines que no tiene por objeto absolutizar ninguno de ellos, sino
más bien corromper la fe en el pretendido carácter absoluto de alguno de esos fines.
Tampoco se trata de que a la ciencia social pueda darle igual un fin que otro: siempre la
justicia será mejor que la injusticia o la libertad mejor que la opresión, y la ciencia
social deberá señalar la injusticia implícita en posiciones que se pretendan justas, o los
recortes a la libertad que se presenten como conquistas de la libertad. No hay, pues,
vestigio alguno de relativismo axiológico en la negación del dogmatismo, sino sólo la
constatación de que el papel normativo de la ciencia social es más bien de crítica que de
propuesta, y que, en el caso de esta última, tratará de defender valores y no programas
políticos concretos.
Por otra parte, los objetivos de la investigación no son sólo fines científicos sino
también extracientíficos; no pertenecen en forma exclusiva a las comunidades
científicas sino a las distintas comunidades histórico-sociales de las cuales aquéllas
forman parte. De igual manera, las prácticas científicas integran las prácticas sociales
y por lo tanto se rigen --aunque con cierta autonomía, que tal vez sea mayor a la de otras
prácticas específicas--, por las relaciones de poder existentes en ellas. Con otras
palabras, los “fines valiosos” de la investigación científica son también --y por lo
general, primero--, “fines valiosos” para la comunidad en la cual los investigadores
están insertos, es decir, que hay un “a priori histórico” que incluye el imaginario social20
y que brinda las condiciones de posibilidad o imposibilidad de conocimiento; pero
además, la racionalidad científica no es la única existente sino que está contenida,
controlada y subordinada a la racionalidad del poder que no siempre coincide con la
racionalidad del saber.
Precisamente, el control es otro de los rasgos que caracteriza al proceso de
investigación y puede ser analizado desde diferentes perspectivas. Existen controles
metodológicos, epistemológicos, filosóficos, sociales, políticos-ideológicos,
económicos y éticos. Hay controles internos al proceso de investigación (especialmente
metodológicos) que apuntan a erradicar el mayor número de errores y sesgos posibles
sin que por ello se alcance la absoluta objetividad del conocimiento aunque se tienda a
ello (a la objetividad, no a la neutralidad). Hay controles internos a la comunidad
científica (especialmente epistemológicos, filosóficos, políticos-ideológicos,
económicos y sociológicos) que desarrollan sus propios miembros (que por sus intereses
específicos, por la posición que ocupan en el campo científico y por su pertenencia a
18
Ver Saint Simon (1964).
19
Beltrán, Miguel: Cinco vías de acceso a la realidad social, en García Ferrando, M. y otros (1990).
20
Para las nociones de “a priori histórico” y de “imaginario social” ver Díaz, E. (1998 y 2000,
respectivamente).
23
determinados paradigmas) se hallan en competencia/conflicto.21 También están los
controles externos que realizan los grupos de poder y de presión (especialmente
políticos-ideológicos y económicos) que no necesariamente (y por lo general, es así)
procuran una mayor objetividad. Finalmente, están los que ejerce la propia comunidad
en general (especialmente políticos-ideológicos, y sociales) a través de la opinión
pública y de los medios de comunicación. Y atravesando por todos los agentes
mencionados y/o involucrados, desde el comienzo hasta el final del proceso (antes,
durante y después) están los controles éticos-morales como ocurre en toda actividad
humana.
Por último, y porque quizás sintetice e incluya todo lo anterior, habría que
destacar el aspecto crítico de toda investigación y por lo tanto, el perfil crítico que debe
poseer todo científico.22 Y esto por varios motivos que a continuación se explicitarán.
En primer lugar, la decisión de investigar una determinada situación o problema
supone una elección (orientada por valores) entre una gama de posibles problemas. En
segundo lugar, encierra un juicio de valor o, lo que es lo mismo, supone un no estar de
acuerdo ya sea con el conocimiento (o desconocimiento) que se tiene sobre el problema
o con las soluciones que se proponen o ya sea, con el estado en que se encuentra dicha
situación. Y ese desacuerdo se transforma –directa o indirectamente, voluntaria o
involuntariamente--, en una denuncia. Y si esto es así, entonces probablemente –por no
decir en todos los casos--, ocurrirá que esa denuncia se trasladará a quienes hasta ese
momento o bien, son los responsables de dicha situación o bien, se están beneficiando
con la misma. En cualquier caso, quienes se sientan involucrados percibirán esa
denuncia como un ataque a sus intereses y, en tal sentido, van a reaccionar y --entre
otras cosas--, es posible que califiquen a los investigadores --en el mejor y más amplio
sentido del término--, de “subversivos”. Y es correcto, porque investigar supone
subvertir cierto estado de cosas o status quo, independientemente de cuál sea el ámbito
o contexto. A nivel macrosocial --en especial, bajo gobiernos o regímenes autoritarios,
más allá de su signo ideológico--, en donde los argentinos tenemos sobrada experiencia.
Y no sólo en el campo de las ciencias sociales sino también en el de las formales; basta
recordar cómo –durante el último régimen militar--, se prohibieron elementos de las
matemáticas modernas por considerárselos subversivos. En el nivel microsocial –en
una empresa, escuela, oficina, familia, etc.--, cuando se estudia acerca de cómo cambiar
las relaciones existentes, y en el propio plano individual, como ocurre por ejemplo,
cuando el terapeuta subvierte el orden interno de su paciente.
Por último (aunque tal vez tendría que estar en primer lugar), la perspectiva
crítica de la investigación nos remite a la idea de que no se debiera investigar por el
mero hecho de hacerlo --más allá del válido placer que se sienta--, sino que por el
contrario, habría que actuar luego en consecuencia, haciendo uso de los hallazgos
obtenidos. Y no --en el peor de los casos--, archivándolos burocráticamente o no tan
sólo --y en el mejor de los casos--, dándolos a conocer. Dado que de poco sirve estudiar
el nivel de pobreza existente en el país (incluso por los propios organismos oficiales) si
luego no se actúa para erradicarla, o evaluar la calidad del aprendizaje en alumnos
21
Ver por ejemplo a Bourdieu, P. (2000).
22
El perfil crítico de toda investigación es independiente de lo crítico que a su vez resulta ser el método
científico.
24
primarios y secundarios para llegar a la conclusión de su estado deficitario y no hacer
nada para mejorarla. Hace rato que me está dando vueltas una de las tesis que allá a lo
lejos y --valga la redundancia--, hace tiempo elaborara Marx sobre Feuerbach.23 Pero
insisto, esto no invalida o tiende a desconocer la validez e importancia que todo estudio
intrínsecamente tiene, por más que luego no se sirva de él. Por otra parte, aunque lo
anterior ocurriera, toda investigación --como se ha visto en el párrafo anterior--, también
por su propia naturaleza es crítica. Por eso es que muchas veces se la obstaculiza y en
otras tantas, hasta se convierte en una especie de boomerang que se vuelve en contra de
sus autores o patrocinadores.
No obstante lo anterior y parafraseando a Bourdieu de lo que se trata es que la
investigación --aunque resulte paradójico--, “...libere al hombre al liberarlo de la ilusión
de la libertad, o más exactamente, de la creencia mal ubicada en las libertades ilusorias.
La libertad no es algo dado, sino una conquista, y colectiva...”.24 Con palabras más
profanas, lo que se pretende señalar es que la investigación no es o no debiera ser un
proceso aislado sino que, por el contrario, forma parte de un proceso mayor que se
podría denominar “Proceso de Resolución de Problemas”, aceptando como señala
Henri Poincaré que “...no hay problemas resueltos, hay problemas más o menos
resueltos...”.25 Como acota Schuster ninguna investigación comienza si no se detecta
alguna dificultad en una situación práctica o teórica. Es esta dificultad o problema,
quien guía la búsqueda de algún orden entre los hechos en términos del cual la
dificultad pueda solucionarse (Schuster, 1992:15) Por otra parte, uno de los indicadores
para evaluar el “progreso” de la Ciencia es la medida en que va resolviendo --aunque
sea parcialmente-- los problemas o si las teorías sucesivas resuelven más problemas que
sus predecesoras. Precisamente y como se verá, la faceta crítica también está presente
en la definición de lo que es un problema de investigación.
23
Feuerbach, Ludwing (1804-72) filósofo materialista alemán, discípulo de Hegel, a quien Marx criticara
por su incapacidad para relacionar la teoría con la praxis revolucionaria. Precisamente, la tesis nº 11 que
Marx escribiera sobre él decía lo siguiente: “Hasta ahora los filósofos se han dedicado a contemplar el
mundo, de lo que se trata ahora es de transformarlo”.
24
Bourdieu, P. (1993:.27).
25
En Moledo, L. (1994:162).
25
Etimológicamente, la palabra método proviene del griego (metá y odos) y
significa “camino hacia” o “hacia la meta”, es decir, camino a recorrer para alcanzar un
objetivo que cuando se hace referencia a la investigación se traduce en obtener un
determinado conocimiento. La principal función del método es posibilitar (al
explicitarlo) que cualquier otro investigador pueda reiterar la experiencia y comprobar
por sí mismo la validez y legitimidad de los hallazgos. Con otras palabras, el método
hace posible que parcialidades individuales puedan convertirse en parcialidades
compartidas.
Por otra parte, es necesario distinguir entre métodos (o modos) de
pensamiento/razonamiento y métodos (o modos) de investigación (a los cuales se refiere
la frase inicial) y que incluyen a los primeros. Los métodos de investigación son las
formas de actuación, son cursos de acción (Samaja, J., 1993) para la producción y
validación de los conocimientos y por lo tanto, son algo más que uno o varios modos de
pensamiento. Y --parafraseando parcialmente a Kuhn--, los métodos de investigación
se consideran científicos (más allá de los problemas de fundamentación lógica y
gnoseológica) en la medida en que son aceptados, reconocidos y legitimados con su uso
por la comunidad científica o por los científicos pertenecientes a un determinado
paradigma si se tiene en cuenta la heterogeneidad paradigmática de dicha comunidad.
Por eso, es que no corresponde hablar de un anarquismo metodológico o científico en
general sino que a lo sumo esta postura representará los intereses de dicho paradigma.
Pero al mismo tiempo, cabe señalar que los métodos tampoco son propiedad exclusiva
de un paradigma tal como lo demuestra la convergencia paradigmática y/o
metodológica (Pérez Lalanne, 2010). Como bien apunta Bourdieu, el campo científico
goza de autonomía y fuerza de gravedad propias (mayor aun a la de otros campos) y se
rige por lo tanto por sus propias reglas de juego, por los capitales e intereses en juego y
por lo tanto, por las relaciones históricas de poder (Bourdieu, 1999) Y precisamente,
son estas relaciones de poder existentes en el campo científico las que hacen posible que
determinados métodos puedan ser considerados “científicos” o “más científicos” que
otros. Desde luego que esta autonomía es relativa --pensar lo contrario sería pecar de
ingenuidad--, dado que en última instancia todos los campos están sujetos a la lógica
general del espacio social global (que al igual que la de los campos excede los límites
societales) en el cual están insertos. Aunque resulte una verdad de perogrullo estas
reglas de juego responden a la lógica del capital. Y esto último hasta resulta paradójico,
dado que la problemática del método se instaura como una forma de terminar con el
criterio de autoridad hasta ese momento vigente y termina utilizándose para encubrir
otra forma de autoridad. Por supuesto, que esto será motivo de rechazo por quienes
gozan de “autoridad” en el campo científico. Pero al respecto, vale recordar que entre
los dominantes también hay dominados y que en general el consentimiento (a veces
inconsciente) de los dominados, su “complicidad”, es también un efecto incorporado de
la dominación o con otras palabras la raíz de la sumisión es expresión de la
somatización de las relaciones sociales de dominación (Bourdieu, 1995).
En términos generales, el análisis de cualquier método de los considerados
científicos debe contemplar básicamente los siguientes aspectos: supuestos
26
filosóficos/epistemológicos, contenidos formales y sustantivos, características y
elementos. A continuación, se realizará una breve especificación de los mismos.
27
caminos posibles --más allá de sus distintas modalidades que posteriormente se
mencionarán--, para el desarrollo de las investigaciones teórico-empíricas. Este análisis
recoge parcialmente y por lo tanto es tributario del desarrollado en su esquema por
Wallace (1980):
TEORÍAS
Conceptos, Deducción
Proposicio lógica
nes,etc.
Inferencia
lógica
GENERA-
LIZACION DECISION HIPOTESIS
EMPIRICA
Contrasta-
ción de
hipótesis
Medición, Interpretac.
Muestreo, instrument.
parámetros muestreo
OBSERVA
CIONES
Réplica parcial del Esquema desarrollado por Walter Wallace. Los componentes de información se
hallan rectangularizados mientras que los controles metodológicos están ovalizados. La mitad izquierda
corresponde al camino inductivo mientras que la derecha al deductivo. La mitad superior sería la etapa
teórica mientras que la inferior corresponde a la faz empírica de la investigación.
28
para luego mediante construcción y ordenamiento teórico-conceptual elaborar hipótesis
teóricas (teorías de alcance medio o sustantivas y teorías más generales o formales).
b) Método hipotético-deductivo: de lo general a lo particular, de lo abstracto a lo
concreto, de lo universal a lo singular. Las investigaciones parten de la teoría
(hipótesis teóricas) y por deducción lógica desprenden hipótesis sustantivas o
intermedias para luego por procedimientos de interpretación (conceptualización),
instrumentación (operacionalización), escalaje (niveles de medición) deducir
consecuencias observacionales (hipótesis de trabajo o empíricas) y por
procedimientos de muestreo realizar la prueba de las mismas.
En ambos caminos se efectúan procedimientos de contrastación (verificación o
falsación) en procura de evidencias que permitan la toma de decisiones para aceptar,
rechazar o reformular las hipótesis (teóricas o sustantivas) en cuestión.
Cabe señalar que en términos estrictos ninguna investigación es exclusivamente
deductiva o inductiva sino que son predominantemente deductivas o inductivas.
También puede ocurrir que simultáneamente se recorran ambos caminos, que no se
transite ninguno en su totalidad o que se comience a mitad de uno y se llegue por el
otro. Asimismo, existe la posibilidad de partir de una fantasía, delirio, alucinación o
prejuicio que no tenga ni fundamento empírico (observacional) o teórico tal como a
veces sucede cuando se trabaja en el denominado contexto de descubrimiento o en
algunas investigaciones cualitativas.
Simultáneamente a los métodos inductivo y deductivo, existen otras estrategias
con sus partidularidades específicas y muy valiosas por cierto, que o bien son
modalidades de éstos o bien son complementos que parten de diferentes Supuestos
Básicos Subyacentes y que por no ser el propósito de este apartado sólo serán
mencionadas: la inducción analítica, la teoría fundamentada, la etnometodología, el
método axiomático, la comprensión, la fenomenología, el método abstracto-concreto, el
método dialéctico, el método regresivo-progresivo, etc.
27
El listado de características que se mencionan pretende ser una síntesis del valioso aporte realizado por
numerosos autores: Bunge, Ander Egg, Sierra Bravo, Cohen y Nagel, Popper, Goode y Hatt, etc. Al
respecto, ver bibliografía general. A su vez, el orden de las mismas no indica jerarquía y por otra parte,
no son exclusivas de los métodos científicos.
28
Jorge Wagensber en entrevista publicada en el diario Clarín, suplemento Cultura y Nación, del
17/05/90.
29
c) trasciende los hechos, superando la mera apariencia de los fenómenos o como diría
Bourdieu, rompiendo con la “ilusión de la transparencia del mundo social”.
d) se vale de la contrastación empírica (verificación o falsación, exigiendo una
constante confrontación con la realidad, descartando los criterios de autoridad,
tradición, revelación, etc. Tampoco cabe en el método científico lo que Merlau-
Ponty denominó el “dogmatismo del sentido común”.
e) teórico, supone siempre una teoría (o esbozo de ella) a partir de la cual formulará los
problemas y observará la realidad para retornar luego a ella.
f) crítico, autocorrectivo y progresivo: rechaza y/o ajusta permanentemente sus
afirmaciones, se halla sujeto a críticas y exámenes. Sus conclusiones nunca son
finales sino provisorias, se halla abierto a nuevos aportes y a la utilización de nuevos
procedimientos y técnicas.
g) sus proposiciones son generales, ignorando los hechos aislados o únicos; sin
embargo, la universalidad no debe perder de vista la singularidad y además --como
señala Guber (1991)--, debe contemplar la diversidad.
h) aspira a lograr la mayor “objetividad posible”, procurando alcanzar “la verdad
fáctica o científica” sin desconocer los condicionamientos sociales de la práctica
científica.
i) analítico-sintético: desconstruye la realidad estudiada en sus elementos y luego la
reconstruye obteniendo una nueva visión global del conjunto y de las relaciones
estructurales entre los mismos.
j) circular: los enunciados teóricos se prueban mediante datos empíricos y éstos se
analizan o interpretan sobre la base de los primeros.
k) selectivo en un doble sentido: concentra su observación entre los elementos más
relevantes y luego, en el análisis de los datos recogidos procura detectar los más
significativos.
l) fomenta la intuición, la imaginación, la audacia y la creatividad aun en el caso de
que no se atenga estrictamente a las reglas, e incluso a las teorías admitidas
Feyerabend, P., 1984).
Por otra parte, los métodos científicos se valen de un conjunto de elementos que
serán desarrollados más adelante:
30
TEORIA
HIPOTESIS
VARIABLES
CATEGORIAS
CONCEPTOS DEFINICIONES
DIMENSIONES
INDICADORES
INDICES
OBSERVACIONES
31
tipos y modalidades con sus respectivas ventajas, limitaciones y desventajas. Si bien las
técnicas tienen pertenencia paradigmática al igual que lo dicho para los métodos, no son
propiedad exclusiva de los paradigmas ni tampoco de los métodos y por lo tanto, en una
determinada investigación pueden combinarse o triangularse técnicas de distintos
paradigmas y/o métodos (Pérez Lalanne, 2010). Pero al mismo tiempo se debe señalar
que existen técnicas (o convergencias) más adecuadas que otras dependiendo del tipo de
estudio en cuestión al que se hallan subordinadas.
30
Ver bibliografía general.
32
Primer paso: Segundo paso: Tercer paso:
SELECCIÓN DEL DELIMITACION FORMULACION
TEMA O DEL TEMA O DEL PROBLEMA
PROBLEMA PROBLEMA
33
religioso y hasta lo sentimental/afectivo tal como lo hace notar Gouldner (1979) cuando
se refiere a los supuestos básicos subyacentes.
Incluyendo tal vez a los anteriores, un tercer factor es el socio-histórico que nos
remite a la posición del investigador en el espacio social en general y en el campo
científico o subcampo disciplinario, en particular. Al respecto, Bourdieu señala la
existencia de un doble condicionamiento social en cualquier toma de decisión como la
que es motivo de análisis. Por un lado, está el condicionamiento de la posición que
ocupa el investigador en la estructura de las relaciones sociales históricas objetivas y
por el otro, estaría el habitus o la disposición como mecanismo estructurante de la
acción. Parafraseándolo: la toma de posición (elección del tema) es tomada desde algún
punto (posición) que a su vez ha sido internalizado de una determinada manera
(disposición).31
Un cuarto factor es el prestigio; como ocurre en cualquier campo en el científico
existen temas o problemas que son mejor valorados que otros o que le pueden otorgar al
investigador un mayor reconocimiento o relevancia. En algunos casos, el prestigio no
pasa tanto por el tema como por la Institución en la que se investiga, el equipo de
investigación del cual se forme parte o por quien se es dirigido. Hay que tener en cuenta
que en el momento de presentarse a un concurso, beca, trabajo o similar, el investigador
tiene que presentar su currículum vitae en el cual deberá detallar --entre otras cosas--
los trabajos realizados, que serán evaluados de acuerdo a las características
mencionadas.
Un quinto factor es el económico para el cual hay que distinguir dos enfoques:
el costo o la financiación y el rédito o los beneficios. Para analizar el primero tal vez
resulte obvio decir, que son escasas las investigaciones autofinanciadas motivo por el
cual, la ayuda económica es por lo general, externa al investigador. En estos casos, la
financiación o bien proviene del estado (nacional, provincial o municipal) a través de
algunas de sus instituciones, de algún organismo público internacional o de algún
organismo privado (nacional o multinacional). En países como el nuestro --como ya es
sabido--, es escaso (por no decir nulo) el presupuesto destinado a la investigación (y
menos aun cuando se trata del ámbito de las ciencias sociales); motivo por el cual, en la
mayoría de los casos la “ayuda económica” se origina en los otros organismos. En
definitiva, en cualquiera de los casos, el que solventa los gastos suele limitar (cuando no
imponer) los temas para los cuales ofrece financiación, con el agregado de que a veces
los temas no responden a las necesidades de los países en los cuales están radicados los
investigadores sino a problemáticas de los países en donde tienen su sede estos
organismos o con el agravante de que se utilizan a los países donde están localizados los
investigadores como laboratorios o banco de prueba para testear nuevas tecnologías o
políticas de diversas índole y de dudosos resultados como muchas veces ocurre, por
ejemplo en el ámbito de la salud.
Para el análisis de los beneficios a su vez hay que distinguir dos perspectivas: la
del investigador y la de quien la financia. Desde la primera, y si pensamos que el
investigador es un ser de carne y hueso como cualquier otro, con las mismas
31
Bourdieu, Pierre: ver bibliografía general.
34
necesidades, etc. es posible entonces, que al momento de elegir un tema de
investigación lo haga pensando con el bolsillo y se incline por temas que
económicamente sean más redituables aunque intelectualmente o académicamente sean
más pobres o incluso alienantes. Si consideramos la perspectiva de quien financia la
investigación se pueden mencionar diferentes alternativas: a) en algunos casos no
interesa la investigación (ni sus resultados) sino que se la utiliza como uno de los tantos
mecanismos de evasión impositiva. Esto último serviría --en parte-- para explicar por
qué los grandes bancos y empresas tienen fundaciones, institutos, etc. a través de los
cuales canalizan fondos para destinos (uno de ellos, la investigación) que no están
gravados impositivamente o que están exceptuados del pago de impuestos; b) en otros
casos tampoco interesa la investigación (o sus resultados) sino que se la utiliza como
otra forma de realizar publicidad institucional, de manera de mantener o de mejorar la
imagen de la empresa en la comunidad. En este caso, lo importante es que aparezca el
logo o el nombre de la organización auspiciando el evento en cuestión; c) en ciertos
casos, sí interesa la investigación (y sus resultados) y entonces se obliga a los
investigadores a ceder sus derechos intelectuales sobre los conocimientos o hallazgos a
obtener quedando patentados a nombre de quien financia la investigación, con el
agregado de que el patentamiento se realiza en los países centrales y con el agravante de
que a veces se archivan los resultados hasta tanto no se amorticen las tecnologías en
uso, o se dan a conocer en esos países llegando a los nuestros la tecnología descartada
por obsoleta o debiendo pagar en forma alienante por algo que fue hecho en el país.
Un sexto factor lo constituyen los grupos de poder y/o de presión que pueden
favorecer u obstaculizar que se investiguen determinados temas: es abundante la
bibliografía sociológica referida al tema. Al comienzo de este capítulo se hizo referencia
al papel “subversivo” de la investigación y cómo ésta puede afectar determinados
intereses.
Un séptimo factor sería el contexto, la propia situación en la que están insertos
los investigadores que bien puede en algunos casos imponer el tema como ocurre a
menudo en el campo de la salud, en donde en forma imprevista un virus hasta ese
momento desconocido, obliga a los científicos del área a tener que abocarse a su estudio
tal como sucedió con la aparición del Sida.
Por último pero no menos importante y pensando ahora en términos operativos –
especialmente, para el caso de estudiantes, tesistas o investigadores noveles, no había
que dejar de considerar la accesibilidad tanto del tema en sí mismo como,
eventualmente, el escenario en el cual se piensa trabajar o en el cual se piensa obtener
cierta información. No hay dudas que existen temáticas que resultan ser mucho más
accesibles que otras. Particularmente, cuando no se cuentan con muchos recursos
(económicos, temporales, etc.). Al mismo tiempo hay problemáticas sobre las cuales se
sospecha que se va a disponer de abundante información y luego resulta que la misma
es escasa o inexistente o, lo que es peor aún, se nos impide el acceso a ella. Con
respecto a los escenarios no debe perderse de vista que de acuerdo al acceso y
permanencia del investigador, los mismos podrán ser públicos, semipúblicos o privados.
Estos últimos suelen demandar la realización de trámites burocráticos, muchas veces de
resultados inciertos o –directamente— desfavorables.
35
Para terminar y a modo de síntesis tal vez sea conveniente volver a Bourdieu y
recordar que no existen acciones desinteresadas. En el análisis que se está realizando
cabe la posibilidad de incluir los cuatro capitales que él identifica: económico, cultural,
social y simbólico por los cuales estarían interesados cualquiera de los actores
involucrados, especialmente los investigadores. De esta manera toda investigación
constituye una práctica interesada especialmente aquéllas que se autodefinen como
“desinteresadas”. Un caso paradigmático --al que ya se ha hecho referencia--, para
ilustrar la incidencia de los diferentes factores analizados y para mostrar la trama de
intereses (por distintos capitales) en juego es el Proyecto Genoma Humano (Maddox,
1999).
En la mayoría de los casos no basta con haber elegido el tema o con tener
identificado un área-problema: dado que hasta aquí lo que se tiene es la “ideota” o sea la
“idea grandota” acerca de lo que se pretende investigar. Es necesario establecer los
alcances circunscribiendo el campo de análisis y especificando el objeto de estudio: en
términos teóricos, metodológicos y empíricos. Al respecto, me permito sugerir algunas
estrategias para la delimitación que a su vez posibilitarán la formulación del problema:
a) Torbellino de ideas: en primer lugar y con el posible tema en mente habría que
comenzar formulando algunos interrogantes: el primero y fundamental es ¿qué se
pretende conocer o averiguar sobre el mismo? Es decir, ¿adónde se quiere llegar con la
investigación? Posteriormente, habría que preguntarse por ¿quiénes van a estar
involucrados en el estudio?; ¿en dónde se lo piensa realizar, cuáles los momentos que se
van a tomar y cómo se piensa realizar el abordaje? Simultáneamente, ¿Qué es lo que ya
se sabe sobre el problema en cuestión? En segundo lugar, habría que comenzar a
descomponer el tema en sus diferentes aspectos y elementos presentes, procurando
asignarles posibles funciones y estableciendo relaciones entre los mismos. Una vez que
se tienen todas las cartas sobre la mesa y habiendo tomado los recaudos pertinentes de
que no haya quedado algo sin contemplar, se estaría en condiciones de seleccionar
cuáles aspectos y elementos se van a considerar y cuáles se van a descartar. De esta
forma y barajando tentativas respuestas a los interrogantes formulados, se podría
avanzar con las otras estrategias de delimitación y con la formulación del problema. El
propósito es descomponer el tema elegido en sus diferentes aspectos, analizar sus
posibles relaciones, formular interrogantes y sugerir respuestas, evaluar alternativas de
abordaje, etc. para luego seleccionar algunos de ellos y descartar otros. Con otras
palabras, una vez identificado el problema y a los efectos de aclararlo y precisarlo, el
investigador realiza la tarea denominada por Van Dalem y Meyer (1971) “el análisis del
problema”: enumerando los factores o variables que parecen tener relación con el
problema, es decir, problematizando el problema o conviertiendo el problema en un
problema de investigación. De esta manera se estará en condiciones de formular el
problema de investigación con el interrogante inicial, la definición de los objetivos y las
hipótesis.
36
b) Contextualizar la investigación: en términos generales, se trata de acotar el estudio.
Acotarlo temporal, espacial y sociodemográficamente introduciendo variables
contextuales (constantes y/o comparativas)32. Esta tarea supondrá la toma de un
conjunto de decisiones que irán perfilando la caracterización del estudio. En tal sentido,
contextualizar temporalmente una investigación implica decidir si se piensa hacer un
abordaje sincrónico o diacrónico (retrospectivo o prospectivo), comparativo o no
comparativo. Por su parte, la contextualización espacial lleva a decidir el área de
cobertura de la investigación lo cual significará optar –primero— entre realizar un
estudio macro o microsocial y, a renglón seguido, elegir el o los escenarios involucrados
(grupo, institución, área geográfica, etc.). Por último, la delimitación sociodemográfica
supone identificar y caracterizar la población objeto del estudio en función de las
variables consideradas pertinentes (sexo, edad, nivel socioecómico, lugar de residencia,
estado civil, etc.). Cabe señalar que al mismo tiempo y para los tres recortes anteriores,
también estará pendiente la decisión acerca de si se piensa realizar un abordaje
comparativo o no comparativo, en cualquiera de sus variantes. En definitiva, estos
acotamientos constituyen una condición necesaria para encarar cualquier investigación:
“no se puede estudiar el mundo a lo largo de toda su historia” (Sautú y otros, 2005: 36).
Dicho con otras palabras, se trata de determinar tiempo, espacio y población donde se
buscará la evidencia empírica contextualizando las conclusiones que se logren con
dichas evidencias.
Veamos a modo de ejercitación, un ejemplo:
Supóngase que se ha elegido como tema “la discriminación”. Esta problemática
así planteada es prácticamente inabordable. Es ahí cuando se apela a las dos estrategias
anteriormente desarrolladas:
1. ¿Interesa estudiar las características, las causas, los motivos o las consecuencias de
la discriminación?
2. ¿Importa analizar las reacciones de los discriminados y/o de los que no lo son?
3. ¿Es cierto que la discriminación está relacionada con el color de la piel, con el nivel
socioeconómico, el género, la edad, la vestimenta, etc.?
4. ¿Interesa realizar un estudio histórico sobre su evolución o focalizar en lo que
ocurre con la discriminación en la actualidad?
5. ¿El mismo se realizará a lo largo y ancho del país, en CABA/GBA o en algún
escenario más acotado?
6. ¿Cuál va a ser la población objeto de estudio: niños, adolescentes, adultos, ancianos,
hombres y/o mujeres?
7. ¿En cuál ámbito se lo piensa abordar: educativo, familiar, recreativo, religioso,
político, sexual, etc.?
Supóngase –abriendo un paréntesis— que hasta aquí se haya decidido lo
siguiente: “Estudiar las características que tiene la discriminación que padecen los
adolescentes en la actualidad en los boliches bailables radicados en CABA/GBA.” Y se
podría continuar:
8. ¿Importa analizar las reacciones de los discriminados y/o de los que no lo son?
32
Ver el capítulo: Sobre variables, indicadores e índices.
37
9. ¿Interesa saber si la discriminación varía según el tipo de boliche?
10. ¿Importa analizar la opinión de los concurrentes sobre la discriminación?
11. ¿O saber si concurren a sabiendas de que hay discriminación?
12. ¿O además averiguar por los motivos, las causas o consecuencias de la
discriminación?
13. Etc., etc., etc.
38
2. La revisión de experiencias: también consiste en realizar una consulta pero en este
caso a especialistas, idóneos, profesionales, expertos y a todo aquel que posea algún
conocimiento sobre el tema en cuestión y que por algún motivo no ha escrito o
publicado pero que nos puede brindar una información en algunos casos más útil que el
que se puede encontrar en un libro. Esta consulta nos permitirá:
a) conocer bibliografía sobre el tema elegido u otras fuentes de datos;
b) orientar la investigación: enfoques, estrategias y herramientas a utilizar, instrumentos
de medición, conceptualizaciones, etc.;
c) ciertas veces ocurre que sobre el tema en cuestión no existe suficiente bibliografía o
está desactualizada o responde a la realidad de otros países o la misma resulta poco
accesible; en esos casos las entrevistas a especialistas colaboran en la elaboración del
marco teórico de la investigación cubriendo la ausencia de literatura;
39
tratamiento se superpone en alguna medida, con lo expuesto en los apartados anteriores,
considero que el mismo es necesario, especialmente, para destacar el papel que cumple
la teoría.
En un sentido amplio, las “ideas” (dudas, problemas, preguntas, hipótesis,
cuestiones, etcétera) de la investigación reconocen diferentes fuentes de inspiración:
a) el capital cultural/académico/teórico del investigador;
b) su marco ideológico/valorativo;
c) su interés económico/simbólico/cultural/social (Bourdieu);
d) la revisión bibliográfica/de la literatura existente (Selltiz);
e) su experiencia/trayectoria/años de trabajo/olfato/intuición/sentido común;
f) el/los paradigmas existentes/la comunidad/el campo científico (Kuhn/Bourdieu);
g) las observaciones, hechos, circunstancias, contexto, realidad, medios de
comunicación;
h) contradicciones entre los hechos y las teorías existentes;
i) ausencia de explicación/vacíos teóricos/problemas sin respuestas;
j) el análisis de casos típicos y/o atípicos/ casos de estimulación interior (Selltiz);
k) hechos anómalos/datos imprevistos: serendipity denominado por Merton, abducción
por Pierce); 33
l) analogías con otras disciplinas/ciencias;
m) investigaciones/estudios realizados por el mismo o por otros analistas;
n) controversias/intercambios/entrevistas con colegas/especialistas/revisión de
experiencias (Selltiz);
ñ) prejuicios, estereotipos, fantasías (Wallace), conceptos sensibilizadores (Glaser y
Strauss);
o) demanda del cliente/institución/comunidad;
p) marco institucional/académico/laboral del investigador;
q) contexto sociohistórico/relaciones de poder existentes/historia externa/razón
histórica;
r) etcétera.
Como se podrá observar el listado no pretende ser exhaustivo ni las alternativas
excluyentes entre sí. De todos ellas, tal vez merezca un párrafo aparte el marco
institucional, no tan sólo por la cobertura y respaldo que brinda sino por la formación
que posibilita, en especial para los jóvenes o principiantes. Por supuesto, que se está
haciendo referencia especialmente, a la Universidad y sus institutos afines, que son los
ámbitos naturales y por excelencia de la investigación y que por otra parte, es de donde
surgen los científicos. Pero también, cabe mencionar, el papel que tienen que cumplir
los profesores investigadores (particularmente los de mayor experiencia) como
directores de programas de investigación, conductores de equipos y maestros-tutores de
dicha formación.
Sin embargo y en un sentido restringido, es la teoría, en última instancia, el
origen de cualquier proceso de investigación (o contexto de descubrimiento) porque los
problemas de investigación son problemas de conocimiento o de ausencia del mismo (lo
33
Merton, Robert: Teoría y estructura sociales, FCE, México, 1980.
40
que se sabe de lo que no se sabe).34 Es la teoría (a través de sus diferentes
manifestaciones: conceptos, hipótesis, proposiciones, leyes, etcétera) la que avala la
decisión de investigar, la que nutre y orienta la experiencia del investigador, la que
provoca el consenso (o disenso) de la comunidad científica, la que constituye el núcleo
fuerte (o central) de cualquier paradigma o programa de investigación, la que permite
interpretar las observaciones (o los datos), a la que refieren los hechos anómalos o a la
que contradicen los datos, la que se toma prestada de otras disciplinas, la que se reclama
por su ausencia, a la que apela el cliente cuando consulta al especialista, la que se
enseña en la universidad, etcétera.
De la misma manera, es la teoría la que justifica las ideas de la investigación al
establecer su relevancia o fertilidad, al orientar la búsqueda y el diseño de la prueba
(contexto de justificación). En efecto, la teoría permite definir los objetivos de la
investigación, es la que brinda la caja de herramientas conceptuales, la que respalda las
hipótesis de trabajo, la que define las estrategias técnico-metodológicas (que por otra
parte, son teoría en acción), la que establece las evidencias necesarias y el marco de su
interpretación. En tal sentido, cabe recordar, que los datos no hablan por sí mismos sino
que lo hacen a la luz de una determinada teoría, que la realidad se problematiza e
interroga desde la teoría. Como señala Bachelard (1984), el hecho científico “se
conquista, construye y comprueba” (superando los obstáculos epistemológicos) o con
palabras de Bourdieu (1975) “hay que romper con la ilusión de la transparencia o del
saber inmediato” (estableciendo la prioridad epistemológica de la teoría). Con palabras
de Sautu: “...el sostén de una investigación, el andamiaje sobre el cual se construye, son
las teorías, modelos de análisis y conceptos que estructuran un área de conocimiento
aportándole ideas, planteándole dudas, sugiriendo hipótesis y preguntas que
eventualmente constituirán el objetivo de investigación...” (Wainerman y Sautú, 1998:
182) .
Con el propósito de ilustrar lo anterior (pero en especial, el papel de la teoría) se
hará referencia a un caso clásico y “paradigmático” de la Sociología: la “idea de
suicidio” de Durkheim (1992). Y lo por las razones que brevemente a continuación se
desarrollan: 35
1. En sociología, la idea de suicidio (muerte voluntaria) no tiene (o no tenía) un sentido
inmediato, no se planteaba en principio como un objeto sociológico legítimo –desde la
inmediatez y arbitrariedad del sentido común en adelante--, y sí en cambio lo es --y
especialmente, lo era--, para el psicólogo, psiquiatra, médico, etcétera.
2. No son las estadísticas (abundantemente difundidas en la Francia de principios de
siglo XIX) como a menudo se ha sostenido ni la generalización de los procedimientos
estadísticos, lo que hay que invocar para explicar las condiciones de posibilidad de la
sociología del suicidio de Durkheim. Ni siquiera su afán moralizador (por cierto
importante). Porque para él, el suicidio no constituye nunca otra cosa que el síntoma de
un cierto grado de patología de la estructura social. Ni tampoco responde a la
satisfacción de un requisito especulativo o de pura deducción lógica dado que en su
34
Véase el capítulo siguiente.
35
Para un análisis más pormenorizado, veáse Gonthier, F. (1998), en quien me he basado para desarrollar
la ilustración.
41
filosofía social (y moral) no había lugar para la idea del suicidio. En tal caso, la idea de
suicidio sólo encuentra lugar como anomalía que es necesario rectificar o lo que su
teoría positivista de la sociedad pretende hacerse cargo de eliminar.
3. La idea de suicidio se cuestiona sólo en tanto que se presenta como un sinsentido que
es necesario superar porque compromete las condiciones mismas del discurso
sociológico (que es un discurso de y sobre el sentido). Es un caso límite para la
objetivación sociológica que lo convierte en problema antes de darle sentido. Es una
”zona de sombra” que se impone primero como un enigma a priori , una duda que
amenaza con la ausencia de respuesta por parte de la teoría social. La idea del suicidio
constituye desde un punto de vista epistemológico el dilema (¿aporía, paradoja,
antinomia?) por excelencia de la sociología que la induce al “error”: lo individual vs.
lo social, lo subjetivo vs. lo objetivo, la acción vs. la estructura. La idea de suicidio es
de las que obliga al investigador a asumir el riesgo por la fertilidad que la misma
supone, a extremar la imaginación sociológica, la audacia teórica para demostrar la
presencia (determinación) de lo social en un hecho tan “individual” como el suicidio, a
hacerse cargo de los riesgos en las “condiciones más desfavorables” (Wainerman y
Sautú, 1998).
4. Y es la teoría sociológica de Durkheim la que fundamente la idea de suicidio, la que
le da consistencia, asignándole un lugar en sus tesis teóricas. La que vincula la idea
sociológica del suicidio con el hecho social. A diferencia de la perspectiva weberiana,
que postula que todo hecho social es ipso facto un hecho sociológico, para Durkheim la
conexión entre lo social y lo sociológico no queda certificada de manera inmediata sino
que se articula (construye) teóricamente: no puede decirse nada sociológico sobre el
suicidio sin haber formulado previamente una teoría sociológica que lo defina como
objeto teórico. No se trata de “atomizar y luego sumar” –como lo pretende el estilo
empirista inductivo ingenuo (y no tanto)– para llegar al hecho científico, se trata de
“conquistar, construir y comprobar” el hecho científico. Sólo la construcción teórica
permite resolver la antinomia entre individuo y sociedad posibilitando que la razón
sociológica tome conciencia de sí misma.
42
CAPÍTULO 3: EL PROBLEMA DE INVESTIGACIÓN Y SU FORMULACION
36
Adorno, T. (en Popper, K. y otros, 1978:45).
43
2. La formulación del problema de investigación
¿Qué opinan los ciudadanos sobre la sanción por ley de la obligatoriedad de los
debates presidenciales entre los candidatos?
44
¿La satisfacción con un producto, garantiza la fidelidad de marca por parte de los
usuarios?
¿La elección de los lugares de compras por parte de los consumidores se realiza en
función de las promociones que ofrecen las tarjetas de crédito?
¿Por cuáles motivos las víctimas no realizan las denuncias pertinentes por los delitos
padecidos?
¿Cómo han impactado las redes sociales virtuales en el estilo de vida de los adultos?
45
Objetivo general:
Estudiar la opinión de los ciudadanos sobre la obligatoriedad legal de los debates
presidenciales.
Objetivos particulares:
Analizar si existen diferencias en la opinión según el lugar de residencia (CABA o
GBA).
Determinar si la opinión varía en función del sexo, edad y nivel socioeconómico de
los ciudadanos.
Averiguar si la opinión es contraria cuando se es simpatizante del candidato
oficialista y/o presunto ganador.
Indagar acerca de los principales motivos que brindan los ciudadanos para sustentar
sus posturas.
Identificar los principales temas que –según los ciudadanos– deberían ser incluidos
en el debate.
Objetivo general:
Investigar el impacto de las redes sociales virtuales en el estilo de vida de los adultos.
Objetivos particulares:
Elaborar una radiografía de usuarios de redes sociales según frecuencia y
características de participación, sexo, edad y nivel de estudios.
Describir –desde la perspectiva de los usuarios– los cambios provocados por las
redes en sus estilos de vida.
Analizar las principales actividades socioculturales realizadas en el último mes:
prácticas deportivas, concurrencia a espectáculos, reuniones con amigos y/o familiares,
lecturas de libros, etc.
46
palabras, el estado del arte nos informa acerca de cómo se encuentra el avance del
conocimiento en el momento de realizar la investigación y cuáles son las tendencias
existentes para el desarrollo de la problemática que se piensa abordar.
Asimismo, el estado del arte le sirve al investigador como referencia para asumir
una postura crítica frente a lo que se ha hecho y lo que falta por hacer en relación a la
problemática, para evitar superponer esfuerzos, para evitar errores que ya fueron
superados. Esto explica que no puede considerarse como un producto terminado dado
que hasta puede referirse a investigaciones en curso, sino como una contribución que
genera nuevos problemas para nuevas hipótesis de investigación y representa el primer
y más importante insumo para dar comienzo a cualquier estudio (Londoño Palacio y
otros, 2014).
En cambio el marco teórico implica, por un lado, explicitar desde dónde se
piensa abordar el problema y, por el otro, su desarrollo conceptual. La primera cuestión
supone la decisión acerca del abordaje disciplinario, interdisciplinario,
multidisciplinario o transdisciplinario (Gibbons et al, 1997) y desde cuál/es
perspectiva/s paradigmática/s se lo va a hacer. Esto significa que se ha hecho una
revisión de las diferentes disciplinas y posturas epistemológicas respecto a las
categorías de análisis que hacen a la comprensión del problema. Mientras que la
segunda cuestión implica la conceptualización del fenómeno que se piensa estudiar.
Con otras palabras, el marco teórico ofrece los fundamentos de la respuesta
teóricamente concebida: constituye el argumento elegido por el investigador como el
mejor –ante otros argumentos alternativos– para responder a la pregunta inicial.
Como señala Sautú (2005) el marco teórico constituye un corpus de conceptos
de diferentes niveles de abstracción articulados entre sí que orientan la forma de
aprehender la realidad. Incluye supuestos de carácter general acerca del funcionamiento
de la sociedad y la teoría sustantiva o conceptos específicos sobre el tema que se
pretende analizar.
Se podría señalar que hay autores o posturas –como por ejemplo, el
interaccionismo simbólico desde quien fuera su fundador Herbert Blumer en adelante–
que sugieren evitar el marco teórico previo y, en tal caso, efectuar la consulta al mismo
a posteriori, debe aclararse que aún en esos casos es prácticamente inimaginable que el
investigador puede despojarse totalmente de la totalidad de su propia formación.
El marco teórico conduce a la formulación de hipótesis, proporciona los
principales conceptos, orienta sobre cómo se realizará la investigación (estrategia
técnico –metodológica) y provee del marco interpretativo de los resultados
(Achaerandio Zuazo, 2010).
De lo anterior se desprende que el marco teórico puede ser elaborado con
aspectos parciales de una o varias teorías. Al mismo tiempo puede nutrirse de
testimonios brindados por especialistas entrevistados e información provenientes de
otras fuentes: periódicos, otras investigaciones, internet, etc. Asimismo, puede incluir
datos secundarios y hasta –como complemento– del desarrollo de un breve marco
histórico que permita contextualizar la problemática en tratamiento. Por tales motivos,
queda claro la no concordancia entre teoría, estado del arte y marco teórico. En el
capítulo siguiente se desarrollará el tema de las hipótesis.
47
CAPÍTULO 4: LAS HIPOTESIS EN LA INVESTIGACION CIENTIFICA
1- Teorías e Hipótesis:
La teoría, por lo tanto, no es pura especulación, sino algo construido sobre una
serie de hechos. Ahora bien, estos hechos, debidamente conceptualizados
pueden ser analizados lógicamente y, por consiguiente, partiendo de ellos, es
posible deducir nuevas relaciones que todavía no han sido afirmadas por la
teoría. (BOUDON y LAZARSFELD: 47 a 49)
48
Por ello el científico se ve obligado a plantearse nuevos interrogantes y a
efectuar una nueva elección. Después de haberse preguntado qué y en la
determinación del problema, debe inquirir ahora ¿ cuál es la solución o
soluciones probables a la cuestión planteada? En contestación a esta pregunta
ha de efectuar, entre las diversas explicaciones posibles del fenómeno que se le
ocurran, la elección de aquella o aquellas que le parezcan más plausibles o
verosímiles, a fin de proceder a la comprobación en la investigación de su
validez. Esta explicación o solución posible elegida no es otra cosa que la
hipótesis. (SIERRA BRAVO.R, 70 y 71)
Las hipótesis representan, pues, otra nueva concreción del tema a investigar,
necesaria para proceder con el debido orden en la comprobación científica. Precisan, en
general, el objetivo de ésta y orientan la búsqueda de explicación al problema
planteado, lo que equivale a decir que iluminan el proceso de la investigación en sus
distintas fases. Por todo ello, las hipótesis son básicas en toda investigación científica.
49
en los Estados Unidos, el propio Einstein en su defensa de su uso pronunció la famosa
frase “no hay nada más práctico que una buena teoría”.
Podemos asimilarlas a un faro que echa luz sobre el camino a recorrer en la
elucidación del problema general o de los problemas particulares que se plantean en el
transcurso del proceso de investigación.
Además señalan el rumbo y los contornos del camino a recorrer por el
investigador, marcando un derrotero concreto. Podemos asimilarlo a las hojas de
navegación que emplean los pilotos de barcos para guiarse en el océano, o a las
estrellas que usan de guía para enfilar mejor el rumbo hacia su destino.
Pero ¿ qué sucede si ese rumbo es el equivocado y nos lleva a conclusiones
falsas, ya que a priori, si toda hipótesis es una conjetura, bien puede ser refutada por los
hechos?.
La respuesta es que esto no hace más que reforzar la importancia de las hipótesis
como herramienta indispensable, ya que la ciencia avanza tanto demostrando lo
verdadero como refutando lo falso.
Por lo tanto, si una hipótesis es refutada como consecuencia de las instancias que
llevan a su prueba, ya sabemos por donde no debemos marchar, abriéndose entonces
para a ese u otros investigadores un panorama que le permitirá encarar nuevas
orientaciones, sabiendo que no tropezará con la misma piedra.
Entonces, aunque en algunos trabajos el investigador no ha planteado
explícitamente sus hipótesis, situación frecuente en algunos campos, como así también
en los esquemas exploratorios o formulativos, esto no significa que el mismo no se haya
efectuado preguntas o interrogantes frente a la situación o problema que tiene por
delante.
Esas preguntas e interrogantes no son si embargo otra cosa que hipótesis que
subyacen a lo largo de un trabajo que en apariencia se llevó solo por objetivos.
En el caso puntual de la investigación exploratoria precisamente, lejos de desconocer las
hipótesis, a menudo el mismo se orienta a una elaboración y explicitación de las
mismas.
Y aún así ¿que lleva a un investigador, que no explicita sus hipótesis, a
privilegiar o simplemente seleccionar unos objetivos descartando otros?
Simplemente su enfoque experto del tema, edificado sobre innumerables
hipótesis subyacentes en su pensamiento, o en la experiencia acumulada. También
puede jugar un papel la intuición del experto, en la medida que la podemos definir como
proyección informal o inconsciente de experiencia o conocimiento acumulado.
Suele también decirse ¿no son acaso famosos hallazgos científicos en los que los
aspectos fenomenológicos evidenciados por la propia casualidad llevaron a la solución
de un enigma o problema?
En esta línea aparentemente se encuentran el principio de Arquímides sobre el
comportamiento de los cuerpos sumergidos o la sorpresa de Fleming al hallar
inesperadamente muertas las bacterias de un grupo de sus cultivos, lo que lo llevó al
descubrimiento de los efectos antibióticos de la penicilina, etc.
50
Pero el genio de Arquímides no se funda en haber corrido desnudo por las calles
de su ciudad presa del entusiasmo gritando “ lo hallé, lo hallé ”, sino en haberse
planteado (post facto) la hipótesis que daba respuesta al hecho sucedido.
Asimismo el hallazgo “casual” o “accidental” de Fleming no hubiera llegado a
constituirse en el aporte monumental que implicó para la salud humana, sin haberse
ligado en su mente a la elaboración y prueba del sitema de hipótesis que explicaron el
“accidente”.
Precisamente este planteo sistemático de hipótesis como parte de una estrategia
de indagación, marcó, según muchos epistemólogos e historiadores de la ciencia, el
paso de la actitud precientífica a la científica, ya que en la propia persona de
Arquímides se dieron ambos roles.
En el campo de la investigación social en particular, la elaboración de hipótesis
presenta algunas dificultades especiales, debidas por un lado al alto grado de
abstracción teórica de los conceptos utilizados y a la habitual pluricausalidad de los
problemas o fenómenos estudiados.
También cabe volver a hacer algún comentario respecto a la diferencia en el uso
y construcción de Hipótesis en el campo de la investigación académica / científica y en
el de la investigación “por encargo o por objetivos”, (Ejemplo típico estudios de
mercado o de satisfacción del cliente).
Si bien una revisión de las investigaciones del segundo tipo parece asegurar que
no poseen marco teórico e hipótesis explícitas, siempre presentes en las primeras, no
debemos perder de vista que en las segundas las preguntas concretas que se formulan en
las encuestas, cuestionarios o los contenidos de las guías de pautas para entrevistas,
surgen del conocimiento teórico que los investigadores poseen sobre el problema
concreto, y de las hipótesis derivadas del mismo.
No podemos dejar de lado el papel de la utilidad de la hipótesis en la
delimitación del campo de investigación en ciencias sociales. En este sentido, la
investigación social no trata de teorías más o menos abstractas, sino que formula
problemas concretos. También otra de sus finalidades consiste, por lo tanto en concretar
el problema de interés.
51
3.1 - Definiciones:
Hipótesis Científica:
Concepto:
El concepto, fruto de una abstracción, consiste en la representación mental de un
objeto, situación o fenómeno.
Variable:
En ciencias fácticas (las que estudian hechos o fenómenos, tales como biología,
física, sociología o psicología experimental): Todo concepto que puede asumir distintos
valores, características o atributos susceptibles de medirse.
En filosofía, metafísica o religión (que estudian absolutos, valoraciones, etc, no
sujetos a supuestos o comprobación empírica): Todo concepto que puede asumir
distintas categorías, no necesariamente mensurables.
Cabe mencionar el caso especial de las matemáticas, el álgebra o el cálculo en
general, que a pesar de trabajar con signos y símbolos conceptuales, también emplean
variables abstractas que permiten establecer mediciones.
- Las mismas deben ser específicas y concretas, ya que si son demasiado amplias y
generales no se podrán verificar directamente.
52
- Deben tener cierto alcance general, es decir trascender uno o pocos hechos, apuntando
al valor trascendente del saber.
Ejemplo de Hipótesis de una sola variable: Las nubes están compuestas por
gases; Los hombres son mortales; Este árbol es viejo; o El capital depositado ha
aumentado. Como se aprecia se trata en general, de enunciados descriptivos.
A) Según su función
D) Según su planteo temporal respecto al acaecimiento del hecho del que dan cuenta
E) Según su direccionalidad
A) Según su Función:
Aquí se tiene en cuenta el papel que dentro de ellas tienen las variables, en
relación con los planos teóricos y empíricos y su relación dentro de una investigación.
No debemos olvidar que en investigación científica, las hipótesis de alto nivel
teórico no pueden ponerse a prueba en forma directa. Por lo tanto de ellas deben
53
derivarse lógicamente consecuencias observables, que son las que finalmente se
contrastan empíricamente. Este proceso es llamado “operacionalización de variables”.
Una de las clasificaciones por función más citada, tanto en la bibliografía
metodológica local y extranjera se debe a nuestro compatriota Manuel Mora y Araujo
(MORA y ARAUJO: 1973,15), que define:
Sin embargo, es común encontrar otros autores (ANDER –EGG: 1983, 75), que
hacen referencia a hipótesis sustantivas cuando estas tratan de la realidad social, lo que
puede llevar a confusión.
Por lo tanto hemos desarrollado una clasificación propia, tomando los aportes de
diferentes autores, que entendemos adecuada ya que elimina las contradicciones y que a
la vez mantiene poder explicativo.
Estas poseen alto contenido de abstracción, elaboradas con variables conceptuales que
no contienen referentes empíricos o vinculados con una realidad inmediatamente
asequible.
Ejemplo I:
1. Hipótesis Teórica:
54
3. Hipótesis de trabajo o Empíricas:
Constituidas a partir de definiciones operacionales o indicadores, directamente
contrastables y mensurables, utilizadas en una investigación concreta.
Aquellos jóvenes que adquieren tempranamente un manejo del paquete office tienen
mayor posibilidad de obtener puestos con mejores salarios y condiciones físicas de
trabajo que aquellos que no poseen esa capacidad.
4. Hipótesis de generalización:
Permiten extender las conclusiones tomadas para las muestras al conjunto o
población de sujetos o fenómenos.
Las provincias que introducen igualitariamente programas de capacitación temprana en
herramientas informáticas, es más probable que disminuyan la diferencia de calidad en
los puestos de trabajo entre los jóvenes que provengan de familias de ingresos
económicos desiguales al momento de obtener el primer empleo, respecto a aquellas
que no lo hacen.
Ejemplo II:
El éxito del capitalismo temprano en los Estados Unidos, estuvo fuertemente vinculado
a la postergación de gratificaciones por parte de la burguesía.
55
4. Hipótesis de generalización
Dado que en una muestra de países (durante los siglos XVIII a mediados del XX) se
halló que una forma de vida austera entre los propietarios capitalistas estaba relacionada
a grandes reservas de capitales, es probable que en los demás países en que se dio esa
misma costumbre, también hayan existido grandes reservas de capitales.
Ejemplo III:
Cuanto más puntos obtenga un trabajador en el test de “Conformidad con sus tareas”
menos cantidad de faltas presentará en su registro de asistencia.”
4. Hipótesis de generalización
1. Hipótesis descriptivas:
1.1 Asociativas: Plantean relaciones no paramétricas entre las variables que las
componen. En este caso las variables son cualitativas.
Ej: “El estado civil de los varones está asociado al tipo de actividad recreativa
desarrollada”.
56
1.2 Correlacionales: Plantean la existencia de relaciones de tipo estadístico o
paramétricas entre variables cuantitativas o cualicuantitativas:
Ej: “La tasa de mortalidad aumenta a medida que se eleva la tasa de desocupación”.
“El índice de riesgo país disminuye a medida que aumentas las reservas depositadas en
el Banco Central”
2. Hipótesis Explicativas:
Dan cuenta del porqué o causa de los fenómenos.
A su vez se subdividen en:
2.1. Causales o Determinísticas:
Plantean la existencia de una relación causa-efecto ineluctables. Son poco comunes en
las ciencias sociales y más frecuentes en las físico-naturales.
57
2.3.1. Fundadas en leyes teóricas:
Por ejemplo la predicción futura de la posición de un planeta del sistema solar, en base a
las leyes de Kepler.
La fuerza gravitacional en cualquier planeta del sistema solar a partir de las leyes de
Newton.
Variable contextual: Provincia analizada. (Si se hace un estudio comparativo entre dos o
más)
D) Según su planteo temporal respecto al acaecimiento del hecho del que dan
cuenta:
58
Ej: Es probable que mañana aumenten los valores bursátiles debido a las medidas
financieras tomadas hoy por el gobierno.
2 Post-Facto:
Ej: El comportamiento del día de hoy de las acciones probablemente se debió a las
medidas tomadas ayer por el gobierno.
1 Unidireccionales o Asimétricas:
El sexo influye en la elección del tipo de carrera.
2 Bidireccionales o Simétricas:
Los conflictos hogareños pueden provocar dificultades en el aprendizaje escolar de los
niños. (Ya que las dificultades en el aprendizaje escolar de los niños pueden provocar
conflictos hogareños)
El nivel socioeconómico del sujeto influye en la jerarquía de sus contactos sociales. (Ya
que la jerarquía de los contactos sociales influye en el nivel socioeconómico”
F) Hipótesis Nula
Son aquellas que en el contexto de la investigación y teniendo en cuenta el principio de
refutabilidad, el investigador desarrolla para tratar de demostrar que no se verifican.
Por lo tanto si la hipótesis nula no se puede refutar, se convalida transitoriamente la
hipótesis original de la investigación
59
CAPÍTULO 5: REDUCCIÓN DEL PROBLEMA A NIVEL EMPÍRICO
60
explicar qué es un “gato” (el felino) habrá que imitarlo (en su forma de maullar,
etc.), dibujarlo o directamente mostrarlo.
La definición operacional, como su nombre lo indica, es una definición de trabajo.
Informa acerca de cuáles son los procedimientos para la medición del concepto o
provee de referentes empíricos (indicadores). Dicho de otro modo, mediante la
operacionalización se definen las consecuencias observacionales de las hipótesis que
permitirán recoger las evidencias necesarias para su comprobación o refutación. En
definitiva, se obtienen hipótesis empíricas. A este tipo de definición se volverá más
adelante.
Engels afirmaba que la investigación era “el arte de operar con conceptos”. Sin
embargo, uno de los problemas (obstáculo epistemológico) que enfrentan las ciencias
sociales es el de ocuparse de un “objeto que habla”, corriendo el investigador el riesgo
de sacar los conceptos de la boca de sus informantes sustituyendo sus prenociones
(sociología espontánea del científico) por las prenociones de los sujetos que estudia
(sociología espontánea del objeto) o con una mezcla falsamente científica y objetiva de
ambos. Esto último, estaría justificando la necesidad de las definiciones. No obstante,
estos conceptos tampoco deben ser entendidos meramente de manera “intelectiva” como
conjuntos de términos bien definidos (conceptual y operacionalmente) sino como
conocimientos que aspiran a reflejar en el “objeto construido”, la existencia y el
movimiento del “objeto real”. Por tal motivo, se debe evitar –como ya se señaló– el
“fetichismo del concepto o del texto autonomizado” en el que caen algunos análisis
semiológicos y/o postmodernistas. Los conceptos son “cajas de herramientas” que se
supone fijan, de alguna manera, la identidad de conjuntos de fenómenos. Pero estos
fenómenos no se integran en un mismo conjunto porque son nombrados por una misma
palabra (o definición) sino que previamente formaban parte de un conjunto particular de
fenómenos. En suma, “ni la ‘audacia sin rigor’ de la filosofía social ni el ‘rigor sin
imaginación’ del positivismo hiperempirista” (Bourdieu, 1975).
61
formular relaciones descriptivas, explicativas o predictivas sobre la misma, predicar
algo acerca de su comportamiento, etc.
Un concepto se convierte en variable cuando se aplica como propiedad de
determinadas unidades de análisis (Corbetta, 2007). En definitiva, las variables
presentan dos características fundamentales: por una parte ser características
observables de algo, y por otra ser susceptibles de cambio o variación con relación a los
mismos o diferentes objetos (Batthyány, K., 2011). En definitiva, los términos
constantes son conceptos que no se someten a variación en una investigación –de ahí su
nombre–. Cuando el término adopta más de un valor, se lo denomina –justamente–
variable.
Por ejemplo, supóngase que se trata de llevar a cabo un estudio sobre los
egresados universitarios. El concepto “egresado universitario” una vez definido va a
permanecer constante a lo largo de toda la investigación. En cambio, entre los
egresados existe una multiplicidad de características, propiedades, etc. (género, edad,
religión, inserción laboral, profesión, nivel salarial, estado civil, etc.) que podrán
presentarse de diferentes maneras en cada uno de ellos. Estas últimas son variables.
Si las variables son conceptos que asumen diferentes valores esos valores se
denominan categorías. Dicho de otro modo, las categorías son las distintas alternativas
que –a los fines de una determinada investigación– presenta la variable; alternativas en
las cuales serán clasificadas o agrupadas las unidades que constituyen el universo de
estudio.
Por ejemplo:
Variables Categorías
62
3.1. Principios que rigen la categorización de una variable:
63
3.2. Factores que inciden en la categorización de una variable
Más allá de los principios anteriores, existen otros factores de los cuales depende la
categorización de una variable:
64
civil” no suele corresponderse con el que cultural o el que socialmente la gente le
asigna, y por lo tanto, puede ocurrir que “separados, divorciados, solteros, unidos de
hecho y hasta viudos” jurídicamente hablando sean socialmente definidos como
“casados”.
En concordancia con lo anterior, otro factor es el objetivo o las necesidades de la
investigación: ¿interesa conocer el status civil legal o social? Si se trata de los
primero, habrá que especificar claramente la variable (“estado civil legal”), en
cambio si se trata de lo segundo se debería especificar “situación de pareja o
matrimonial” y tal vez baste con dos categorías: “con pareja estable / sin pareja
estable”.
También merece destacarse la relación entre categorización-
conceptualización de la variable-marco teórico de la investigación: debe existir una
correspondencia entre los tres aspectos y no que la conceptualización y/o la
categorización nada tengan que ver con el marco teórico. Por ejemplo, si en el marco
teórico se ha desarrollado la problemática de las clases sociales desde una
perspectiva marxista no se debería conceptualizar la variable y menos aún
categorizarla siguiendo los lineamientos funcionalistas y terminar hablando de
niveles socioeconómicos bajo / medio / alto.
Otro elemento condicionante son las características “objetivas” del contexto de
investigación; si se trata por ejemplo, de estudiar cómo se distribuye la población
estudiantil de una universidad (del país) según su nacionalidad, se podría prever:
argentino / peruano / boliviano / uruguayo / etc., pero no tendría sentido: noruego /
italiano / francés / etc. A lo sumo (y para cumplir con la exhaustividad): otras
nacionalidades u otras americanas / otras no americanas.
Relacionado con lo anterior está la posibilidad de acceder a determinadas unidades
de análisis y/o de información; por ejemplo, en el campo de las investigaciones de
mercado/marketing/publicidad se suele categorizar a la variable NSE en ABC1 / C (2
y 3 o amplio) / DE. Sin embargo, últimamente, diferentes consultoras/agencias/etc.
se están cuestionando hasta qué punto es legítimo incluir en sus estudios los niveles
A y B (niveles socioeconómicos muy alto/alto), cuando prácticamente –por un
problema de imposibilidad de acceso o de contacto efectivo–, no se hallan
representados en la muestra.
La categorización también depende de cómo haya sido formulada la hipótesis; en
efecto, muchas veces en las hipótesis no aparecen explicitadas las variables y sí en
cambio las alternativas que –desde luego–, son las que deben tenerse en cuenta. Por
ejemplo: “en las universidades argentinas, mientras que las mujeres se inclinan
mayoritariamente por carreras humanísticas, los hombres optan por carreras no
humanísticas”; aquí ya están expresadas las categorías de ambas variables: carrera
universitaria (humanística / no humanística) y sexo (hombre / mujer).
Con respecto a esta última variable –y aunque se tengan que reiterar algunas
consideraciones–, dos comentarios (que están referidos a la conceptualización y a los
objetivos de la investigación): a) en la actualidad suele diferenciarse entre sexo y
género porque mientras el primero aludiría a características exclusivamente
65
biológicas o anatómicas (hombre / mujer) el segundo se referiría a “diferencias
psicológicas, sociales y culturales” (masculino / femenino) entre hombres y mujeres
que no son biológicas en su origen (Giddens,1989); al mismo tiempo, habría que
distinguir con la autodefinición que consta en el documento de identidad dado que en
la actualidad es la persona quien legalmente decide el sexo con el que quiere
aparecer en el documento; b) con frecuencia –y especialmente entre los alumnos– , la
variable “sexo” cuando llega el momento de categorizarla suele generar
“comentarios o murmullos” acerca de cuáles son sus alternativas “confundiéndosela”
con la variable “sexualidad”. Si el objetivo tiene que ver con esta última, entonces
habrá que especificar que la variable ya no es “sexo” (o género), que su
conceptualización apunta a la práctica sexual y que lo mismo ocurre con su
categorización (que distinguirá entre heterosexuales / bisexuales / homosexuales /
asexuales).
Por último, las categorías de una variable dependen de su naturaleza; es decir, si es
cualitativa o cuantitativa (ver desarrollo del punto 5). Dicho de otro modo, es
aconsejable categorizar las variables con el máximo nivel de medición posible tal
como a continuación se analizará.
Cuando se categoriza una variable se está construyendo una escala; toda escala
es un instrumento de medición. En su acepción más básica y general, medir significa
ordenar a lo largo de un continuo. Existen diferentes niveles de medición que dan lugar
a distintos tipos de escalas:
66
Niveles de medición o escalas intervalares y racionales: estas escalas además de
agrupar según semejanzas y diferencias (como la nominal), de establecer un orden
jerárquico (como la ordinal) brindan información sobre la distancia existente entre
una posición y otra de la escala. Dicho de otro modo, no sólo explicitan una relación
de “mayor o menor que” sino además de “cuánto mayor o menor que”. Básicamente
y sin entrar en las cuestiones estadístico-matemáticas, la diferencia entre ambos tipos
de escalas en principio se encuentra en el punto de origen empleado, o sea, en el tipo
de 0 (cero) utilizado. Las escalas intervalares se valen de un 0 (cero) arbitrario
mientras que las racionales emplean un 0 (cero) absoluto. Un cero arbitrario es un
punto de origen convencional que no implica ausencia de lo que se está midiendo:
simplemente constituye una posición más dentro de la escala que tampoco
necesariamente es la primera. Por ejemplo: la escala con que habitualmente se mide
la temperatura ambiente (0º no significa ausencia de temperatura) o los católicos la
historia (nacimiento de Cristo no implica ausencia se historia) o la altura
(considerando como punto de partida el nivel del mar), etc. Por su parte, el 0 (cero)
absoluto es un cero natural, que sí supone ausencia de lo que se está midiendo
(además de ser una posición más dentro de la escala y por lo general la primera). Por
ejemplo: la escala del velocímetro, de la balanza o del sistema métrico decimal.
Con respecto a los diferentes niveles de medición, corresponde hacer algunos
comentarios:
a) El hecho de que las posiciones de la escala estén numeradas no significa que la
misma sea intervalar o racional. La escala de la ruleta (0 a 36) es nominal; el orden
de largada o de llegada de una carrera es ordinal; la escala de calificaciones (0 a 10)
es ordinal, etc.
b) La circunstancia de que en la categorización de una variable no esté explicitado el
cero no significa que no exista (nivel de ingresos: hasta 500 / 501 a 1000 / 1001 a
1500/ etc.).
c) El hecho de que ninguna unidad de análisis asuma o pueda asumir el valor cero, no
implica que este sea arbitrario; en el ejemplo anterior, aunque todos los individuos
tengan algún ingreso (en pesos) el cero es absoluto (porque precisamente niega la
existencia de ingreso) y de hecho están quienes no lo tienen. En esos casos,
convendría agregar la categoría “sin ingresos” o su equivalente “0 ingreso”.
d) Una misma variable –tal como se indicó más arriba– según su naturaleza, puede ser
categorizada con diferentes niveles de medición. Lo correcto es emplear la escala
que brinde mayor información aunque luego se utilice un nivel inferior. Por ejemplo:
cantidad de materias aprobadas, en lugar de: pocas / regular / muchas, lo correcto
sería: de 0 o ninguna / 1 a 10 / 11 a 20 / de 21 a 30 / más de 30.
e) De lo anterior se deduce que cuando las variables son cualitativas corresponde que
sean categorizadas en forma nominal u ordinal; mientras que cuando son
cuantitativas, lo correcto sería categorizarlas en forma intervalar o racional según
corresponda o lo permita la variable.
67
5. Clasificaciones de las variables
68
medición se emplean indicadores cuantitativos (por ejemplo cuando se
operacionaliza nivel de capacitación por la cantidad de cursos realizados o grado de
inteligencia por la cantidad de problemas resueltos en una unidad determinada de
tiempo). En estos casos, habrá que revisar o bien la conceptualización o bien su
operacionalización.
Existen variables que por su grado de complejidad o por su operacionalización
contienen indicadores continuos y discretos. Para tales casos, esas variables serán
cuantitativas discretas (por ser el menor nivel de medición) o cuantitativas a secas o
bien, cuantitativas continuas si sólo se consideran los valores de índices (por
ejemplo: nivel económico de una persona medido por su nivel de remuneraciones y
cantidad de propiedades).
Las variables cuantitativas (continuas o discretas) también pueden subdividirse en
agrupadas o no agrupadas, de acuerdo a si a los efectos de su categorización la serie
numérica utilizada es en intervalos simples o agrupados (por ejemplo: cantidad de
hijos 0 / 1 / 2 / 3 / 4 / 5 o más, o 0 / 1 a 3 / 4 a 6 / etc.
Por último, las variables cualicuantitativas son aquellas que por su
conceptualización y/o por su operacionalización, se refieren o contienen aspectos
cualitativos y cuantitativos, es decir, que miden tanto atributos como magnitudes. En
todos los casos, son variables complejas que a los efectos de su tratamiento serán
cuantificadas (por ejemplo: nivel socioeconómico).
independientes
dependientes
contextuales
antecedentes
intervinientes
69
independiente, contextual, antecedente, etc. Por otra parte, una misma variable puede
ser independiente en una investigación e interviniente o antecedente en otra o en
distintas hipótesis de una misma investigación. Además siempre se trata de posiciones
relativas ya que pueden variar a lo largo del proceso de investigación o al finalizar la
misma con los resultados a la vista. Por último, corresponde señalar que una misma
hipótesis puede estar constituida por varias de cada una de estas variables, es decir, que
puede haber dos independientes, tres antecedentes, etc. o que no estén todas las
funciones incluidas en la o las hipótesis y sí en cambio, explicitadas en el diseño de
investigación o, directamente, no aparezcan en la investigación.
La variable independiente (que a partir de ahora se simbolizará con la letra “x”)
es aquella que en la hipótesis cumple la función de supuesta causa, factor determinante
o condicionante o elemento explicativo o descriptor. Dicho de otra manera, es aquella a
la que el investigador le asigna el rol protagónico en el análisis del problema.
La variable dependiente (que se identificará con la letra “y”) es aquella que en la
relación actúa como supuesto efecto, factor determinado o condicionado o elemento
explicado o descripto. Por lo general, es la que identifica el problema que se piensa
estudiar. Se denomina dependiente porque varía en función de la independiente; de
manera tal que, a cada valor que asuma la independiente le corresponderá un
determinado valor de la dependiente. Matemáticamente, se lo podría explicar en la
siguiente fórmula: y = fx
Supóngase la siguiente hipótesis: “La opinión de los adolescentes sobre el aborto
varía de acuerdo a su grado de compromiso religioso, siendo más favorable en aquellos
que observan una menor religiosidad”.
Y esta otra: “El nivel salarial incide en el rendimiento de los trabajadores siendo
que a una menor remuneración existe un menor rendimiento”.
X: Nivel salarial
X Y
70
Y: Calidad de la enseñanza
X: Presupuesto educativo
Simbólicamente sería:
X Y
71
d) Precisamente esos “otros factores” se los denominan terceras variables y se utilizan
para identificar a todos aquellos elementos que puedan incidir de alguna manera en la
relación entre “X” e “Y”. Ya sea favoreciendo u obstaculizando, condicionando o
especificando, explicando o interpretando, etc., dicha relación (Cfr. Selltiz, 1974;
Hyman, 1984; Mora y Araujo, 1975; Glock, 1973 y Boudon, 1985).
e) Si bien a todos ellos se los considera en términos generales variables intervinientes; a
los efectos de diferenciarlos en cuanto a su posicionamiento y funcionamiento se los
distinguirá y consecuentemente se los denominará variables contextuales, antecedentes
e intervinientes puras o propiamente dichas.
Las variables contextuales (Tc) son aquellas que como su nombre lo indica se
refieren a “campos”, “espacios” o “marcos” para los cuales, se afirman ciertas
relaciones. Estos contextos pueden ser geográficos, históricos, socio-demográficos,
culturales, etc. Dado que existen ciertas “controversias” con respecto a la
especificación de este tipo de variable, se distinguirá entre dos modalidades:
72
2) “En las localidades urbanas a diferencia de lo que ocurre en las rurales, los hábitos
de consumo de bebidas alcohólicas varían de acuerdo al sexo y la edad...”
Tc (comparativa): Tipo de localidad (urbanas / rurales)
X: Sexo y edad
Y: Hábitos de consumo de bebidas alcohólicas.
3) “En la Universidad de Buenos Aires, el grado de aceptación del CBC (Ciclo Básico
Común) es más alto en los estudiantes que tienen una mayor participación
sociopolítica, especialmente en aquellos que cursan carreras humanísticas”.
Tc (constante): Universidad de Buenos Aires
Tc (comparativa): Carrera cursada (humanísticas / no humanísticas)
X: Grado de participación sociopolítica
Y: Grado de aceptación del CBC.
Tc X Y
Sin embargo, no deben ser confundidas con las variables antecedentes (Ta) que
como su nombre lo indica también se posicionan con anterioridad a la variable
independiente, pero se utilizan para hacer referencia a otras propiedades, atributos o
magnitudes de las unidades de análisis que –sin ser áreas contextuales–, también pueden
incidir en la relación entre “X” e “Y”, ya sea actuando sobre alguna de ellas o sobre
ambas.
Veamos algunos ejemplos:
1) “Entre los adolescentes, los gustos musicales suelen variar según su nivel de
instrucción pero también existe cierta afinidad con las preferencias musicales de sus
padres”.
Tc (constante): Población adolescente
Ta: Preferencias musicales de los padres
X: Nivel de instrucción
Y: Gustos musicales de los adolescentes
73
En términos conjeturales puede apreciarse que en el primer ejemplo, la variable
antecedente (preferencias musicales de los padres) estaría incidiendo directamente en la
variable dependiente (gustos musicales de los hijos), mientras que en el segundo, la
variable antecedente (origen del capital) podría tener que ver tanto con la independiente
(envergadura de la empresa) como con la dependiente (proceso de selección de
personal).
Por último, las variables intervinientes (Ti) –también llamadas intermedias– son
aquellas que temporalmente se posicionan entre la independiente y la dependiente
actuando como nexo entre ambas; o sea, haciendo posible u obstaculizando su relación,
especificando o interpretándola:
X Ti Y
Ejemplos:
1) “A medida que transcurren los años las personas son menos predispuestas a los
cambios, actitud que varía en aquéllas que están acostumbradas a realizar
emprendimientos”
X: Edad
Ti: Cantidad de emprendimientos realizados
Y: Grado de predisposición para el cambio.
2) “En las empresas del rubro automotriz, a una mayor capacitación del personal le
corresponde un aumento en su rendimiento, siempre y cuando dicha capacitación
redunde en una mejora en la organización de su desempeño”.
Tc: Empresas rubro automotriz
X: Nivel de capacitación
Ti: Grado de organización en el desempeño
Y: Nivel de rendimiento
Tc Ta X Ti Y
74
1) “Observaciones realizadas en los últimos tres años, permiten conjeturar que un
mayor nivel de información sobre el SIDA –en la población drogadependiente–
no redundaría en un aumento del nivel de prevención dado que continuaría
prevaleciendo en dicha población la pulsión de muerte, a menos que se revierta esa
relación pulsional con un adecuado tratamiento terapéutico”.
Tc: Últimos tres años; conurbano bonaerense; población drogadependiente
Ta: Relación pulsional
X: Nivel de información sobre el SIDA
Ti: Tratamiento terapéutico
Y: Nivel de prevención.
3) “El interés por la lectura en los niños en edad escolar varía en proporción inversa al
tiempo de exposición frente a los medios audiovisuales, relación que se ve afectada
cuando existen hábitos de lectura en sus padres o cuando se implementan en las
escuelas experiencias con uso de periódicos o talleres afines”.
Tc: Niños en edad escolar
Ta: Hábitos de lectura en los padres
X: Tiempo de exposición frente a los medios audiovisuales
Ti: Implementación en las escuelas de experiencias/talleres de lectura
Y: Grado de interés por la lectura.
37
Ver en este libro los capítulos correspondientes.
75
diferentes factores considerados significativos se los hubiera ordenado de la siguiente
forma:
Tc Ta X Ti Y
Situación
Laboral
Antigüedad
Nivel de
instrucción
Después se podría formular una única hipótesis que incluyera a todas las
variables o una principal y otras secundarias:
76
Para finalizar con el desarrollo de este tema unas últimas consideraciones:
77
última instancia, el “observable” al que se apela? A veces, es la respuesta (no siempre
confiable) dada a la pregunta directa o indirecta; otras veces, se apela al documento de
identidad o a algún rasgo físico (rogando que no haya lifting mediante).
Otro ejemplo corriente es la variable “sexo” (categorizada en hombre / mujer).
Habrá que convenir que todavía la pregunta no resulta necesaria y hasta puede parecer
ridícula; pero también habrá que convenir, que cada vez resultan menos confiables los
caracteres secundarios (y hasta nos vemos tentados a apelar a los caracteres primarios);
¿y por qué no, al documento?
¿Y la variable “estado civil” (con sus respectivas categorías legales)? ¿Vale la
respuesta como indicador? Si hasta a veces uno mismo duda al contestarla. Del
documento, ni hablar; el anillo (al que todavía se apela) muchas veces brilla por su
ausencia (deliberada o no). ¿Que la famosa pancita del casado?, (pero..., ¿y el que “nace
barrigón”?) o ¿ciertos hábitos de vida?, etc. Como se habrá visto las variables simples –
sin dejar de serlo–, no siempre son tan “simples”.
Por su parte, las variables complejas son aquellas que a los efectos de su
medición, presentan diferentes aspectos o requieren de más de un indicador. Cada uno
de esos aspectos se denomina dimensiones o subvariables y por lo general, aparecen
explicitados en la conceptualización de la variable. De esto último se desprende, que la
complejidad o no de la variable va a depender –en gran medida–, de cómo se la haya
definido. De esta manera, la operacionalización de la variable será acorde a su
conceptualización y ésta, a su vez, responderá al marco teórico de la investigación.
Cuando se está trabajando con una variable compleja, el primer paso consiste en
descomponerla en sus diferentes aspectos o dimensiones. Luego puede ocurrir que
alguna/s de esas dimensiones continúen aun siendo demasiado abstractas y sea
necesario distinguir para ellas subdimensiones. Después, a cada dimensión o
subdimensión se le asignará el o los indicadores correspondientes. A su vez los
indicadores, en tanto que variables –concretas pero variables al fin–, tendrán sus
respectivas categorías.
Una vez que se ha descompuesto a la variable compleja en dimensiones,
subdimensiones indicadores y categorías, ha llegado el momento de reconstruirla. Para
ello se elabora el índice:
78
VARIABLE COMPLEJA
VARIABLECOMPLEJA
Subdimensión Subdimensión
2.1 2.2
Indic. 1.1 Indic. 1.2 Indic. 2.1 Indic. 2.2 Indic. 3.1 Indic. 3.2
A B C A B C A B C A B C A B C A B C
ÍNDICE
79
participación en la variable compleja de cada dimensión, subdimensión, indicador y
categorías.
De acuerdo a como hayan sido construidos, es decir, según el tipo de puntaje que
se utilice y su forma de asignación una forma posible (no la única) de clasificación de
los índices es distinguiendo entre:
Indices no ponderados
Indices ponderados
Simples
Porcentuales.
En todos los casos son índices sumatorios: resultantes de la suma de los puntajes
asignados.
Un índice es no ponderado cuando se adjudica a cada dimensión y/o a cada
indicador, el mismo peso relativo o la misma participación en la variable. Esto significa
que cada dimensión tendrá igual cantidad de indicadores y a su vez éstos, el mismo
número de categorías. O en su defecto –si no se puede eliminar algún indicador o
reducir su número de categorías–, habrá que compensar otorgándole un menor puntaje
relativo. De esta manera –y en términos de sumatoria de puntajes–, cada dimensión y
por ende, cada indicador, tendrán iguales puntajes mínimo y máximo (ver ejemplos).
También existe la posibilidad de asignarle a más de una categoría del indicador en
cuestión, el mismo puntaje.
Un índice es ponderado cuando se le asigna –voluntaria o involuntariamente– a
una dimensión, indicador o incluso a una determinada categoría de indicador un mayor
peso relativo, sea en el campo total de la variable o en los campos parciales de las
dimensiones o indicadores.
Por lo general –ya sea por razones teóricas, metodológicas o simplemente por
comodidad operativa–, la mayoría de los índices son ponderados. Lo importante en
estos casos es ser conscientes de la existencia de dicha ponderación; que por otra parte,
muchas veces lleva a descompensar a la propia variable o a distorsionar su medición,
terminando por sesgar –aunque más no sea parcialmente–, la investigación. También es
necesario señalar que además de la justificación metodológica o teórica en algunos
casos la ponderación se efectúa teniendo en cuenta criterios “empíricos” de
representatividad; esto significa que son los propios sujetos estudiados y/o el cliente
para el que se realiza la investigación, quienes “sugerirán el tenor” de la ponderación y
que no necesariamente tiene que coincidir con lo estipulado por la teoría. Por ejemplo,
si se trata de operacionalizar ponderando la variable Grado de Satisfacción de los
clientes de un supermercado, puede ocurrir que en estudios previos (exploratorios -
cualitativos) surja una mayor valoración de la capacidad de la playa de estacionamiento
que de la cantidad de cajas de cobro mientras que para los dueños de dicho
80
establecimiento lo más importante sean aquellos aspectos que puedan modificar y/o
mejorar como la limpieza, la atención, etc.
La segunda distinción entre simples y porcentuales se refiere al sistema de
puntaje que se emplea. Los índices simples utilizan valores absolutos (enteros o con
decimales) –empleando o no el 0 (cero) inicial–, y por lo tanto, la amplitud del índice y
sus puntajes mínimo y máximo varían para cada variable. Además, resulta más difícil
–e incluso hasta arbitraria–, la apreciación y/o distribución de los pesos relativos.
Por su parte, los índices porcentuales se construyen con valores relativos
(enteros o con decimales) –y en todos los casos–, emplean el 0 (cero) inicial.
Básicamente la idea es llevar la amplitud de cualquier variable a 100 puntos. Luego a
cada dimensión e indicador se le asigna su participación o peso relativo (ver ejemplos).
Entre las ventajas que ofrece este sistema, se pueden mencionar las siguientes:
a) Todas las variables se miden con la misma escala numérica (de 0 a 100), lo que hace
posible las comparaciones, su tratamiento en términos de puntajes de índice como si
fuesen cuantitativas y la aplicación de coeficientes estadísticos (análisis de
correlaciones, regresiones, etc.).
b) Una vez familiarizado con su uso, es más sencillo establecer a priori las amplitudes
de las categorías de la variable compleja dado que a igual cantidad de alternativas, el
rango –si se adopta el criterio de división igualitaria–, siempre es el mismo.
c) Se visualiza realmente la participación que cada dimensión y/o indicador tiene en la
variable, apreciándose fácilmente si existe o no ponderación; e incluso facilita su
representación gráfica.
d) Permite intercambiar diferentes indicadores sin modificar la amplitud de la variable o
de la dimensión.
e) Posibilita compensar la desigualdad en el número de categorías por indicador.
81
(supóngase cuatro –dos por dimensión–), se le otorga el mismo peso (25 %) el
índice continúa siendo no ponderado. Continuando con el ejemplo anterior,
supóngase que uno de los indicadores de la dimensión social sea el nivel de
instrucción formal alcanzado y se ha decidido asignarle una participación del 30 %;
en ese caso se lo está ponderando. Entonces, los puntajes mínimo y máximo serán
de 0 y 30, respectivamente. Luego –si se desea que la distribución sea equitativa–, a
los efectos de asignar el resto de los valores se aplica la siguiente fórmula:
En nuestro ejemplo: 30 = 3
10
Si bien no es el caso del ejemplo, puede ocurrir que cuando se trabaje con
puntajes redondos (sin decimales) por efecto del mismo redondeo, la distribución de los
mismos no sea proporcional; en ese caso se estaría ponderando (aunque levemente) a
alguna categoría en relación con las restantes. También puede desearse ex profeso
ponderar alguna categoría.
Otra alternativa –que para ciertas variables es la más aconsejable–, es comenzar
ponderando los indicadores en lugar de las dimensiones. Para esos casos, conviene
ordenar los indicadores (independientemente de la dimensión a la que pertenezcan) por
orden de importancia y luego distribuir los puntajes por indicador según el orden
asignado. El mérito de esta alternativa es que permite una ponderación de los
indicadores en forma más acertada ya que se están comparando todos los indicadores
entre sí. De este modo, la participación de cada dimensión se conocerá al final y será el
producto de la suma de los pesos relativos de sus indicadores.
82
3. El tercer paso es construir la versión definitiva del índice estableciendo los límites
numéricos o la amplitud de cada categoría de la variable compleja. A tal efecto, existen
diferentes criterios:
3.1. El criterio matemático que podrá ser o no igualitario, de acuerdo a si la amplitud es
o no la misma para todas las categorías. Básicamente consiste en aplicar la fórmula
siguiente:
El límite superior (para los índices porcentuales será siempre 100), está dado por
la sumatoria de los mayores puntajes asignados a cada indicador. El límite inferior (0
para los porcentuales), surge de la sumatoria de los menores puntajes adjudicado a cada
indicador.
La unidad que se agrega (+ 1) es a los efectos de garantizar que se tenga en
cuenta que al límite inferior hay que contarlo como un valor posible; es decir, como una
posición más dentro de la amplitud de la variable. Volviendo al ejemplo del nivel
socioeconómico (bajo / medio / alto) y aplicando la fórmula anterior, se obtendrá:
100 – 0 + 1 = 33,66
3
Bajo: 0 - 32,66
Nivel socioeconómico Medio: 32,67 - 66,33
Alto: 66,34 - 100
0 32 / 33 67 / 68 100
NSE bajo medio alto
83
En el mismo ejemplo –y en este caso, en forma arbitraria–, a la categoría “medio”
se le ha asignado una amplitud mayor (35 puntos) si –continuando con la lógica
anterior–, se cuentan los valores 33 y 67. Con otras palabras, se ha ampliado la
amplitud del estrato medio ex profeso en desmedro de los estratos bajo y alto, pero
bien, podría haberse procedido ampliando los extremos en detrimento del centro o
haber repartido los dos puntos sobrantes (101 % 3 = 33 y restan 2) con cualquier
otra combinación.
Si se suman las tres amplitudes (33, 35 y 33) se obtiene la cifra total (101) que es el
campo cuantitativo de variación (amplitud) de la variable compleja.
3.2. El criterio empírico o estadístico, que a su vez reconoce dos alternativas:
Al igual que el anterior, determinar los rangos a priori, según parámetros
conocidos o estadísticos proporcionados por otras investigaciones.
Establecer los intervalos a posteriori, en función de cómo haya sido la
distribución de los puntajes obtenida en la muestra analizada, tomando por
ejemplo los puntos de “inflexión” o “quiebres” en la distribución de las
frecuencias.
Para terminar con el tema de las variables complejas, unos últimos comentarios:
En algunos trabajos (por ejemplo el ya citado de la Asociación Argentina de
Marketing) se puede observar que se llama “índice” a lo que aquí se ha denominado
“variable” y, a su vez, “variable” a lo que se ha designado “dimensión o
subvariable”. En principio, la diferencia no es conceptual sino simplemente
terminológica. De hecho las dimensiones también son variables al igual que lo que
ocurre con los indicadores –aunque con diferentes niveles de abstracción–. Y por lo
tanto, cualquiera de ellos puede ser empleado –y en muchos casos es aconsejable
hacerlo–, como variables “sueltas” o “aisladas” de la variable “madre” a la que
pertenecen.
Con respecto a esto último, es importante señalar que los índices –como ya se dijo–,
sintetizan las variables pero a veces se hace necesario trabajar con sus dimensiones
o indicadores por separado; por ejemplo para detectar puntos fuertes y débiles de las
variables en cuestión o incluso cruzándolos en el análisis con la propia variable
compleja.
Continuando con lo anterior, hay que acotar que no siempre existe correlación o
asociación positiva entre los distintos indicadores de la variable compleja. Por
ejemplo, no siempre quienes poseen un mayor nivel de instrucción perciben un
mejor salario. De ahí también la importancia de la ponderación.
Otra cuestión a tener en cuenta es que no necesariamente el índice o mejor dicho los
indicadores, reflejan la situación presente de los sujetos estudiados. Un caso
“paradigmático” y en cierta medida crítico hacia la construcción de este instrumento
de medición es nuevamente la variable nivel socioeconómico. Uno de los
indicadores que se suelen tomar para medir la dimensión económica es la
“composición patrimonial” desglosada a su vez, en la posesión de diferentes bienes
(vivienda, automóvil, freezer, aire acondicionado, etc.). pero estos indicadores bien
pueden reflejar una situación pretérita que no se condiga con la actual, o bien su
estado puede estar “deteriorado”, o bien pude tratarse de bienes en “desuso”.
84
Otro tema es resolver la falta de respuesta (NS/NC). Si la ausencia o rechazo
excede el aproximadamente 10 % de los casos, lo aconsejable es eliminar o
reemplazar el indicador por otro (a tal fin, bien sirve el pretest). En caso contrario,
dicha ausencia de respuesta puede ser estimada –con los riesgos consabidos–,
“promediando” las respuestas obtenidas para otros indicadores afines.
Además, la operacionalización (y por ende, los indicadores) debe adaptarse a las
características de la población, al contexto, a los objetivos de la investigación y en
general, debe tener en cuenta la mayoría de los factores mencionados cuando se
analizó la categorización de las variables. Dado que no es lo mismo medir el nivel
socioeconómico en una población urbana que en una población rural y, menos aún,
si la idea es comparar luego ambas mediciones.
Validez interna, teórica o lógica: existe validez interna cuando hay una adecuada
conceptualización y operacionalización de la variable y – obviamente, además–, hay
correspondencia entre ambas. Con otras palabras, cuando la definición operacional
contempla y cubre todos los aspectos mencionados en la definición real o
conceptual.
Gráficamente:
Representación de la conceptualización...
Representación de la operacionalización...
38
Para el desarrollo de este tema se ha seguido parcialmente a Zetterberg, 1981.
85
Representación de la validez perfecta...
a) b) c)
86
Por otra parte, un indicador o instrumento de medición es confiable cuando
administrado sucesivamente a una misma muestra o población –ya sea por el mismo
investigador o por investigadores diferentes–, y sin que hayan cambiado las condiciones
iniciales, reproduce los mismos resultados. Un ejemplo típico de instrumento no
confiable es el famoso centímetro de hule dado que con el uso o con el calor se estira
(dilata).
Dicho de otro modo, un indicador es confiable en la medida que provee de datos
o registros no ambiguos. El término confiabilidad involucra por lo menos, cuatro
medidas distintas (Zetterberg, 1981):
1. La congruencia de varios indicadores, es decir, la medida en que varios indicadores
miden la misma cosa.
2. La precisión de un instrumento (confiabilidad intra-personal): el indicador produce
registros consistentes para un observador.
3. La objetividad del instrumento (confiabilidad inter-personal): varios investigadores
obtienen los mismos resultados.
4. La constancia: el objeto medido no varía.
A los efectos de comprobar si hay confiabilidad también existen distintas
estrategias: volver a repetir la medición; administrársela a una muestra similar; utilizar
dos instrumentos en forma paralela, cotejar los resultados obtenidos con otras
estadísticas disponibles; etc.
Por último, hay que señalar que la confiabilidad es una condición para que exista
validez. Difícilmente un instrumento poco confiable resulte ser válido. Pero por otra
parte, de nada sirve que sea confiable si no se mide lo que se pretende medir.
87
Ejemplo simbólico nº 2: es el mismo índice pero en este caso ponderado: a nivel
dimensiones porque como se consigna, las cuatro tienen puntajes diferentes (7, 11, 2
y 4, respectivamente); a nivel indicadores porque a ellos también se les ha asignado
distintos pesos relativos (puntajes máximos) y a nivel categorías porque no sólo ha
aumentado su cantidad sino porque además tienen pesos diferentes. Esto último
puede prestarse a confusión dado que en principio las letras (que identifican a las
categorías) estarían recibiendo el mismo puntaje; sin embargo si se las reemplazara
por dos escalas ordinales iguales (por ejemplo: malo / regular / bueno y muy malo /
malo / regular / bueno / muy bueno), la posición “regular” en un caso recibiría 1
punto (letra B) y en el otro 2 puntos (letra C).
Por último, cabe señalar que a los efectos de simplificar las operaciones, es
recomendable trabajar con números enteros pero no tan sólo para definir los límites de
las categorías de la variable compleja sino también para distribuir los puntajes de las
categorías de los indicadores.
88
Ejemplo simbólico 1: INDICE SIMPLE NO PONDERADO
A 0
D.1 1.2 B 1
C 2
A 0
1.3 B 1
C 2
A 0
2.1 B 1
C 2
A 0
D.2 2.2 B 1
C 2
A 0
2.3 B 1
C 2
A 0
3.1 B 1
C 2
A 0
D.3 3.2 B 1
C 2
A 0
3.3 B 1
C 2
0 5/6 12 / 13 18
89
Ejemplo simbólico 2: INDICE SIMPLE PONDERADO
-a nivel dimensiones, indicadores y categorías-
A 0
D.1 B 1
(7 puntos) 1.2 C 2
D 3
E 4
1.3 A 0
B 1
A 0
2.1 B 1
C 2
D 3
A 0
B 1
D.2 C 2
(11 puntos) 2.2 D 3
E 4
F 5
G 6
A 0
2.3 B 1
C 2
3.1 A 0
B 1
D.3
(2 puntos) 3.2 A 0
B 1
A 0
4.1 B 1
C 2
D.4 4.2 A 0
(4 puntos) B 1
4.3 A 0
B 1
0 7/8 16 / 17 24
90
Ejemplo simbólico 3: INDICE PORCENTUAL NO PONDERADO
-a nivel dimensiones, pero sí a nivel indicadores y categorías-
A 0
D.1 B 2.08
(25 %) 1.2 C 4.16
D 6.24
E 8.33
1.3 A 0
B 8.33
A 0
2.1 B 2.78
C 5.56
D 8.33
A 0
B 1.39
D.2 C 2.78
(25 %) 2.2 D 4.17
E 5.56
F 6.95
G 8.33
A 0
2.3 B 4.16
C 8.33
3.1 A 0
B 12.5
D.3
(25 %) 3.2 A 0
B 12.5
A 0
4.1 B 4.16
C 8.33
D.4 4.2 A 0
(25 %) B 8.33
4.3 A 0
B 8.33
0 32 / 33 67 / 68 100
91
Ejemplo simbólico 4: INDICE PORCENTUAL NO PONDERADO
-a nivel indicadores y categorías, pero sí a nivel dimensiones-
A 0
D.1 B 2.27
1.2 C 4.54
(9.09 %) D 6.81
E 9.09
1.3 A 0
(9.09 %) B 9.09
A 0
2.1 B 3.03
(9.09 %) C 6.06
D 9.09
A 0
B 1.51
D.2 C 3.02
2.2 D 4.54
(9.09 %) E 6.05
F 7.56
G 9.09
A 0
2.3 B 4.55
(9.09 %) C 9.09
3.1 A 0
(9.09 %) B 9.09
D.3
3.2 A 0
(9.09 %) B 9.09
A 0
4.1 B 4.54
(9.09 %) C 9.09
D.4 4.2 A 0
(9.09 %) B 9.09
4.3 A 0
(9.09 %) B 9.09
0 32 / 33 67 / 68 100
92
Ejemplo simbólico 5: INDICE PORCENTUAL PONDERADO
-a nivel dimensiones, indicadores y categorías-
A 0
D.1 B 5
(40 %) 1.2 C 10
(20 %) D 15
E 20
1.3 A 0
(15 %) B 15
A 0
2.1 B 2
(6 %) C 4
D 6
A 0
B 2
D.2 C 4
(20 %) 2.2 D 6
(12 %) E 8
F 10
G 12
A 0
2.3 B 1
(2 %) C 2
3.1 A 0
(10 %) B 10
D.3
(15 %) 3.2 A 0
(5 %) B 5
A 0
4.1 B 2.5
(5 %) C 5
D.4 4.2 A 0
(25 %) (10 %) B 10
4.3 A 0
(10 %) B 10
0 32 / 33 67 / 68 100
Variable categoría 1 categoría 2 categoría 3
Compleja
0 19/20 39/ 40 60/ 61 80 / 81 100
c.1 c.2 c.3 c.4 c.5
93
CAPÍTULO 6: INFORME SOBRE LA INVESTIGACIÓN
A MODO DE EJEMPLO (1º PARTE)
1. Introducción
94
vez por los “temores” e “inseguridades” propios de la época (moderna) y por lo tanto,
de nosotros mismos y también para darle a esta variable una “cobertura teórica mayor”.
Nótese que la elección de la temática se desprendió de un problema general cotidiano en
el que se confrontaba el modelo real de las relaciones sexuales con los imperativos del
modelo normativo que “obligaba a tomar las precauciones del caso”. Pero si bien ese
fue el comienzo de la elección como se verá enseguida, la investigación fue tomando
por otros rumbos. También hay que advertir, que por lo menos en un principio el tema
no surgió desde la teoría sino desde la propia experiencia; sin embargo, las teorías
(porque hubo varias) fueron tomando cartas en el asunto; no obstante, por los menos en
los comienzos (etapa de descubrimiento, si se lo puede llamar así) el camino fue
inductivo y vivencial, dejándonos llevar más por los paradigmas primitivos que por los
técnicos (Lores Arnaiz, 1986), por los prejuicios que por los juicios.
Como “buenos” estudiantes de sociología la respuesta a la pregunta inicial tenía
que pasar por algún condicionamiento social y como no podía ser de otra manera tenía
que corresponder a la estructura social y más precisamente la posición que se ocupara
en ella; respuesta que por otra parte, refrendaban la mayoría de las teorías clásicas. Fue
así que se tomó como factor determinante a la clase social que hoy traducimos en el tan
mentado nivel socioeconómico (NSE). Precisamente, este es otro de los motivos por los
cuales he elegido esta problemática: la inclusión de esta variable que desde luego está
presente en la mayoría de las investigaciones sociológicas y a la que en breve haré
referencia.
De esta forma se delineó el objetivo general: estudiar la relación entre la eficacia
de la técnica anticonceptiva utilizada y el nivel socioeconómico. Por supuesto que
también los hubo particulares: analizar la incidencia del canal de información y del área
cultural de origen (ACO) en la elección de la técnica en cuestión. Debo decir al
respecto, que en aquel entonces en el aprendizaje de las corrientes estructural
funcionalistas argentinas uno de los autores de cabecera era Gino Germani, quien
además de haber sido el promotor de la sociología (carrera, instituto, etc.) en nuestro
país había sido uno sino el primero en realizar estudios empíricos sobre nuestra
estratificación y además del propio autor, circulaba el desarrollo de la dicotomía entre
las sociedades modernas y las tradicionales (Germani, 1977), de donde se dedujeron las
variables citadas en los objetivos particulares a los que se agregó la incidencia de la
edad y la cantidad de hijos. Como puede verse, las teorías “emergían espontáneamente”:
las marxistas con la problemáticas de las clases y las funcionalistas con su énfasis en la
modernización, y como “complemento” porque no se lo podía dejar afuera, estaba
Weber con su dimensión social y sus acciones racionales y tradicionales. En definitiva,
había marco teórico de sobra que ni siquiera hacía falta incluir en la revisión
bibliográfica que básicamente se redujo a la problemática de las diferentes formas de
anticoncepción y las distintas posturas “científicas” y no tan “científicas” al respecto.
Y sin embargo, también estaban los “prejuicios” pero en este caso referidos a las
propias técnicas o mejor dicho, a sus “usuarios efectivos”. Tal vez o casi con seguridad,
cuando se trató de realizar la tarea de “acotamiento” o delimitación, fueron los
prejuicios los que más influyeron. Fue así que se decidió trabajar exclusivamente con
mujeres porque se suponía que las técnicas eran “cosa de mujeres” y también se
“recortó” para evitar los “rechazos” y la incidencia de los “prejuicios” de las
95
involucradas, que éstas fuesen casadas o con parejas estables, las otras condiciones se
caían de maduro: tenían que estar en una “segura edad fértil” y utilizar habitualmente
alguna técnica anticonceptiva. Con respecto a este último requisito, surgieron algunas
“controversias”; básicamente la disyuntiva giraba en torno a la inclusión de las “no
usuarias habituales”, dado que en cualquiera de los casos –para significar la
información–, nos llevaría a discriminar entre “esporádicas y permanentes” y a
especificar los motivos (búsqueda de hijos, inconsciencia, ausencia de relaciones, etc.)
con el consecuente desvío de los objetivos que no apuntaban al “hábito de uso” sino al
tipo de técnica empleada. Por tales razones –discutibles, por cierto–, se decidió recortar
trabajando exclusivamente con las “practicantes” más allá de las dificultades –también
evaluadas–, que pudiesen surgir en la apertura del trabajo de campo.
En definitiva, estas fueron las principales “razones” que se tuvo en cuenta para
delimitar el campo de estudio de la problemática a la cual se le sumó la
contextualización geográfica: Cap/GBA.
96
Variables Naturaleza Función asignada Grado de
complejidad
Como se apuntó anteriormente, esta es una de las variables que está presente en
la mayoría de los estudios teóricos y/o empíricos que incluyan el enfoque sociológico (e
incluso para aquellos que explícitamente no lo hagan) y cuya incidencia –más allá de
cualquier otra diferencia–, está debidamente avalada por casi todas las teorías sociales
(clásicas y contemporáneas). Desde luego que a los efectos de su conceptualización y
posterior instrumentación habrá que tener en cuenta el marco teórico de referencia. Por
otra parte y como también se ha dicho, su inclusión es otro de los motivos de la elección
de este ejemplo.
En primer lugar, vale para hacer una breve referencia a las dicotomías a las que
nos suelen enfrentar: inductivismo vs. deductivismo, empirismo vs. teoricismo,
subjetivismo vs. objetivismo, estructura vs. acción y otras de similares características.
La mayoría de las investigaciones sociales “inductivas” (o así autodenominadas)
en la medida que la incorporen lo hacen “deduciéndola” –implícita o explícitamente
(con o sin hipótesis previas) – de algún marco teórico puesto que a esta altura ningún
investigador puede aducir su desconocimiento; incluso aquéllos que nieguen su
influencia actúan de la misma forma.
Por supuesto, que existen otros estudios sociales (a nivel micro por ejemplo) y
no “tan sociales” (psicológicos, médicos, jurídicos, económicos, arquitectónicos,
epistemológicos, etc.) en donde decididamente no está presente. En tales casos quedaría
por discutir si dicha ausencia está justificada por no considerársela pertinente, porque no
corresponde a los objetivos, etc. En definitiva, y aun a riesgo de que se tilde esta postura
de “sociologista”, habría que discutir cuáles son los límites del objeto de estudio; o
97
dicho de un modo más concluyente, si existen realmente esos límites o se está
mutilando arbitrariamente el fenómeno estudiado.
Cualquier práctica social (incluyendo las consideradas “individuales”, las
“subjetivas” y las “robinsonianas”) se produce dentro de un determinado contexto
socio-histórico-cultural que la condiciona y determina (y viceversa, pero en menor
medida) acotando los márgenes de “libertad” y “delineando su necesariedad”.
Nuevamente apelando a Bourdieu: los puntos de vistas son vistas tomadas desde algún
punto que a su vez ha sido internalizado socialmente de alguna manera.39
Dado la variedad de los enfoques teóricos (marxista, weberiano, funcionalista,
etc.) cuyas diferencias no serán abordadas por no ser el objeto del presente desarrollo
pero procurando una integración de los mismos, independientemente de cómo haya sido
tratado en la oportunidad del estudio de marras y a los efectos de posibilitar su uso en la
actualidad, se definirá al Nivel Socioeconómico por la posición relativa que el individuo
o el grupo familiar ocupa en el espacio social global. Esta posición representa las
condiciones de existencia reales y potenciales de acuerdo a los volúmenes de capital
(en especial económico, social y cultural) poseídos cuyas coordenadas permiten
estructurar el espacio social. Como su nombre lo indica a los efectos de su
operacionalización reconoce dos grandes dimensiones (por cierto íntimamente
relacionadas): la socio-cultural y la económica. Cuando se trate de estudiar grupos
familiares, cónyuges, hijos adolescentes o cualquier otro integrante a los fines de medir
los indicadores que remitan a atributos personales se tomará como referencia al
Principal Sostén, entendiéndose por tal a aquél (hombre o mujer) que en base a su
ocupación principal realiza el mayor aporte al presupuesto y economía familiar.
Para medir la dimensión socio-cultural se tomarán tres indicadores:
El nivel de instrucción formal alcanzado.
El dominio del idioma inglés (lectura, habla y escritura).
El conocimiento básico de computación (manejo de paquete office).
Estos tres indicadores responden a la subdimensión educación. Si bien existen
otros indicadores (posesión de biblioteca, deporte habitual practicado, concurrencia a
espectáculos, etc.) se considera que son subordinados y/o derivados de la misma. Por
otra parte, la educación continúa conservando el carácter de condición necesaria
aunque no suficiente para acceder a otros tipos de capitales.
Para medir la dimensión económica se tomarán también tres indicadores:
La ocupación principal
La posesión de automóvil particular.
Otros bienes y servicios.
La ocupación pertenece a la esfera productiva, se asocia a un nivel “esperable de
ingresos” y también supone prestigio/desprestigio aunque no en forma “correlativa” a
lo anterior. Por su parte, el automóvil y los otros bienes y servicios (posesión de PC,
aire acondicionado, freezer independiente, etc.) corresponden a la subdimensión
patrimonio. El automóvil para uso particular (no como bien de trabajo) en nuestro país
todavía es símbolo externo de “status”. El resto del patrimonio refleja no sólo el aporte
del principal sostén sino los aportes complementarios de otros miembros del núcleo
familiar. Por su parte, la inclusión de la conexión particular de WI FI permite no sólo
reemplazar a otros indicadores (notebook, netbook, cobertura médica privada, etc.) sino
también cubrir el “intercambio o capital social”. Todos ellos permiten estimar además
el nivel de ingresos, de consumo y de “inversión”. Al igual que para la dimensión
social, existen muchos otros indicadores económicos (vivienda, nivel de ingresos,
39
Bourdieu, Pierre: ver bibliografía general.
98
personal doméstico, lugar de veraneo, etc.) que podrían utilizarse. Algunos, como es el
caso de la vivienda y otras propiedades resulta de difícil categorización por todas las
modalidades que ofrecen (situación legal, metros cuadrados, tipo, categoría, valor de
mercado, lugar/barrio, etc), el nivel de ingresos por los rechazos y “tergiversaciones”
que suele generar y en general, están correlacionados positivamente con los
mencionados anteriormente tal como lo demuestran diferentes estudios realizados
(Asociación Argentina de Marketing, 1998).
Cabe agregar, que más allá de los motivos mencionados existen otros factores
que limitan el número de indicadores:
No se trata de llevar a cabo un estudio sobre la estratificación que requiera la
medición puntillosa de todos los aspectos y referentes.
El nivel socioeconómico no suele ser la única variable compleja y por lo general no
es la más importante en función de los objetivos del estudio.
Cada indicador (independientemente de cuál sea la variable en cuestión) supone una
observación o pregunta (y en algunos casos más de una) y el encuentro con el
observado o entrevistado tiene un límite, un tiempo que debe ser cuidadosamente
racionalizado.
En definitiva y para “recomponer” la variable se construirá un índice porcentual
ponderado. Con respecto a su categorización se han adoptado las clásicas alternativas
ordinales (Bajo / Medio / Alto) definiendo su amplitud de acuerdo al criterio
matemático proporcional. A continuación, se presentan las dimensiones con sus
respectivos indicadores, categorías, puntajes y ponderaciones.
DIMENSION SOCIO-CULTURAL: 40 %
Dominio de Inglés No 0
5% Si 5
Conocimiento computación No 0
5% Si 5
99
DIMENSION ECONOMICA: 60 %
Indicador Indicador
Automóvil particular: 12 % Puntaje Otros bienes y servicios: 8 % Puntaje
No tiene 0 Cantidad de bienes:
Hasta 100000 2 Ninguno 0
+100000 / 200000 4 Uno 2
+200000 / 300000 6 Dos 4
+300000 / 500000 8 Tres 6
+500000 / 1000000 10 Cuatro 8
+1000000 12
Nota: se registrará la marca, el modelo y el año Bienes y servicios: Freezer independiente,
y el valor estimado por el dueño. En caso de lavavajillas, conexión particular de WI FI,
dos o más autos registrar y sumar el valor cobertura médica privada.
total, previa consulta listado de precios. Para
autos de uso “semiprofesional” asignar 2/3.
0 33 / 34 67 / 68 100
Bajo Medio Alto
100
0 14 / 15 29 / 30 44 / 45 58 / 59 72 / 73 86 / 87 100
E D C3 C2 C1 B A
0 29 / 30 58 / 59 100
DE C2/C3 ABC1
0 50/51 100
BAJO/MEDIO BAJO MEDIO NETO/ALTO
101
Nivel de
Variables Medición Categorías Indicadores
Dimensiones Indicadores
Cantidad de hermanos.
FAMILIAR Cantidad de tíos maternos / paternos.
Generaciones integrantes del hogar de infancia (abuelos,
padres, tíos, primos, nietos, etc.).
102
rezar, confesión, rosarios, etc.)
PENSAMIENTO Mitos.
MAGICO Supersticiones.
Amuletos.
6. Comentarios finales
Hasta aquí se han presentado las distintas variables con sus correspondientes
especificaciones conceptuales y técnico-metodológicas. He dejado para el final de esta
primer parte –ya conocido el contenido de las variables–, lo que pretende ser la
“lógica” del análisis inicial como intento de “reproducir” el “entramado” de los hechos
y fenómenos sociales que guió la investigación y que luego se reproducirá en el análisis
de los datos, una vez que los mismos hayan sido recogidos. Esta lógica o tal vez,
“racionalidad” excede la simple asignación de funciones a las variables y también
excede al típico “razonamiento lógico formal” (del tipo “todos los hombres son
mortales” o “todos los cisnes son blancos”) al que por supuesto, los hechos sociales no
obedecen ni aun en el caso que ellos mismos intentaran “justificarse”.
El razonamiento inicial transformado en cadena era el siguiente:
C.I. inf.
C.I. inf.
103
Aunque temporalmente se pueda inferir:
104
ACO trad. NSE bajo C.I. informal
GETA mínima
Para el resto, había que esperar la recogida y análisis de los datos. Pero eso es
tema de la segunda parte de este capítulo.
105
CAPÍTULO 7: EL UNIVERSO DE ESTUDIO Y LA SELECCIÓN DE LA
MUESTRA
S. Raquel Miguez
En todo esquema de investigación una vez que hemos resuelto las etapas
concernientes a la selección del tema, el planteo del problema, la definición de los
objetivos, las decisiones conceptuales y operacionales, debemos proceder a la
Determinación de las Unidades de Análisis, es decir, cuál es la población objeto de
estudio, sobre quiénes recae la investigación, para luego decidir con cuántos casos
vamos a trabajar: con la totalidad de esa población o sólo con una parte de la misma.
Este paso reviste especial importancia, dado que de la exactitud con que se
ejecuten las tareas que se especificarán más adelante, dependerán la calidad de la
información obtenida, las posibilidades de análisis de los datos y en definitiva, la
seriedad del estudio.
De hecho, aquellos que utilizan o simplemente analizan los resultados de
investigaciones realizadas por otros, como así también los evaluadores de proyectos de
investigación, de tesis de grado o postgrado, o candidatos a becas de investigación,
prestan especial atención a las decisiones tomadas en esta materia, dada la posibilidad
de cometer serios errores o de introducir sesgos que conducen a estafas científicas.
Dicho de otro modo, esta representa una de las etapas de la investigación donde puede
estar presente la manipulación de los procedimientos a los efectos de obtener ciertos
resultados, como se verá en breve.
Retomando la temática que nos ocupa, diremos que, dada la secuencia de los
pasos que estamos llevando a cabo, a esta altura de la investigación es posible que
algunas de estas cuestiones hayan sido resueltas en parte: concretamente en la
delimitación del tema y en el planteo de los objetivos. Es decir que, seguramente ya
hayamos establecido someramente cuál es nuestra población de estudio. No obstante,
corresponde proceder a la explicitación clara y concreta de una serie de componentes de
la investigación.
Comenzaremos refiriéndonos a los conceptos de Universo o Población.
Hablaremos de universo, para referirnos al total de elementos que se encuentran bajo
estudio. Está compuesto por todos aquellos elementos sobre los cuales puede recaer la
investigación, o sea, aquellos elementos que son alcanzados por variables que se
pretenden medir.
Existen diversas formas de dar cuenta o caracterizar un universo de estudio. Una
de ellas radica en la cantidad de elementos que lo componen. En este caso,
distinguiremos dos tipos:
Universos Finitos: aquellos que contienen hasta 100.000 unidades
Universos Infinitos: los que poseen más de 100.000 unidades
106
Por otra parte, y de acuerdo a las características que compartan o no sus
integrantes, el Universo será Homogéneo o Heterogéneo. Un universo homogéneo será
aquel que no presente diferencias significativas entre sus componentes; caso contrario,
el universo será heterogéneo. No obstante, ningún universo es a priori homogéneo o
heterogéneo. Ello depende de cómo se lo haya definido, de las variables a relevar y de
los objetivos de la investigación.
Probablemente el lector se pregunte por qué se deberían indicar o caracterizar
los universos según los dos criterios anteriores. La respuesta nos llevaría a extendernos
en una temática que no compete a este momento del proceso, pero que sí habrá que
tener en cuenta de modo anticipado, dado que estas descripciones que parecen de poca
importancia, en realidad condicionarán la factibilidad o no de aplicar ciertos análisis
estadísticos o al menos orientarán las decisiones sobre el análisis estadístico de datos.
Para cada investigación habrá que definir puntualmente cuál es el Universo
sobre el que recae y obviamente esta definición estará directamente relacionada con el
problema planteado y los objetivos de la investigación. La misma debe contener
información sobre las características esenciales de la población, así como también su
ubicación temporal y espacial, y posibles factores de exclusión e inclusión.
Por ejemplo:
Ahora bien, cada uno de los elementos que constituyen el universo o población
de estudio se denominan Unidades de Análisis, las cuales no son necesariamente
individuos; pueden ser grupos, empresas, edificios, hogares, viviendas, elementos
físicos, material publicitario, comercios de determinado rubro, artículos periodísticos,
etc.
107
Si bien la investigación persigue el objetivo de recabar información sobre
determinadas unidades de análisis, en algunas oportunidades ellas no son los elementos
últimos de los cuales se obtiene información. Podría ocurrir que las unidades de análisis
no sean quienes den testimonio de sí mismas, ya sea por tratarse de unidades colectivas
(empresas, sindicatos, escuelas, etc.), o porque por algún motivo no es posible tener
acceso a ellas en forma directa, o porque el objetivo de la investigación plantea la
obtención de información de fuentes indirectas, etc. En estos casos debemos recurrir a
Unidades de Información válidas que puedan manifestarse sobre las unidades de
análisis.
Como veremos en algunos ejemplos, en ocasiones las unidades de análisis y de
información recaen sobre la misma persona o elemento y en otras no. En el caso de los
alumnos regulares de la Universidad de Lomas de Zamora y de los abogados, ambos
roles pueden recaer sobre el mismo elemento.
U nid ad es d e a U nid ad es d e
análisis inform ación
A bogados A bogados
E ntonces: U .A . = U .I.
U nid ad es d e U nid ad es d e
análisis inform ación
E m presas
E m pleados
m etalúrgicas
E ntonces: U .A . = U .I.
Una situación similar podría plantearse ante los adolescentes bajo tratamiento
por anorexia y los alumnos ingresantes de la universidad. En el primer caso las
unidades de información podrían ser los padres de dichos adolescentes o los
profesionales que los asisten (toda vez que se haya decidido no trabajar en forma directa
con los adolescentes); mientras que en el segundo podríamos recurrir a los docentes de
dichos alumnos.
108
U nid ad es d e U nid ad es d e U nid ad es d e U nid ad es d e
análisis inform ación análisis inform ación
A dolescentes A dolescentes A dolescentes P adres
U n id a d es d e U n id a d es d e U n id a d es d e U n id a d es d e
a n á lisis in fo rm a ció n a n á lisis in fo rm a ció n
A lu m n o s A lu m n o s A lu m n o s
D o cen tes
in gresan tes in gresan tes in gresan tes
109
que nos provee de los procedimientos necesarios para efectuar el salto de
generalización, de la muestra al universo, con un determinado margen de error, tal cual
se verá en breve. Entonces, si los procedimientos efectuados para tomar la muestra han
sido correctos, los resultados obtenidos a partir de dicha muestra podrán ser extensivos
o válidos para el universo en cuestión.
Por ello toda vez que se opte por la extracción de una muestra, nos debemos
preguntar hasta qué punto la misma es representativa del universo, o sea hasta qué punto
se está contemplando (sobre todo en el caso de trabajar con universos heterogéneos) la
variedad de elementos que componen el universo o población.
x
donde por ejemplo: (minúscula) representa la media de la muestra y
X
(mayúscula) la Media de la Población
110
1. Ventajas y Desventajas en la Aplicación de los Censos y las Muestras
Es más costoso
Dificulta la realización de estudios profundos
Exige la movilización de muchos recursos (humanos y materiales)
El procesamiento de la información obtenida en el trabajo de campo
es prolongado lo cual lleva a extender los plazos para la presentación
de resultados definitivos (como es el caso de los censos de población
y vivienda).
Por su parte, trabajar con una muestra, implica las siguientes ventajas:
111
2. Diseño de la Muestra
El marco muestral o base de la muestra está compuesto por una serie de datos
secundarios o características (que generalmente se presenta en forma de listado) de los
elementos que componen nuestro universo y que permitirán su identificación.
Representa una herramienta fundamental para la aplicación de las técnicas de muestreo
que veremos más adelante, especialmente en el caso de las muestras probabilísticas.
O sea que el marco muestral debe contener la información necesaria para la
identificación de las unidades de análisis y su correcta selección. Si nuestro universo o
población estuviera compuesto por la totalidad de alumnos de una facultad, el marco
muestral podría contener, por ejemplo, la siguiente información: nombre y apellido,
legajo, carrera cursada, año de ingreso en la universidad, edad, sexo, teléfono, etc.
Ahora bien, anteriormente definimos al Universo o población de estudio como al
conjunto de elementos sobre los cuales recae la investigación. En términos del marco
muestral, debemos hacer una nueva distinción: existe un “universo general o teórico”
sobre el cual se desean generalizar los resultados de la investigación y en tal sentido se
trataría de una población abstracta; y un “universo de trabajo o empírico” del cual se
extrae concretamente la muestra (la totalidad de elementos contenidos en el marco
muestral). En tal sentido, el marco muestral es la herramienta que permite la
identificación concreta de las unidades de análisis.
Podría ocurrir que nuestro marco muestral no abarque o no cubra totalmente al
universo teórico (presentándose así un desvío entre el universo teórico y el de trabajo).
Todo listado puede estar sujeto a una serie de inconvenientes, como pueden ser las
omisiones o excesos por falta de actualización denominados “fallos o errores de
cobertura”. Por tal motivo y ateniéndonos al rigor metodológico que una investigación
debe contener, toda vez que se efectúen inferencias a partir de una muestra deberá
indicarse si la misma se efectúa sobre el universo teórico o el de trabajo.
112
Una vez obtenido el marco muestral debemos someterlo a examen previo a su
utilización para detectar las posibles deficiencias y, en caso de ser posible, actualizarlo o
depurarlo.
Si obtuviéramos un listado de los alumnos, en función del cual se tomará una
muestra, deberíamos chequear, en primera instancia, cuántos de esos alumnos realmente
continúan en la facultad, cuántos figuran en el listado habiendo finalizado o
abandonado su carrera, etc.
Lo mismo sucedería si deseáramos administrar una encuesta telefónica en
determinada ciudad. Nuestro primer impulso sería utilizar como marco muestral la guía
telefónica de dicha ciudad, pero este procedimiento suele presentar los siguientes
inconvenientes: existen personas que abonan a las empresas telefónicas para no figurar
en guía; otras nunca han efectuado el cambio de titularidad de la línea, otras poseen más
de un número de teléfono (hecho que aumentaría su probabilidad de selección, etc.
3. Tipos de Muestreo
113
P R E D IS P U E S T A S /
SESGAD AS
A ccidentales,
N O P R E D IS P U E S T A S N o P rob ab ilísticas casuales o
erráticas
Intencionales,
M razonadas o
dirigidas
C uotas no
U P or C uotas
proporcionales
C uotas
E
proporcionales
S B ola de N ieve
A zar
S N o proporcional
E stratificado
P roporcional
A zar por
C onglom erados
M IX T A S
114
Desarrollaremos las distintas técnicas de muestreo en forma independiente, sin
perder de vista que en algunas ocasiones se presentan diseños muestrales que combinan
distintas técnicas, dando lugar al muestreo mixto o combinado. Dicha combinación
puede efectuarse ya sea entre el mismo tipo de técnicas (por ejemplo utilizando más de
una técnica probabilísticas) o bien utilizando en forma complementaria técnicas
probabilísticas y no probabilísticas desde el inicio de la selección hasta llegar a las
unidades últimas de muestreo.
P = casos favorables
casos posibles
115
La probabilidad de ocurrencia de un fenómeno oscilará siempre entre 1 (certeza
absoluta de ocurrencia) y 0 (suceso imposible).
Por ejemplo, si tuviéramos una urna con diez bolillas numeradas del 1 al 10 y
quisiéramos saber qué probabilidad de extracción tiene la bolilla Nº 7, ésta estaría dada
por el siguiente cociente:
P (7) = 1
10
P (5) = 1
9
P (B roja) = 3
12
116
objetivos, existe un tipo de muestreo más apropiado. En los estudios
exploratorios y cualitativos generalmente se utilizan muestras no
probabilísticas, mientras que en los descriptivos, explicativos o en
aquellos en los que se pretende estimar parámetros poblacionales se
recurre al muestreo probabilístico.
La rigurosidad requerida en el estudio.
La posibilidad de contar o no con un marco muestral adecuado.
Los recursos económicos con que se cuenta en relación a la necesidad
de tamaños muestrales elevados.
Los recursos humanos con que se cuenta para efectuar el trabajo de
campo.
El tiempo estipulado para esta etapa de la investigación.
117
practicantes del Modelismo Ferroviario, quienes se dedican a reproducir en miniatura
trenes y sus ambientes o o adeptos a algún hobby exótico. Para ubicarlos deberíamos
indagar sobre la existencia de alguna sociedad que los nuclee. Una vez efectuado el
contacto (y una vez que dicha unidad de análisis nos ha brindado la información
necesaria según los objetivos de la investigación), le solicitaríamos que nos remita a
otras personas que reúnan sus características y así sucesivamente, hasta alcanzar el
denominado punto de saturación, donde se finaliza la inclusión de nuevos casos, dado
que la información se ha vuelto redundante o reiterativa y se presupone que incluir
nuevos casos ya no aportarían nueva información.
Otros ejemplos a los cuales aplicaría esta modalidad serían las siguientes
poblaciones de estudio: integrantes de algún culto religioso minoritario, portadores de
alguna enfermedad poco frecuente o integrantes de una corriente migratoria poco
habitual. Pero reconoceremos que estas localizaciones se ven facilitadas en la actualidad
con el avance de la tecnología, en el sentido de que las redes sociales, por ejemplo,
agilizan la posibilidad de dar con ciertas poblaciones de estudio que en otro momento
hubiera sido más complejo.
Por último, el muestreo por cuotas, puede considerarse una estrategia previa a
la implementación de las anteriores, que implica una mayor representatividad (dentro
de las técnicas no probabilísticas) especialmente al trabajar con universos heterogéneos.
Ellos se debe a que en una primera etapa de diseño, se apuntará a establecer una serie de
criterios que garanticen la presencia en la muestra de elementos de los diferentes
estratos o subgrupos que componen el universo.
Para seleccionar una muestra por cuotas, el primer paso será establecer en
función de qué variables se van a tomar las cuotas. O sea cuáles son las características
sobresalientes de esa población en términos de la investigación (por ejemplo variables
demográficas). Entonces vamos a clasificar el universo conforme una, dos o más
variables que se consideren significativas dentro del estudio.
Luego se calculará el tamaño de cada cuota, el cual podrá ser no proporcional
(por ejemplo estableciendo cuotas fijas) o proporcional, según si se pretende respetar
el peso que tiene cada cuota dentro del universo.
Una vez establecidas las cuotas, se le asignará a cada persona encargada del
trabajo de campo un determinado cupo a cubrir, especificando qué características deben
reunir los casos (en función de las variables tomadas para la segmentación de la
muestra).
La selección última de los elementos que conformarán la muestra corre por
cuenta del entrevistador o encuestador y podrá ser accidental o intencional, siempre y
cuando respete la cuota que le fue asignada. Pero como la selección de las unidades de
análisis queda finalmente a criterio del encuestador y para evitar los posibles sesgos que
esto podría introducir en la investigación, esta técnica de muestreo suele
complementarse con el llamado “muestreo de rutas aleatorias”. Por medio de él se
preestablece cuál ha de ser el recorrido o itinerario que debe seguir el encuestador y
cuáles serán los puntos muestrales.
Nuestra investigación podría girar en torno a la medición de algún fenómeno
entre el personal de una empresa. Si decidiéramos tomar una muestra por cuotas, el
118
primer paso consistiría en recurrir a la oficina de Recursos Humanos de dicha empresa
para obtener datos secundarios en función de los cuales poder clasificar al personal.
Generalmente las empresas cuentan con información sobre la distribución del personal
por cargo, departamento, etc. Una posibilidad sería clasificar a la población de estudio
por el sector en el que se desempeña. Supongamos que la empresa cuenta con 617
empleados, distribuidos de la siguiente manera:
C antid ad d e
A rea
p ersonal
G erencia 43
A dm inistración y
50
R ecursos H um anos
M aestranza 40
V entas y T esorería 45
S ervicio P ostventa 49
L ogística 40
F ábrica 350
Una vez obtenida esta información y si decidiéramos tomar una muestra de 140
casos por cuotas proporcionales, deberíamos establecer qué peso tiene cada Área sobre
el total de empleados, dado que en la muestra se deberá respetar la proporción de cada
una. La muestra quedaría conformada de la siguiente forma:
119
C u otas
C an tid ad d e % sob re el total d e
A rea p rop orcion ales -
p erson al em p lead os
casos a cu b rir
G erencia 43 7 10
A dm inistración y
50 9 11
R ecursos H um anos
M aestranza 40 6 8
V entas y T esorería 45 7 10
S ervicio P ostventa 49 8 11
Logística 40 6 8
F ábrica 350 57 81
T otal d e
617 100 140
E m p lead os
G erencia 43 20
A dm inistración y
50 20
R ecursos H um anos
M aestranza 40 20
V entas y T esorería 45 20
S ervicio P ostventa 49 20
L ogística 40 20
F ábrica 350 20
120
Recordemos que el criterio para establecer las cuotas debe relacionarse con los
objetivos de la investigación. Por tal motivo, generalmente se suele clasificar al
universo según todas las variables que resulten necesarias. En el ejemplo anterior,
podría sumarse una nueva variable, como podría ser el sexo de los empleados. Entonces
habría que determinar para cada cuota cómo se distribuye el personal conforme esta
variable.
P = n P = 811 P = 0,27
N 3000
121
Obsérvese que algunas celdas de la tabla de números aleatorios no han sido tenidas en
cuenta ya que la combinación resultante supera el número 3.000, que en este caso es el
total del universo (por ejemplo 4805, 8953, 9970, etc.).
La técnica de Azar Sistemático requiere nuevamente que los elementos que
conforman el universo estén identificados previamente y plasmados en un marco
muestral.
Esta técnica consiste en seleccionar los elementos a partir de una determinada
unidad de análisis extraída al azar y respetando un mismo intervalo en lo sucesivo para
las restantes. O sea que el primer elemento de la muestra se seleccionará al azar
(recurriendo al sorteo o a la tabla de números aleatorios).
Para la selección de los casos restantes, una posibilidad sería establecer un
intervalo fijo, por ejemplo un caso cada 20. Otra posibilidad para determinar el
intervalo, aunque en realidad es la más adecuada, sería tomar el cociente entre el total
del universo sobre el tamaño de la muestra o coeficiente de elevación. Entonces a partir
del primer elemento seleccionado por azar simple los restantes serán seleccionados
sumándole al mismo el coeficiente de elevación.
Por ejemplo:
Total del U niverso = 1000 = 10
M uestra 100
122
peso a cada estrato sin tener en cuenta las diferencias que puedan existir entre ellos; y
afijación proporcional, cuando en la muestra se respeta el peso relativo de cada estrato.
La técnica de Azar por conglomerados se utiliza cuando los casos a relevar se
encuentran distribuidos en áreas geográficas muy extensas. Esta técnica es de gran
utilidad cuando la unidad muestral no son individuos sino conjunto de individuos que
constituyen conglomerados (definidos como tales a los efectos de cada investigación).
Esta técnica lleva implícitas varias etapas a través de las cuales se van seleccionando (al
azar) desde unidades mayores, unidades intermedias, hasta llegar a los casos
específicos.
123
4. Errores Presentes en el Proceso de Investigación
124
margen de error Generalmente se trabaja con:
2 (sigma), que implica un 95,5 % de
probabilidad de exactitud en la estimación; o
5. Tamaño de la Muestra
Debemos tener en cuenta que cuanto más pequeña es la muestra menores son los
costos de la investigación, pero la probabilidad de error mayor. Lo ideal es
seleccionar una muestra de tamaño mínimo pero que a través de ella se logre un
máximo de precisión en los resultados.
Por otra parte en la muestras no probabilísticas se utilizan muestras más
reducidas que en las probabilísticas dado que no se pretende que la misma sea
representativa ni la estimación de parámetros.
Como se dijo anteriormente, toda muestra debe ser o intenta ser representativa
del universo del cual se extrae. Por eso, cuando el universo es heterogéneo el
tamaño de la muestra será mayor de modo de respetar la variedad de
componentes de dicho universo. Este requisito no será necesario si el universo o
125
población no presenta diferencias significativas entre sus unidades.
80 80 80 80
Hasta aquí hemos tratado de exponer los conceptos fundamentales que implica
esta etapa de la investigación, sin la pretensión de dar un enfoque exhaustivo al tema.
Esperamos haber brindado las herramientas básicas para la toma de decisiones
en lo concerniente a la selección de las unidades de análisis, dado que cada técnica trae
aparejadas una serie de ventajas y desventajas y distintos niveles de complejidad.
126
También aspiramos a haber resaltado la importancia de este paso en relación a su
inevitable repercusión (favorable o desfavorable) sobre los resultados del estudio.
Por último queremos destacar nuevamente que para cada tipo de investigación
(según sus características y objetivos) habrá una técnica de muestreo más apropiada, sin
olvidar que también influirán los recursos económicos y humanos con que se cuenta,
como así también el tiempo estipulado para esta etapa en particular y para toda la
investigación en general.
127
ANEXO Nº 1 - EJEMPLO DE TABLA DE NUMEROS ALEATORIOS
10 09 73 25 33 76 52 01 35 86
37 54 20 48 04 64 89 47 42 96
08 42 26 89 53 19 64 50 93 03
99 01 90 25 29 09 37 67 07 15
12 80 79 99 70 80 15 73 61 47
66 06 57 47 17 34 07 27 68 50
31 06 01 08 05 45 57 18 24 06
85 26 97 76 02 02 05 16 56 92
63 57 33 21 35 05 32 54 70 48
73 79 64 57 53 03 52 96 47 78
98 52 01 77 67 14 90 56 86 07
11 80 50 54 31 39 80 82 77 32
83 45 29 96 34 06 28 89 80 83
88 68 54 02 00 86 50 75 84 01
99 59 46 73 48 87 51 76 49 69
65 48 11 76 74 17 46 85 09 50
80 12 43 56 35 17 72 70 80 15
74 35 09 98 17 77 40 27 72 14
69 91 62 68 03 66 25 22 91 48
09 89 32 05 05 14 22 56 85 14
91 49 91 45 23 68 47 92 76 86
80 33 69 45 98 26 94 03 08 58
44 10 48 19 49 85 15 74 79 54
12 55 07 37 42 11 10 00 20 40
63 60 64 93 29 16 50 53 44 84
61 19 69 04 46 26 45 74 77 74
15 47 44 52 66 95 27 07 99 53
94 55 72 85 73 67 89 75 43 87
42 48 11 62 13 97 34 40 87 21
23 52 37 83 17 73 20 88 98 37
04 49 35 24 94 75 25 63 38 23
00 54 99 76 54 64 05 18 81 59
35 96 31 53 07 26 89 90 93 54
59 80 80 83 91 43 42 72 68 42
46 05 88 52 36 01 39 09 22 86
32 17 90 05 97 87 37 92 52 41
69 23 46 14 06 20 11 74 52 04
19 56 54 14 30 01 75 87 53 79
45 15 51 49 38 19 47 60 72 46
94 86 43 19 94 36 16 81 08 51
128
ANEXO Nº 2 - EJEMPLO DE TABLA PARA LA DETERMINACION DEL
TAMAÑO DE LA MUESTRA (POBLACION FINITA) PARA
MARGENES DE ERROR DE 1, 2, 3, 4 Y 5 %, EN LA
HIPOTESIS DE p = 50 %
A m plitud de
+ /- 1 % + /- 2 % + /- 3 % + /- 4 % + /- 5 % + /- 10 %
la població n
500 222 83
129
ANEXO Nº 3 - EJEMPLO DE TABLA PARA LA DETERMINACION DEL
TAMAÑO DE LA MUESTRA (POBLACION FINITA) PARA
MARGENES DE ERROR DE 1, 2, 3, 4 Y 5 %, EN LA
HIPOTESIS DE p = 50 %
A m plitud de la población + /- 1 % + /- 2 % + /- 3 % + /- 4 % + /- 5 %
500
1000 474
130
ANEXO Nº 4 - FORMULAS GENERALES PARA EL CALCULO DEL
ERROR MUESTRAL (para Universos finitos o infinitos y según
se trate de muestras con desviación típica o muestras con
proporciones). 40
40
Fuente: Sierra Bravo, R. (1995). “Técnicas de Investigación Social”. Madrid. Ed. Paraninfo S.A.
131
ANEXO Nº 5 - FORMULAS PARA EL CALCULO DEL TAMAÑO DE LA
MUESTRA41
41
Fuente: Sierra Bravo, R op.cit
132
CAPÍTULO 8: EL DISEÑO DE LA ESTRATEGIA TÉCNICO
METODOLÓGICA42
Cuantitativa / cualitativa
Estructurada / no estructurada
Iterativa / no iterativa
Intrusiva / no intrusiva
No participante / participante
No encubierta / encubierta
Alienante / no alienante
42
Tomado con algunas modificaciones de Pérez Lalanne, 2010.
133
Cuantitativa / cualitativa
Sin entrar en los pormenores que han sido o serán tratados en otros capítulos,
esta distinción obedece al tipo de dato que se piensa construir y al análisis al que,
posteriormente, se lo va a someter. Los dispositivos cuantitativos son aptos para la
producción de datos numéricos que permitan su tratamiento estadístico-matemático
(Zeisel, 1986); datos que terminarán siendo condensados en porcentajes y presentados
en cuadros y gráficos estadísticos. Por su parte, las estrategias cualitativas generan
datos textuales (Schwartz y Jacobs, 1984) –como por ejemplo, ocurre con los
testimonios brindados por los actores– que serán pasibles de ser reinterpretados o
resignificados por el investigador.
En términos generales –aunque, como se tratará en los apartados siguientes, ello
no siempre ocurre–, las herramientas cuantitativas se caracterizan por ser intrusivas, no
encubiertas, estructuradas, no participantes e iterativas mientras que lo contrario sucede
con los procedimientos cualitativos.
Estructurada / no estructurada
134
cuantitativos. Lo mismo podría decirse para la observación y el análisis de contenido
y/o discurso.
En definitiva, que una herramienta sea estructurada no necesariamente implica
que se la esté utilizando en un estudio cuantitativo. Sin embargo, las más de las veces
resulta ser de esa manera.
Iterativa / no iterativa
135
mayoría de los estudios cuantitativos suelen participar más de un encuestador (con
diferentes actitudes, aptitudes, experiencia, instrucciones, etc.) pero aunque así no
sucediera, igualmente ese único encuestador, por numerosas y obvias razones no se
comporta de la misma manera durante todo el trabajo de campo, ni siquiera de un
contacto a otro y, a veces, ni durante el mismo encuentro.
Sin perjuicio de lo anterior, se podría considerar además, si el trabajo es gratuito
o remunerado, si la remuneración es adecuada, si es por mes, semana, día, hora o a
destajo; si el campo está o no tercerizado, etc. En definitiva, ningún estudio está librado
de lo que podría denominarse el efecto encuestador, más allá que dichos efectos puedan
minimizarse, neutralizarse o compensarse.
Por otra parte, complementando lo anterior y también obedeciendo a diversos
motivos (económicos, temporales, operativos e incluso epistemológicos como es el caso
de la convergencia intrametodológica) la encuesta suele administrarse apelando
simultáneamente a un mix de distintas modalidades (administradas: personal o
telefónicamente; autoadministradas: por correo, on line, telefónicamente, etc.). A ello,
habría que agregarle la duración de la encuesta, el contenido de las preguntas, si la
recolección es domiciliaria o callejera, con o sin rutas aleatorias, con o sin revisitas, con
o sin reposición, con o sin verificación y/o retiro de material, con o sin supervisión
(simultánea o a posteriori), etc.; todas ellas con sus respectivas ventajas y desventajas,
que bien podría denominarse el efecto modalidad de administración del instrumento y
que de hecho, también estaría atentando contra la homogeneidad de aplicación.
En segundo lugar, el procedimiento de administración puede ser absolutamente
homogéneo (eliminando los efectos “encuestador” y “modalidad de administración”) sin
que nada garantice que esta homogeneidad sea sinónimo de igualdad en las situaciones
en las que se realiza la observación. Y ello es así porque, precisamente, la encuesta
implica una situación de interacción o de “pseudoconversación” (Goode y Hatt, 1976)
entre encuestador y encuestado, que a su vez se halla determinada por numerosos
factores “ajenos” al propio “procedimiento”.
En efecto, resulta otra verdad de perogrullo afirmar que diferentes situaciones de
interacción sólo podrían realizarse en condiciones de igualdad en una sociedad que
fuera ella misma homogénea, en donde las distintas posiciones ocupadas por los sujetos
entrevistados y los contextos histórico-espaciales en donde se realizaran los contactos
no introdujeran variables que resultaran incontrolables en la interacción con el
entrevistador (Pizarro, 1998).
Como el lector a esta altura se estará imaginando, son abrumadoras las
evidencias que “apoyan” la afirmación anterior. Sin embargo, convendría repasar
algunas de ellas. Dado que excede los límites de los propósitos del presente apartado,
las cuestiones derivadas de los aspectos estrictamente psicológicos que hacen a la
personalidad de los entrevistados y que, de hecho, existen y tienen su influencia, sólo
serán mencionadas bajo la consideración que su abordaje debería realizarse desde la
psicología y otras disciplinas afines.
No obstante lo anterior, habría que comenzar haciendo para los entrevistados,
consideraciones similares a las realizadas para los encuestadores. Resulta evidente, que
aún antes de participar en la situación de interacción, los encuestados poseen atributos
136
(sexo, edad, nivel de instrucción, etc.) que permiten cifrar a priori expectativas
diferentes en cuanto al posterior desarrollo de la encuesta y obtención de las respuestas.
Es más, se podría reiterar lo dicho para el caso de un mismo encuestador: el mismo
sujeto encuestado durante el tiempo de encuestamiento (por escaso que sea) puede
“madurar” la experiencia y “progresar” de diferentes maneras según sea su pertenencia
en función de dichos atributos.
Pero haciendo referencia, ahora, a la propia dinámica del encuentro, numerosos
autores se han explayado sobre el tema. Bastaría con mencionar que ha sido definido
como una situación de interacción epistemológica y sociológicamente asimétrica (a
favor del encuestador) por las diferencias en los status ocupados y papeles
desempeñados, por conducir la dinámica, por manejar los tiempos, por estar informado
sobre los objetivos del estudio, por formular las preguntas conociéndolas con
anterioridad conjuntamente con sus posibles respuestas, etc.43
Desde una perspectiva mucho más crítica, se ha declarado el carácter alienante y
opresivo de las encuestas: por las preguntas cerradas, por convertirlas en una cuestión
de burócratas y/o tecnócratas, por considerar a los encuestados como meros poseedores
pasivos de información atomizada, etc. (Fals Borda y otros, 1973 y Hall y Le Boterf,
1973).
Frente a las interpretaciones anteriores –y sin entrar en el análisis de las mismas–
la pregunta sería: ¿qué pasaría si cualquiera de ellas –como bien podría ser posible–, le
perteneciera a algunos o a todos los encuestados? ¿Acaso, se comportarían de la misma
manera?
También se ha hecho referencia a la influencia de los contextos: tanto el
restringido (el tiempo y lugar donde se lleva a cabo el encuentro y las condiciones en el
que se realiza: escenario público, semi o privado; local, visitante o neutral, en intimidad
o con presencia de otros actores, de día, tarde o noche, feriado o laborable, etc.) como el
ampliado (las condiciones sociohistóricas y políticas en que los mismos se producen:
períodos democráticos o autoritarios, seguros o inseguros, etc.).
A esta altura del análisis, seguramente al lector le podrá resultar poco creíble y
hasta de mal gusto recordar la caracterización ideal de la técnica en cuestión. Tal vez,
convenga hacer la siguiente reflexión: ¿acaso, no ocurriría algo similar con otros
procedimientos técnicos, por ejemplo, los cualitativos? Seguramente; pero precisamente
por ello, las estrategias cualitativas no se caracterizan por ser dispositivos iterativos.
Intrusiva / no intrusiva
137
son herramientas no invasivas. Sin embargo, su grado de intrusividad va a depender de
cómo se haya obtenido el material sujeto a estudio: si el mismo ha sido obtenido a
través de una entrevista, de un test psicotécnico o algún tipo de consigna, la invasividad
se encuentra en el origen de dicho material.
Por otra parte y como ya se afirmó, no hay dudas, que las técnicas cuantitativas
son más intrusivas que las cualitativas. Sin embargo, esta reactividad variará según sea
su forma de administración dado que no es igual una encuesta que, por ejemplo, sea
administrada o autoadministrada. Algo similar podría decirse para las modalidades no
encubiertas, estructuradas e iterativas; mientras que dependerá en los casos de aquellos
instrumentos que admitan la participación, de cuál sea su forma de aplicación.
Asimismo, debe destacarse que la reactividad o no intrusividad alcanza a la
forma de registro de la información que se obtiene: el empleo de grabadores o cámaras
visibles suelen generar cambios significativos en los sujetos estudiados al punto de
provocar la cancelación del estudio.
Para finalizar y retomando la cuestión acerca de los sentidos del término
“objetividad”, hay que destacar que otros de sus significados posibles es equipararlo
“enunciado verdadero”; es decir, que un conocimiento sería objetivo –de acuerdo con
este sentido– cuando refleja la realidad tal cual es. O sea la verdad como copia fiel o
reflejo de lo que sucede. Así la concibió, por ejemplo, Aristóteles. En ese caso,
cualquier herramienta intrusiva dejaría de ser objetiva en la medida en que modifica el
estado del fenómeno estudiado.
No participante / participante
138
Se podría trasladar el análisis al rol que le compete desempeñar a estos últimos
en comparación con los papeles que puede desarrollar el observador. Sin embargo,
tampoco existen restricciones, especialmente en ciertas entrevistas, para que el
entrevistador pueda dramatizar durante las mismas, otros papeles sociales. Y aunque
pueda parecer ocioso, existen sobradas razones para afirmar que la cantidad y calidad
de la información obtenida depende de la actuación del entrevistador.
Nuevamente y volviendo a los sentidos de la “objetividad”, desde el paradigma
cuantitativista suele considerarse que un conocimiento es objetivo cuando se evita
cualquier interferencia y más aún, si esa influencia proviene del propio investigador. Por
tal motivo, el investigador no debe involucrarse y tomar debida distancia del objeto
estudiado.: el conocimiento entendido ahora como externo y el sujeto cognoscente
desempeñando un rol pasivo. Demás está decir, que habría muchos aspectos de los
fenómenos que no podrían conocerse sino es desde su propio interior e involucrándose.
No encubierta / encubierta
139
Alienante / no alienante
A partir de los años ’60 del siglo pasado comenzaron a vivirse situaciones de
crisis sociopolíticas tanto en América Latina como en otras partes del mundo; y como
ya había ocurrido en otros momentos esta crisis no tardó en trasladarse al campo de las
ciencias sociales. Fue así como comenzó a impugnarse el modelo dominante de
investigación en ese entonces impulsado desde la universidad de Columbia por los
sociólogos norteamericanos Lazarsfeld y Merton: el positivismo cuantitativista (Pérez
Lalanne, 2010). La mayoría de los cuestionamientos giraba en torno a uno de los
estandartes de este paradigma: la encuesta, a la que –entre otras cosas– se le criticaba su
carácter alienante, opresivo y simplificador de la realidad. Tal vez resulte obvio destacar
que los principales protagonistas pertenecían a movimientos sociales e intelectuales de
marcado sesgo marxista –en cualquiera de sus variantes– maoístas, trotskistas, etc. (Hall
y Le Boterf, 1973) obviando que el propio Marx, en su momento, también había
utilizado el mismo instrumento.
No hay dudas que –desde esta perspectiva– la encuesta es una estrategia
alienante y opresiva –formulario de preguntas cerradas que “obliga” a los encuestados a
tener que elegir entre opciones fijas de respuestas en cuya redacción no han participado
como tampoco en la selección de las problemáticas tratadas–; cosificadora, que toma a
los informantes como entes pasivos, meros depositarios de información fragmentada a
los que se les niega la capacidad de investigar los propio problemas que los aquejan y
simplificadora que cultiva el fetichismo de la cifra a la que se le rinde culto perdiendo
de vista la complejidad y –al mismo tiempo– singularidad de los fenómenos sociales.
Parafraseando al pedagogo brasileño Freire, si las técnicas de enseñanza tienen
consecuencias ideológicas lo mismo sucede con las técnicas de investigación: también
tienen consecuencias ideológicas (Freire, 1999).
140
141
CAPÍTULO 9: LA OBSERVACIÓN Y SUS MODALIDADES
1. Modalidades de la observación
142
o cuando es él el que toma contacto directo con el objeto (observación directa). Aquí
aparecería una de las ventajas (o desventajas) de esta estrategia: no siempre se puede
estar presente en el lugar donde ocurren los hechos o, también, los hechos ocurridos en
el pasado no se pueden observar directamente. En ambos casos, necesariamente hay que
apelar a otras fuentes o a otros informantes. Tal como sucede, por ejemplo, en el ámbito
judicial cuando se trata de reconstruir el hecho investigado acudiendo al relato de los
testigos presenciales o de las propias víctimas. En caso contrario, no hay dudas que esta
sería la principal ventaja de este dispositivo: el contacto directo con el fenómeno. Así lo
entendieron, por ejemplo, en la antropología cuando a fines del siglo XIX decidieron
superar la crisis en la que la disciplina se hallaba envuelta, trasladándose directamente al
ámbito donde estaban las poblaciones nativas (investigación in situ) sobre las cuales
muchos hasta ese entonces habían escrito jactándose de no haberlos visto nunca y dando
origen al enfoque etnográfico (Guber, 2001).
Un segundo criterio es de acuerdo al ámbito en el que se realiza la observación:
143
No participante: el observador no se involucra y procura observar sin participar –sea
desde afuera o estando adentro– con los pros y los contras que ello puede tener. No hay
dudas que si el objetivo fuera estimar la cantidad de personas que participan en una
manifestación, la vista aérea o externa permitiría una mejor visualización y cálculo.
Pero si se tratara de conocer el clima y las consignas necesariamente habría que hacerlo
desde adentro con los riesgos de intrusividad que ello puede implicar.
Participante: al involucrarse el observador se ve obligado a asumir algún rol que podrá
desempeñar en sus propios términos o en los términos de los actores observados. Al
respecto, Guber describe un continuo de cuatro alternativas (Guber, 1991) en el que
–como puede apreciarse– el orden de aparición de los términos indica el predominio:
144
embargo, ese rol pasivo no significa que sea neutral; por el contrario, puede resultar
altamente intrusivo.
Observador participante: sin ocultar su rol de observador externo participa
ocasionalmente en aquellas actividades que le resulta imposible eludir pero lo hace
siempre en sus propios términos, involucrándose lo menos posible y priorizando el
registro de lo acontecido.
Participante observador: no hay dudas que en este caso el énfasis está puesto en la
participación –en lo posible, en los términos de los actores– aun en desmedro de su rol
de observador pero procurando vivenciar lo más posible los papeles desempeñados.
Participante pleno: en este caso, lisa y llanamente se abandona la tarea de investigador
con la intención de mimetizarse con los demás. El involucramiento al ser total se
convierte –prácticamente– en un camino sin retorno dado que no podría encontrar un
lugar alternativo, especialmente, si no ha revelado su rol de observador.
Precisamente y en íntima relación con el anterior, hay un cuarto criterio que
remite al grado de encubrimiento del rol de observador:
No encubierta: el investigador no sólo se da a conocer como tal sino que también revela
la verdadera finalidad del estudio con las implicancias que ello pueda tener:
impedimento de practicar la observación ante la negativa de los actores, alto grado de
intrusividad, etc.
Encubierta: el investigador oculta su identidad o dándose a conocer como tal, disfraza
sus verdaderas intenciones con las consecuencias que ello pueda provocar al punto de
poner en riesgo el estudio cuando no su propia integridad. Sin perjuicio de lo anterior,
habría que sumarle las implicancias éticas que ya fueron tratadas en el capítulo anterior.
En relación al observador encubierto se podría –a su vez– discriminar según la
condición del mismo entre el miembro natural y el artificial, lo cual nos lleva a la
distinción entre las figuras del traidor y del espía.
Un quinto criterio se refiere al grado de estructuración con el que se administra
la herramienta:
145
No estructurada: la observación es libre y abierta adoptándose la lógica del turista o del
forastero en el todo le llama la atención y se es proclive a registrar cuanto sucede.
Semiestructurada: a mitad de camino y en tren de garantizar cierta homogeneidad y
seguridad en el registro, la observación se realiza conforme a una lista de ítems
previamente establecida.
Estructurada: con la finalidad de sistematizar –y seguramente, cuantificar– la
observación de administra de acuerdo a una guía o planilla debidamente detallada con el
riesgo que por sujetarse a la misma se pierdan aspectos que por no figurar en la grilla
queden sin registrar.
Un último criterio alude al número de observadores:
146
Compensar o neutralizar los sesgos individuales convirtiendo esa subjetividad en
una subjetividad compartida, con la que se alcanzaría otro de los sentidos
posibles de la objetividad.
Al mismo tiempo, ello posibilitaría combinar diferentes modalidades de esta
estrategia.
147
Por otra parte y de acuerdo al análisis que hiciera Hanson a fines de los años ’50
del siglo pasado, debe recordarse que las observaciones no son neutrales o ascéticas
como tampoco lo es el lenguaje que se utilice para registrarlas: no existen enunciados
observacionales puros tal como lo daba por hecho el positivismo lógico (Pérez Lalanne,
2010).
Por tales motivos y retomando el enfoque etnográfico lo anterior implicaría
registrar lo acontecido contemplando tres niveles de realización consecutiva –o más
bien, simultánea–: el nivel primario o reporte descriptivo que informa sobre lo que ha
ocurrido (el “qué”), es decir, que presenta los comportamientos como acciones físicas
sin un sentido, como “cerrar un ojo manteniendo el otro abierto”, pero al mismo tiempo
comprometiendo todos los sentidos en el registro.
El nivel secundario o comprensión propiamente dicha que se ocupa de lo que
ocurrió para los actores (el “cómo es” para ellos), o sea, el significado que le atribuyen,
el “marco interpretativo” dentro del cual los actores clasifican el comportamiento y le
atribuyen sentido, como cuando a aquel movimiento ocular se lo llama "guiño" y se lo
interpreta como gesto de complicidad, aproximación sexual o seña en un juego de
naipes. Un investigador social difícilmente entienda una acción sin comprender los
términos en que la caracterizan sus protagonistas. En este sentido los agentes son
informantes privilegiados pues sólo ellos pueden dar cuenta de lo que piensan, sienten,
dicen y hacen con respecto a los eventos que los involucran. Mientras que el reporte
depende de su ajuste a los hechos, la comprensión depende de su ajuste a la perspectiva
de los agentes. Una adecuada comprensión es aquella que no los malinterpreta, es decir,
que no incurre en interpretaciones etnocéntricas o sociocéntricas, sustituyendo los
puntos de vista, valores, motivos, etc. de los actores, por el punto de vista, valores y
razones del investigador.
Por último, el nivel terciario o interpretativo que realiza el investigador a modo
de conclusión– articulando su marco teórico con la perspectiva de los actores.
Precisamente, a esto último se refiere Giddens cuando plantea la doble hermenéutica:
“La sociología , no obstante, se ocupa de un universo que ya está constituido dentro de
marcos de sentido por los actores sociales mismos, y reinterpreta esos marcos dentro de
sus propios esquemas teóricos, mediante el lenguaje corriente y el técnico. Esta
hermenéutica doble es de una considerable complejidad, porque la conexión no
establece una circulación de sentido único; hay un continuo ‘deslizamiento’ de los
conceptos construidos en sociología, por el cual se apropian de ellos aquellos individuos
para el análisis de cuya conducta fueron originalmente acuñados, y así tienden a
convertirse en rasgos integrales de esa conducta (lo que de hecho compromete
potencialmente su acepción original en el vocabulario técnico de la ciencia social”
(Giddens, 1997: 194). A lo anterior habría que agregarle, que con esta devolución o
deslizamiento, los actores reinterpretan y modifican su propio mundo, caracterizando la
dinámica de los procesos sociales. Dicho de otro modo, una cosa era el mundo antes de
Freud o Marx, y otra cosa lo fue después de ellos.
En definitiva, en este tipo de descripción-comprensión-interpretación, adoptar un
enfoque etnográfico es elaborar una representación coherente de lo que hacen, piensan,
sienten y dicen los nativos, de modo que esa "descripción" no es ni el mundo de los
148
nativos, ni cómo es el mundo para ellos, sino una conclusión interpretativa que elabora
el investigador. En suma, las etnografías no sólo reportan el objeto empírico de
investigación –un pueblo, una cultura, una comunidad– sino que constituyen la
interpretación sobre lo que el investigador vio y escuchó. Parafraseando a Guber, la
observación etnográfica presenta la interpretación problematizada del autor acerca de
algún aspecto de la "realidad de la acción humana".
149
CAPÍTULO 10: LA ENTREVISTA
1. Caracterización de la herramienta
150
3. Comenzar la entrevista en los términos del entrevistador para –lo antes posible,
familiarización mediante– pasar a los términos de los entrevistados (Guber, 1991).
4. Por tales motivos, Bruyn menciona como otros de los índices de adecuación subjetiva
el conocimiento del lenguaje, la “jerga”, los códigos que manejan los actores, en la
hipótesis que a un mayor conocimiento del lenguaje de los sujetos estudiados
aumentaba la probabilidad de obtener una mejor comunicación con los mismos (Bruyn,
1978).
5. “Atención flotante, asociación libre y categorización diferida” (Guber, 1991). La
atención flotante –por parte del entrevistador– es un modo de escuchar que consiste en
no privilegiar de antemano ningún punto del discurso del entrevistado. Debe tenerse en
cuenta que cuando el entrevistador plantea la pregunta está –al mismo tiempo–
estableciendo el marco interpretativo de las respuestas, es decir, el contexto donde lo
verbalizado por los informantes tendrá sentido para la investigación. Por lo tanto, debe
poner entre paréntesis su propio marco referencial absteniéndose de interpretar las
respuestas –en forma apresurada y sociocéntricamente– asumiendo que sus pautas de
categorización no son las únicas posibles y quedando a la espera –en actitud de escucha
activa, atenta e interesada– hasta comenzar a conocer la propia perspectiva del actor
desde la cual se pueda interpretar sus respuestas. Para ello, la asociación libre –por
parte del entrevistado– resulta la táctica más adecuada. Esto es: utilizar los mismos
términos del actor para continuar el diálogo dado pie y promoviendo que sea él mismo
quien vaya asociando y proponiendo el sendero por el cual irá transitando la
comunicación en el convencimiento que sólo los lugareños o baqueanos están en
condiciones de indicar el rumbo por donde irá floreciendo el universo interpretativo del
informante que le permita descubrir el sentido de sus palabras. Después habrá tiempo
para la focalización y profundización repreguntando sobre los temas más significativos
tras la categorización diferida –por parte del entrevistador– pero ahora, desde el marco
interpretativo de los actores47.
6. De lo anterior se desprende que –por lo menos al principio–, el análisis debe realizar
en forma simultánea a la realización del trabajo de campo y muchas veces, durante la
propia entrevista. Esto no lleva al tratamiento del tema objeto del próximo apartado.
Si bien es cierto que –según Bruyn– el tiempo es otro de los factores que
contribuye a la adecuación subjetiva, entendiendo que cuanto mayor sea el tiempo que
pasemos con los actores mayor será el conocimiento que se logre tener sobre los
mismos (Bruyn, 1978), no por ello es necesario agotarlo en único encuentro. De la
misma manera que tampoco lo es para la entrevista.
Debe tenerse en cuenta que el tiempo de los informantes no es el mismo tiempo
del investigador y sus plazos para realizar el estudio o finalizar el trabajo de campo; del
mismo modo como no suelen coincidir los tiempos internos y los externos.
47
Véase Castro, A.: “La entrevista en profundidad…” en Pérez Lalanne, 2010.
151
Precisamente, una de las premisas es no cansar al entrevistado ni abusar de su paciencia
y disposición: no son máquinas que puedan “vomitar” información a voluntad del
investigador. Por ello –ante la mínima sospecha de cansancio o que el interrogado está
percibiendo que es ametrallado con preguntas, sin tregua– es aconsejable revertir esa
asimetría parlante, intercalando alguna experiencia o comentario acerca de alguna
vivencia del entrevistador para no sólo simetrizar los términos verbales de la relación
sino para que el investigador –como una forma de retribución y muestra de intimidad–
comience a “mostrar su intimidad” que –por otra parte– es otro de los índices de Bruyn:
lograr la empatía recíproca como factor que contribuya a la práctica investigativa. Por
tales razones, por los motivos expuestos en el apartado anterior (categorización diferida,
focalización y profundización, etc.) y por los que se agregarán, no es conveniente agotar
la entrevista en un único encuentro. En definitiva, el ritmo de la entrevista, los tiempos,
los encuentros e incluso las temáticas abordadas y su profundidad se “negocian y
construyen recíprocamente, en la reflexividad de la relación de campo (Guber, 1991:
243).
A lo anterior habría que sumarle la cuestión de los contextos y su influencia
–directa e indirecta– en la dinámica de la relación informante-investigador. En tal
sentido, se podría distinguir entre los contextos ampliado y restringido. El primero
remite al conjunto de relaciones –política, económica, cultural, etc.– que engloban tanto
al entrevistado como al entrevistador sin perder de vista que ambos son productos
históricos y, por lo tanto, están sujetos a los mismos condicionamientos. Por ejemplo,
trabajo de campo bajo gobiernos dictatoriales, períodos electorales, épocas festivas,
pertenencia a diferentes clases, etc. No hay dudas que el contexto ampliado puede
promover tanto la autocensura como la locuacidad, modificando hasta la propia
interpretación no sólo de las problemáticas tratadas sino el relato de las mismas.
Por su parte, el contexto restringido refiere al ámbito en el que se realiza en
encuentro: lugar, personas presentes, privacidad, actividades que se realizan en el
mismo, etc. A ello debe sumarse que no es igual –especialmente para el entrevistado
pero también para el entrevistador– “jugar” de local, de visitante o en cancha neutral.
Incluso, a veces, para el informante puede ser beneficioso renunciar a la localía. De ahí
que, ante la menor sospecha de una posible incidencia del ámbito y en la medida que
exista la posibilidad de la realización de varios encuentros, es aconsejable rotar de
contexto y de condición, negociación mediante entrevistador-entrevistado.
3. El análisis simultáneo
152
3.1. Hermenéuticas: en términos generales, las respuestas suelen enmarcarse en una
determinada visión del mundo, de la cultura, de los otros y de sí mismo que conforman
el universo simbólico interpretativo y que –como se dijo– el investigador deberá
identificar y reconstruir. Kuhn lo llamó paradigma y –mucho antes– Fleck estilo de
pensamiento (Pérez Lalanne, 2010). En función de ese estilo, el informante elabora su
relato al tiempo que construye su identidad narrativa que dará sentido a los relatos de
acciones o eventos que, en realidad poseen una existencia en el fondo desconocida,
enigmática, fantasmal, sujeta a contradicciones, parcialidades, contradicciones,
inestabilidades en relación a los hechos evocados y que el investigador deberá
desentrañar (Bourdieu, 1986).
3.2. Existenciales: cuando se hace referencia a acontecimientos ocurridos que
involucran la propia existencia de nuestro interlocutor, habrá que prestar atención a si el
entrevistado se ubica “fuera” o “dentro” de ellos. Por ejemplo, si se asume como activo
participante o como ajeno a los hechos. Si se trata de hechos acontecidos en un pasado
distante, se debería estar atento al relato que hace de los mismos: por ejemplo, si brinda
una versión ascética o interesada y tergiversada; y en cualquiera de los casos, procurar
identificar las razones justificadoras.
3.3. Dialécticas: por lo general, en toda entrevista existe cierta lógica controversial o
confrontacional entre el entrevistado y el entrevistador atravesada por cuestiones
emotivas, ideológicas, etc. que nutren los estilos de pensamiento y que el investigador
deberá controlar y neutralizar para evitar que contamine y/o haga fracasar el diálogo.
3.4. De controles y mentiras: en relación a lo anterior, no debe perderse de vista que las
verbalizaciones suelen ser una fuente siempre latente de distorsión y subjetividad, la
cortina de humo de la hipotética verdad. Dicho de otra manera: el dominio de las
prácticas es diferente al dominio de las nociones y representaciones. Con otras palabras,
el campo de lo ideológico tiene su especificidad no reductible ni predeterminado por
otras instancias de lo social. Sólo suponiéndolos idénticos se podría exigir una
congruencia total entre lo que la gente dice y lo que hace. El hecho que un padre declare
que a los hijos hay que comprenderlos y explicarles, y que el castigo corporal es
innecesario y contraproducente no impide que ante la primera travesura, saque su cinto
y los castigue. Sostener un valor no significa practicarlo: ambas cosas –aunque
contradictorias– son verdaderas. En tal caso, se podrá problematizar la incongruencia,
distinguiendo entre verbalizaciones que se corresponden con los hechos y otras que no
(Guber, 1991). Habría que recordar nuevamente, lo dicho por Bourdieu: de la boca de
los informantes no puede esperarse la verdad científica (Bourdieu, 1975).
3.5. Gramaticales y sintácticas: en el análisis de cualquier relato siempre es
conveniente distinguir entre lo que se dice (o no se dice) y el cómo se lo dice. En
relación a esto último, habrá que prestar atención los tiempos, los modos y las personas
verbales que se utilizan. Una cosa es afirmarlo en tiempo pasado que presente, futuro o
potencial. No es lo mismo hablar en primera persona del singular que del plural,
despersonalizar o personalizar el relato. También se debería estar atento en el análisis a
qué personajes dirige el discurso el informante: ¿le está hablando al entrevistador, a la
gente en general, a alguien en particular? ¿Lo hace en tono de reproche, conciliador o
153
imperativo? ¿Sus frases son coherentes, taxativas y completas o son dubitativas,
incoherentes e incompletas? (Delgado y Gutiérrez, 1998). Del mismo modo, se deberá
prestar atención a los recursos literarios que el informante utiliza y sus respectivos
significados: analogías, metáforas, alegorías; especialmente, si se los piensa utilizar
luego en el análisis –a los efectos ilustrativos o como “códigos en vivo”– o en la
redacción del texto monográfico.
4. El registro de la entrevista
5. La finalización de la entrevista
Aunque la cita resulte algo extensa haré mías las palabras del colega y amigo
Alfredo Castro:
Esta cuestión es crucial, ya que está en juego el manejo de las
expectativas y frustraciones que se pueda generar en el entrevistado.
154
El tipo de relación o de cercanía psicológica que se produce entre ambas
partes, puede provocar, especialmente en el entrevistado, sentimientos de
frustración y abatimiento, en particular cuando se trata de personas que se
encuentran habitualmente en soledad, que no suelen ser escuchadas o que
encontraron en el investigador una vía para volcar sus emociones
contenidas o reprimidas.
Deben, por lo tanto, tenerse en cuenta recaudos que apunten a la salud
psicológica de los sujetos, evitando crear de entrada, falsas expectativas o
una situación de dependencia.
Hay que recordar que los entrevistados no son “objetos” de estudio, que
solo importan a los fines del investigador, sino que como personas merecen
todo nuestro respeto, cuidado y consideración (Castro en Pérez Lalanne,
2010: 230).
6. Tipos de entrevista
155
debe confundirse a las entrevistas grupales con los focus groups aún cuando puedan ser
considerados como una variación de las primeras. En los grupos focales el foco de
interés está puesto en el metamensaje al que arriba el grupo producto de su dinámica;
esto es, que se priorizan las conclusiones que han captado mayor adhesión entre los
participantes –sea por mayoría o desagregado en mitad-mitad o mayoría y minoría)48.
En cambio, en la grupal se conserva la individualización de los integrantes registrándose
la participación de cada uno.
Una modalidad particular de la grupal es el denominado método Delphi. Esta
técnica –desarrollada en los años ’60 del siglo pasado, cuando todavía no existían las
comunicaciones virtuales– se utilizaba a los efectos de entrevistar expertos a la distancia
que por razones diversas no podían debatir en forma presencial. El procedimiento
consiste en la realización de una serie de entrevistas individuales, a partir de las cuales
se elabora un informe que permite identificar las principales opiniones de los
especialistas. Estos resultados luego son distribuidos entre los participantes que tienen
la posibilidad en función de las respuestas de sus pares, de ratificar o modificar sus
propios puntos de vista. De este modo, es posible generar información colectiva,
clarificando posiciones y delineando diferencias entre los actores involucrados,
manteniendo la confidencialidad de las opiniones. Demás está decir que, en la
actualidad esta estrategia ha sido reemplazada, por ejemplo, por las videoconferencias.
De lo anterior se desprende la posibilidad de clasificación de acuerdo a la
modalidad de administración. En tal sentido, las entrevistas pueden ser presenciales,
telefónicas o virtuales. Con relación a las telefónicas está la modalidad de las
denominadas entrevistas solapadas (o mystery called) –similares a la observación
encubierta o mystery shopper – que –más allá de las objeciones éticas– también son
cuestionadas por algunos autores aduciendo que no existiría una situación de entrevista
propiamente dicha. En tal sentido, debe aclararse que no deberían confundirse con
entrevistas a aquellas conversaciones que se mantienen en la aplicación de otras
estrategias como, por ejemplo, la observación participante.
48
Véase Miguez, R.: “Los grupos focales” en Pérez Lalanne, 2010.
156
CAPÍTULO 11: LA ENCUESTA
2. Caracterización de la encuesta
157
verbal (escrita u oral) a los fines que los resultados del procesamiento sean analizados e
interpretados estadísticamente desde una perspectiva cuantitativa.
Las encuestas sociológicas han sido caracterizadas, entre otras cosas, por la
siguiente perspectiva: se expone a un conjunto de sujetos (que son considerados
unidades de análisis) a estímulos homogéneos (las preguntas de los cuestionarios o
cédulas) en situaciones homogéneas y se registran las diferentes respuestas individuales
que se obtienen.
Uno de los supuestos en el que se funda esta estrategia es que las variaciones de
esas respuestas individuales proceden de los atributos sociales o, más precisamente,
biopsicosociales de los individuos, pues se considera que la situación en la que se
efectúa la medición es la misma para todos.
En un sentido estricto, teórico y abstracto, la metodología de la encuesta
presupone que la utilización del mismo formulario, cumplimentado con procedimientos
homogéneos, garantiza que las respuestas obtenidas son respuestas al mismo estímulo
en la misma situación (Pizarro, 1998). Sin embargo, resulta harto evidente que en un
sentido algo más amplio y pragmático, lo anterior difícilmente pueda cumplimentarse,
tal como fue expuesto en el capítulo 7 de este libro.
3. Modalidades de la encuesta
158
3. En la mayoría de los casos, facilita el posterior procesamiento de la información
prescindiendo de la contratación de data entry pudiéndose conocer los resultados al
instante.
Por su parte y como desventajas:
1. Muchos formularios no son devueltos, se extravían, llegan tarde o de manera
incompleta.
2. Nunca se sabe a ciencia cierta quien completó el protocolo y en qué condiciones lo
hizo (acompañado o consultando, prestando atención a la respuesta, etc.). Tampoco hay
forma de controlar la veracidad de las respuestas. Al mismo tiempo no hay forma de
saber quiénes no contestaron y los motivos por lo que no lo hicieron.
3. Resulta más engorroso cumplimentar el tamaño de las cuotas muestrales o la
proporcionalidad de los estratos.
4. Si el encuestado no entiende la pregunta o alguna alternativa de respuesta no hay
quién se las pueda explicar.
5. Hay personas que tienen limitaciones tanto para leer o escribir o para acceder a las
nuevas tecnologías de información.
6. Lo anterior afecta directamente la representatividad, confiabilidad y validez de los
resultados aun cuando para contrarrestarlas se pueda ampliar el tamaño de la muestra.
Por último y eventualmente, se podría optar por una combinación de ambas
modalidades.
4. Tipos de pregunta
Existen diferentes criterios para clasificar las preguntas. Uno de ellos –tal vez,
en términos operativos, el principal– es el formato. En efecto, de acuerdo a la forma las
preguntas podrán ser abiertas, cerradas o mixtas.
Preguntas abiertas: como su nombre lo indica son aquellas que permiten que el
encuestado (o entrevistado) respondan con sus propias palabras y con la extensión que
consideren pertinente.
Preguntas cerradas: son las que ofrecen alternativas fijas de respuesta entre las que se
deberá optar.
En ambos casos, existen ventajas y desventajas. No hay dudas que las preguntas
abiertas permiten obtener una mejor y mayor cantidad de información, una mayor
diversidad y heterogeneidad de las respuestas. Al mismo tiempo, no condicionan al
entrevistado ni limitan o censuran su capacidad y libertad de expresión. Pero y como
desventajas, las preguntas abiertas presentan mayores dificultades llegado el momento
de su procesamiento y análisis dado que –y especialmente cuando los estudios son
cuantitativos– a esas preguntas abiertas hay que cerrarlas, lo cual supone un trabajo
previo hasta que se adopte algún criterio de categorización. También no serían
apropiadas para aquellos procedimientos on line que incluyen la carga automática de la
información. Demás está decir que lo contrario ocurre con las preguntas cerradas.
159
A su vez, las preguntas cerradas podrán ser: dicotómicas o de elección múltiple.
Las dicotómicas ofrecen dos alternativas de respuesta, generalmente por SI/NO,
ACUERDO/DESACUERDO, A FAVOR/EN CONTRA, VERDADERO/FALSO, etc.
Por su parte, las de elección múltiple ofrecen más opciones (en abanico, de estimación u
opinión). Para el caso de las respuestas en abanico es importante la decisión entre que
esas categorías sean o no excluyentes entre sí. Cuando son excluyentes el encuestado
podrá elegir sólo una; para las no excluyentes, se le permite elegir más de una. La
dificultad de esta última opción se presenta al momento de la carga de datos dado que
los programas informáticos de procesamiento de datos no permiten que en una misma
celda se pueda cargar más de una respuesta, lo que implica que a esas preguntas habrá
que hacerle un tratamiento especial49.
Supóngase que la pregunta fuera: ¿Podría indicar los motivos por los que
decidió votar al candidato que eligió? Y que las opciones en abanico fueran:
HONESTIDAD/TRAYECTORIA/AFINIDAD IDEOLÓGICA/CARISMA/PERTENENCIA
PARTIDARIA/ETC./OTROS MOTIVOS/NS-NC. Si las respuestas fueran no excluyentes
el encuestado podría optar por varias con las dificultades en la posterior carga. Para
evitarlas, se podría incluir una categoría de: VARIOS MOTIVOS lo que provocaría la
pérdida de información al desconocer cuáles fueron los motivos; se podrían abrir
combinaciones a medida de vayan siendo mencionados: HONESTIDAD/CARISMA lo
que aumentaría considerablemente el número de categorías; o tal vez, lo más
conveniente –para forzar la exclusividad– sería modificar la pregunta solicitando que
indique el principal motivo o que los mencione en orden de importancia: en primer
lugar, en segundo lugar, etc.
Preguntas mixtas: en pocas palabras resultan una combinación de las dos anteriores.
Básicamente, ofrecen tres modalidades:
1. La pregunta está y se formula como cerrada –mostrando o leyendo las opciones de
respuesta– y una vez que el encuestado ha elegido se le pide que justifique o que
explique la elección: tal como sucede con los múltiples choise con justificación o
volviendo al ejemplo anterior, solicitándole al interrogado que explique por qué eligió
ese motivo como principal. Es decir, que hay una parte cerrada y la otra abierta.
2. La pregunta está cerrada y se la formula como tal pero se le permite al encuestado
que pueda agregar otra respuesta que él considere no ha sido prevista. Por ejemplo, la
alternativa de OTROS MOTIVOS (¿cuál?):…………………………
3. La pregunta está cerrada pero se formula como abierta –sin lectura de las opciones–
para que el encuestado responda con sus propias palabras, pero el encuestador sobre la
marcha interpreta y marca entre las categorías preestablecidas. Esta alternativa de
pregunta mixta –que no sería posible para la modalidad autoadministrada– pretende
evitar el cierre posterior al tiempo que no condicionaría al informante pero requiere que
el encuestador esté atento y se asegure de haber comprendido e interpretado
adecuadamente la respuesta.
49
Véase el capítulo referido al análisis de los datos.
160
En definitiva, es aconsejable que la mayoría de las preguntas sean cerradas y
cuando son de elección múltiple que al mismo tiempo las respuestas sean excluyentes
entre sí. Por otra parte, debe tenerse en cuenta que la encuesta traduce en preguntas a las
variables e indicadores cuyas categorías se transforman en alternativas de respuestas. De
manera que si –como oportunamente se desarrolló– las variables e indicadores ya están
categorizados es lógico que las preguntas estén cerradas y si –además– se trata de
cumplir con el principio de la exclusividad, lo mismo debería ocurrir con las respuestas
que deberían ser mutuamente excluyentes.
161
4. En cuarto, adelantarle el tiempo aproximado –que no debería exceder los quince o
veinte minutos– que la va a demandar su participación.
5. Por último, agradecerle su colaboración.
Con respecto a las instrucciones y si no ha sido puesto al principio del
formulario, habría que comenzar explicitando claramente quienes no pueden
contestarlo. Suele ocurrir en toda investigación que de acuerdo a como se haya hecho el
recorte o contextualización temporal, geográfica y sociodemográfica, están quienes han
quedado afuera de la investigación. Por ejemplo, si no ha nacido en cierta década, no
vive en el gran buenos aires y no es jubilado no está habilitado para participar.
En segundo términos, estarán las indicaciones –que valen tanto para el
encuestador como para el encuestado– acerca de cómo completar el protocolo, en
especial, como registrar las respuestas (marque con una cruz donde corresponda o
subraye la respuesta elegida, tache lo que no corresponda, etc.). En este caso, el
propósito es homogeneizar y facilitar la posterior carga si la misma fuera manual.
En tercer lugar y especialmente para la modalidad autoadministrada habrá
recomendaciones para que conteste solo (sin consultar) o que lo haga según su primera
impresión, respetando el orden de las preguntas, etc. Por último, están las instrucciones
particulares: por ejemplo, si contestó SI pase a la pregunta Nº tal o no conteste la
pregunta siguiente.
Con relación a la tercera cuestión sobre las preguntas también existen numerosas
decisiones a tomar:
1. La primera es con respecto al orden de las preguntas; se aconseja seguir la técnica del
embudo: comenzar por aquéllas más generales, menos conflictivas, más inespecíficas
para luego avanzar con las más intimas, más conflictivas o más urticantes. Claro está
que, a veces y por una cuestión de cuota muestral, necesariamente hay que arrancar con
alguna de índole más privada; dado que si se está buscando madres solteras no se puede
esperar al final para notificarnos que es casada y sin hijos.
2. En segundo lugar, es recomendable que las preguntas estén agrupadas por área
temática a los efectos de no marear al encuestado. Salvo aquellos casos en que se ha
decidido –a modo de control– intercalar alguna con otras que no tienen nada que ver.
3. En tercer lugar y siguiendo la misma lógica, las preguntas deberían estar numeradas
en forma correlativa, de manera tal que esa numeración indique el orden en que deben
ser formuladas y/o respondidas.
4. En cuarto lugar, deben estar formuladas en términos y claros y precisos, ajustándose a
la mención de las distintas variables o indicadores y evitando la inclusión en una misma
pregunta de dos de ellos diferentes.
5. En quinto y dado que en su mayoría –sino en todas– van a estar cerradas, habrá que
determinar el criterio de precodificación. Debe diferenciarse entre la pre y la
poscodificación. Cuando las preguntas son cerradas corresponde que ya estén
precodificadas mientras que la poscodificación estaría reservada para las preguntas
abiertas o mixtas. En todos los casos, es aconsejable que el código sea numérico y de un
solo dígito; no alfanumérico (A1, A2, A3) ni tampoco desagregado (3.1, 3.2, 3.3). Al
mismo tiempo y para cuando son cerradas, el código debe acompañar –por lo general,
iniciando– el texto de cada respuesta. Además, se recomienda que respuestas similares o
162
iguales tengan el mismo código: todos los SI, todos los NO o los NS/NC. De esta
manera, bastará con redondear el código para registrar la respuesta.
6. Por una cuestión que se verá más adelante –cuando se llegue a la carga de datos y el
posterior armado de los cuadros y gráficos y se tenga pensado procesar con Excel–, en
las preguntas categorizadas con niveles ordinales, intervalares o racionales, las
respuestas tendrían que ser presentadas y precodificadas de menor a mayor: 1. Mala / 2.
Regular / 3. Buena. Lo mismo para el nivel nominal, cuando se pretenda que luego en el
cuadro alguna categoría aparezca en primer lugar: 1. Soltero / 2. Casado / 3. Separado /
4. Divorciado / etc.
7. Una última mención es para las variables complejas y la forma de su resolución. Se
entiende que resolver una variable compleja remite a la decisión de definir para cada
caso la categoría que le corresponde. Supóngase que la variable compleja fuese NSE
con sus categorías BAJO / MEDIO / ALTO; resolverla significa determinar qué nivel
tiene cada unidad de análisis. En tal sentido, hay dos alternativas de resolución: manual
y electrónica. Imaginemos que la encuesta está siendo administrada en forma presencial.
La resolución manual supone que –efectivizada la cédula y con todas las preguntas
respondidas– será el encuestador o quien corresponda que –en función de las respuestas
emitidas para cada uno de los indicadores de esta variable y de acuerdo a como se hayan
distribuidos los puntajes del índice– registrará en donde corresponda el nivel de ese
encuestado. Para facilitar la tarea y dado que está siendo administrada –en el caso de las
autoadministradas puede condicionar al encuestado–, se sugiere que al lado de cada
respuesta –por ejemplo, entre paréntesis– aparezca el puntaje. De esta forma, bastaría
con sumar esos puntajes. Luego al final de estas preguntas y en un recuadro aparte
estará el NSE con sus respectivas categorías; en alguna de ellas irá la marca del
codificador. Si la resolución fuera electrónica –por ejemplo, con el Excel– llegado el
momento de la carga de los datos en la matriz, en las preguntas de los indicadores de
cada variable compleja habría que cargar los puntajes de índice correspondientes. Luego
se le pediría que los sume (función de autosuma) y aplicando la fórmula condicional
necesaria, sería el programa informático quien indicaría en la columna correspondiente
la categoría –para cada variable compleja– a la que pertenece cada unidad de análisis.
Llegando casi a la finalización del formulario, quedan los datos de clasificación.
Esta “sección” se refiere a las variables, indicadores o preguntas que permitirán
caracterizar las unidades de análisis. En términos generales, son las variables
sociodemográficas: SEXO, EDAD, ESTADO CIVIL, NIVEL DE ESTUDIOS,
OCUPACIÓN, etc. que habitualmente se reservan para el final. Aun cuando –por una
razón de cuota muestral y tal como se adelantó– puedan ser formuladas al inicio.
Por último y en la medida que quedara espacio en blanco en el formulario, se
aconseja dejar un último recuadro para las observaciones y/o comentarios que desearan
hacer y registrar tanto el encuestador como el encuestado.
6. El pretest
163
instrumento. Esta tarea supone su administración a una submuestra –con las mismas
características– de lo que va a ser la muestra en un porcentaje no mayor al 10%.
El propósito es testearlo: si las preguntas están bien formuladas y cerradas; si
faltan alternativas; si se entienden; si hubieran dudas acerca de su cierre, se las podría
dejar abiertas y cerrarlas luego en función de lo que hayan respondido las personas; si el
orden es el correcto; identificar las que generen rechazos; etc.
Lo anterior permitiría hacer los ajustes pertinentes y continuar con el proceso. Si
no hubiera necesidad de cambios o los mismos fueran poco significativos, esa
submuestra pasa a formar parte de la muestra; en caso contrario, se perdería.
164
CAPÍTULO 12: EL DIFERENCIAL SEMÁNTICO
1. Introducción
Esta técnica cuantitativa fue diseñada por Charles Osgood y colaboradores con
el propósito de observar y medir los significados psicológicos que para los individuos
tienen las cosas representadas por los conceptos.50 Fue concebida como un medio y no
un fin en sí mismo, un instrumento para estudiar la variable significado en el
comportamiento humano. Ampliando su finalidad, el objetivo de esta técnica es analizar
y construir la imagen y las actitudes que los individuos tienen sobre determinados
estímulos o cómo ellos se hayan instalados en el Imaginario Social (Díaz, 1998).
En tal sentido, Osgood imaginó un espacio semántico multidimensional de
naturaleza geométrica en cual ubicar tanto a los estímulos como a los individuos en
función de sus reacciones o respuestas. Dicho autor consideraba que en toda cultura o
subcultura existen elementos simbólicos comunes a partir de los cuales los individuos
organizan su experiencia y que son pasibles de ser segmentados en función de un
conjunto de variables, incluso aun en aquellas culturas que en apariencia resultaran ser
homogéneas.
50
Osgood, Charles y otros: “El diferencial semántico como instrumento de medida”, en Wainerman, C. y
otros (1976).
165
2.2. Construcción del espacio semántico
166
Su “composición factorial” dado que como fue señalado son tres las dimensiones
del espacio semántico o factores dominantes (valoración, actividad y potencia).
Su “relevancia para los conceptos evaluados”, su pertinencia aunque sea en términos
metafísicos. Por ejemplo, si se trata de analizar el posicionamiento de varias
universidades en el imaginario social, no es relevante la escala sabrosa-desabrida y
sí en cambio aunque pueda resultar metafísico: templo del saber-templo de la
ignorancia.
Su “estabilidad semántica” con respecto a los sujetos y estímulos de una
investigación específica. Esto significa que los atributos no deben prestarse a
distintas interpretaciones. Por ejemplo, una escala bipolar que no tiene estabilidad es
grande-chico, dado que el adjetivo grande puede significar: grande en edad, grande
en tamaño, grande como elogio (¡Grande, Pa!), etc.
Su “representatividad” de los sujetos a los cuales se les va a administrar la escala, es
decir, que es importante que los atributos reflejen el “estado de ánimo”, la
“sensación térmica”, el interés de los individuos. Y esto es sumamente importante,
dado que a veces el éxito de la escala no está en los resultados generales obtenidos
sino en el “testeo” de determinados atributos/adjetivos/slogans/etc. A veces,
determinadas “cualidades” o incluso “gafe o errores involuntarios” han servido de
“leit motiv” para montar una campaña de “prestigio o desprestigio”, o “a favor o en
contra”. Por ejemplo, “dicen que soy aburrido” (De la Rua), “conmigo o sinmigo”
(H. Iglesias), etc.
Si bien esta técnica se utiliza con mayor frecuencia en los estudios descriptivos –
cuantitativos; a veces, y con el propósito de garantizar el cumplimiento de estos criterios
–en especial, el último–, se suele realizar una etapa previa exploratoria-cualitativa. En
tal sentido, la técnica más adecuada son los focus groups o grupos de discusión (o
motivacionales) en donde se pueden testear y/o extraer los atributos necesarios que
cumplan con los requisitos antes mencionados. Sin embargo, en el momento de
seleccionar los atributos es recomendable no dejarse llevar por las primeras impresiones
y evaluar sus posibles usos o significados dado que muchos de ellos tienen la
“particularidad” de adquirir contenidos semánticos impensados o de convertirse en un
“boomerang” o tener “efecto rebote” que se vuelve “en contra” de quienes lo están
usando por “recreación o elaboración propia” del imaginario social.
Una vez que ha sido construido el espacio semántico con las tres escalas para
cada dimensión el paso siguiente es la elaboración del formulario. Básicamente, la idea
es que cada estímulo sea acompañado con la batería de nueve escalas. Es aconsejable
que dichas escalas estén intercaladas (una por cada dimensión) y sus atributos rotados
de manera de evitar la tendencia a “contestar en automático” marcando siempre en el
mismo lado para los casos en que sea autoadministrado o contestando por la última o
primer alternativa de respuesta mencionada. Complementando las escalas del diferencial
a la cédula se le agregarán todas aquellas otras variables y/o indicadores que
167
intervengan en la investigación comenzando por los datos de clasificación (sexo, edad,
NSE, etc.).
Como se puede advertir es posible que con algunos atributos se susciten dudas
acerca de su pertenencia a la dimensión en la que fue ubicado. En tal caso, es más
importante su pertinencia y representatividad. Del mismo modo, algunos pares de
adjetivos no ofrecerán dudas en lo referido a la identificación del polo positivo (por
ejemplo, honesto-deshonesto) mientras que en otros la cosa no será sencilla (por
ejemplo, izquierda-derecha). Sin embargo, hay que tener en cuenta que lo “positivo” o
“negativo” no tiene que pasar necesariamente por los extremos. He incluido también
aprovechando nuestras experiencias pasadas (aburrido-divertido / con anestesia-sin
anestesia). Dicho sea de paso, una escala que se me había ocurrido para configurar el
ejemplo y que luego descarté por “falta de estabilidad semántica” y porque puede
generar controversias en torno a la discriminación de género fue el par “masculino-
femenino”. De esta forma la disposición de las escalas sería:
168
CANDIDATO ZZ
Honesto Deshonesto
/ / / / / / / /
No carismático Carismático
/ / / / / / / /
Con trayectoria Sin trayectoria
/ / / / / / / /
Y así, sucesivamente, con el resto de las escalas hasta completar las nueve o las
que fuesen necesarias dado que lo aconsejable es un mínimo de tres por dimensión, pero
bien pueden ser menos o más según la demanda del problema de investigación. Nótese,
que las escalas están intercaladas y los adjetivos rotados. La misma disposición se
respetará para el resto de los candidatos.
Básicamente, la instrucción para completarla es marcar con una cruz dejándose
llevar o no –esto también queda sujeto a decisión–, por la primera impresión en el
casillero o espacio correspondiente:
/ / X / / / / / /
/ / / / / / / /
1 2 3 4 5 6 7
/ / / / / / / /
-3 -2 -1 0 1 2 3
169
que representa a ese concepto. El significado de un concepto o estímulo dentro de una
cultura, grupo o muestra se define operacionalmente como el conjunto total de puntajes
factoriales promedios obtenidos por ese concepto. Es posible comparar los conceptos
según las posiciones que ocupen por escala, por factor o a nivel general (los tres
factores). En esta representación se puede observar la proximidad o distancia existente
entre los distintos estímulos en términos de cada uno de los factores. También se puede
analizar la consistencia del significado cultural o de la imagen global del estímulo
representada por la dispersión de los puntajes individuales con respecto a la medida de
tendencia central empleada, esto es graficando una nube de concentración variada en el
espacio semántico; en tal sentido, a mayor concentración en la nube de las elecciones
individuales habrá una mayor consistencia y viceversa. Una de las ventajas que ofrece
esta técnica es que transforma las diferencias y similitudes relativas entre los distintos
estímulos en distancias cuantitativas. Todos estos procedimientos a su vez se replican
discriminando el análisis de los resultados en función de las variables que caracterizan a
la muestra (por sexo, edad, NSE, etc.).
Una de las formas más simples de presentar los resultados y que permite una
mejor visualización de los mismos, es elaborando un gráfico de perfil con las nueve
escalas:
H I D C/T R D C CPD CA
6 IDEAL
5 ZZ
4
WW
3
YY
2
0
D D A S/T C A N/C SPD SA
170
El gráfico permite visualizar claramente el perfil de los tres candidatos y su
posicionamiento absoluto –en sí mismo–, relativo comparado con los otros y con
respecto al “candidato ideal”. Asimismo se observan los puntos fuertes y débiles de
cada uno de ellos. Si se analiza en particular el caso de nuestro cliente (ZZ) la debilidad
mayor radica en la percepción de su “falta de trayectoria” que puede obedecer a una
deficiente difusión de sus antecedentes y en mucho menor medida su “postura de
izquierda” que habrá que moderar levemente.
Como se señaló anteriormente este mismo gráfico se debe complementar con el
de los tres puntajes factoriales y el general y a su vez todos ellos, “abiertos o
discriminados” por las variables que caracterizan a la muestra. Por ejemplo, un gráfico
para los hombres y otro para las mujeres; o para los jóvenes, adultos y ancianos, etc.
Supóngase, que se trate de participar en un acto con predominio de público femenino
joven de nivel socioeconómico medio y que la intención sea captar dicho voto;
entonces, habrá que orientar el discurso de nuestro candidato adecuándolo al perfil
“ideal” de dicho electorado teniendo en cuenta el gráfico y los cuadros resultantes de
dicho análisis multivariado.
Posteriormente y a los efectos de simplificar su diseño y administración, el
diferencial semántico dio lugar a la “escala de puntos” en donde bastaba con
seleccionar los atributos sin necesidad de encontrar el opuesto y para utilizar una escala
que resultara más familiar a los informantes, se optó por la clásica de 0 a 10. De esta
manera a los encuestados se les solicitaba que a cada candidato (incluido el ideal) le
asignaran según su parecer un puntaje en relación a cada uno de los atributos: ¿“Qué
puntaje le asigna a ZZ en términos de Honestidad?, ¿y a WW?, etc. De esta forma se
eliminaban las escalas y dejaba de ser necesario que las personas marcaran con una cruz
en el casillero que consideraban pertinente. Ahora bastaba con que el encuestador
registrara en una grilla los puntajes asignados. Para el análisis y presentación de los
resultados se procedía de manera similar a lo ya descripto.
171
CAPÍTULO 13: EL ANÁLISIS CUANTITATIVO DE LOS DATOS
1. La matriz de datos
172
Como puede observarse, la matriz tiene columnas –identificadas con letras en
mayúsculas–, tiene filas o hileras –numeradas correlativamente– y tiene celdas –
producto de la combinación de las dos anteriores–: en las columnas se ubican las
variables, indicadores, preguntas o estímulos –en este caso, como si fueran sinónimos y
que en realidad responden a distintos lenguajes que hacen referencia diferentes
tratamientos sobre el mismo tema–. En las filas van las unidades de análisis o de
observación mientras que en las celdas se cargan los valores, categorías, respuestas o
reacciones –nuevamente, como si fuesen sinónimos–. De esta manera, se plasma la
estructura tripartita del dato: frente a la variable cuál es el valor que le corresponde a la
unidad de análisis; ante el indicador en qué categoría se ubica la unidad de análisis;
frente a la pregunta cuál es su respuesta o ante el estímulo, su reacción.
En la figura siguiente, se muestra como quedaría la matriz para un conjunto de 6
variables (de la 1 a la n) y 9 unidades de análisis (de la 1 a la n) con sus
correspondientes valores:
A B C D E F G
1 UA º V1 V2 V3 V4 V5 Vn
2 UA 1 V 1.1 V 1.2 V 1.3 V 1.4 V 1.5 V 1.n
3 UA 2 V 2.1 V 2.2 V 2.3 V 2.4 V 2.5 V 2.n
4 UA 3 V 3.1 V 3.2 V 3.3 V 3.4 V 3.5 V 3.n
5 UA 4 V 4.1 V 4.2 V 4.3 V 4.4 V 4.5 V 4.n
6 UA 5 V 5.1 V 5.2 V 5.3 V 5.4 V 5.5 V 5.n
7 UA 6 V 6.1 V 6.2 V 6.3 V 6.4 V 6.5 V 6.n
8 UA 7 V 7.1 V 7.2 V 7.3 V 7.4 V 7.5 V 7.n
9 UA 8 V 8.1 V 8.2 V 8.3 V 8.4 V 8.5 V 8.n
10 UA n V n.1 V n.2 V n.3 V n.4 V n.5 V n.n
173
De lo anterior se desprende, que la primera tarea –para la carga de datos– es
armar el encabezado de la matriz identificando en cada columna y respetando el orden
de aparición en el formulario a las variables (o preguntas). Es aconsejable reservar la
primera columna para registrar a las unidades de análisis. Esto último obedece a dos
razones: la primera es por si fuera necesario supervisar la carga; la segunda y más
importante por si luego se detectaran errores de carga –por ejemplo, respuestas que no
corresponden o celdas vacías– recurrir a la cédula o cuestionario y subsanarlo. Para ello,
los formularios tienen que estar numerados en forma correlativa y un buen momento de
hacerlo es al momento de la carga. Por último, en las celdas se registrarán las respuestas
pertinentes.
Con respecto a la carga de las respuestas hay que tomar –previamente– la
decisión acerca de qué es lo se va a registrar teniendo en cuenta que –básicamente–
habría tres alternativas: cargar códigos, texto o ambas cosas. Si se opta por la primera,
cuando se le pida al Excel los cuadros y/o gráficos estos aparecerán con los códigos; así
no pueden ser analizados y habrá que reemplazarlos. En caso de optarse por la segunda,
eso no implicaría un mayor trabajo porque el Excel apelando a su función predictiva en
cuanto se cargue el primer dígito (letra o número) va a disparar el texto completo que se
haya dispuesto. El problema de esta segunda opción es que –en los cuadros y gráficos–
van a parecer ordenados –por defecto– alfabéticamente. Cuando los niveles de las
categorías son ordinales, intervalares o racionales, una disposición sin orden de las
categorías confunde la lectura. Para los niveles nominales el orden de aparición podría
ser indistinto al menos que se deseara uno ya decidido. Quedaría la tercera opción:
cargar código y texto. Por las razones ya dichas, esto no supone mayor trabajo; aunque
tal vez pueda resultar algo desprolijo. De esta manera en los cuadros, las categorías
aparecerían ordenadas numéricamente pero con sus respectivos nombres. La única
precaución que debe tomarse es asignarle a la categoría que se desee que aparezca en
primer lugar, el código menor y así sucesivamente.
Antes de continuar, debe aclararse que la continua referencia al Excel no indica
que éste sea el único soporte informático para procesar datos. De hecho hay programas
estadísticos mucho más potentes y sofisticados como por ejemplo el SPSS (Statistical
Package for the Social Sciences aunque también se ha referido como "Statistical
Product and Service Solutions). Sin embargo y dado que muchos todavía no lo conocen
o no lo tienen a su disposición, se ha preferido orientar el tratamiento al Excel por la
facilidad de acceso que ofrece al formar parte del office.
Supóngase que en la cédula se tienen las siguientes preguntas con sus
alternativas de respuestas:
174
Para simplificar el ejemplo, se han salteado las preguntas correspondientes a los
indicadores de NSE porque su resolución ha sido manual en la propia hoja de la cédula
y se tomó la decisión de no registrarlos en la matriz. Como producto de la carga se
tendría la siguiente matriz (para un ejemplo de 9 encuestas):
A B C D E
1 UA Nº Sexo Edad Ideología NSE
2 1 Mujer 15 a 25 años 1 Izquierda 3 Alto
3 2 Mujer 26 a 50 2 Centro 2 Medio
4 3 Hombre 51 o + 2 Centro 1 Bajo
5 4 Mujer 15 a 25 años 1 Izquierda 3 Alto
6 5 Hombre 26 a 50 2 Centro 2 Medio
7 6 Hombre 51 o + 2 Centro 1 Bajo
8 7 Mujer 15 a 25 años 1 Izquierda 3 Alto
9 8 Mujer 26 a 50 2 Centro 2 Medio
10 9 Hombre 51 o + 2 Centro 1 Bajo
Nótese, que para el caso de sexo no se incorporaron los códigos porque se espera
el ordenamiento alfabético: aunque sea algo machista, sería hombre, mujer. Para la edad
tampoco, se espera el ordenamiento numérico. En ideología se decidió que el orden
fuera: izquierda, centro, derecha.
Tres principios
175
cuando se está trabajando con preguntas de elección múltiple es aconsejable que sean
excluyentes entre sí. En caso contrario, habrá que dispensarle a esas preguntas un
tratamiento especial, habilitando para cada respuesta una columna diferente con las
implicancias que esto tiene en el posterior procesamiento y análisis.
Por último, el principio de integridad estipula que la matriz tiene que estar
completa en su totalidad, de manera que no queden celdas vacías aun cuando esa
ausencia de registro pueda interpretarse como una respuesta; porque puede provocar
errores involuntarios. De ahí que, si la persona no responde debe preverse un código
(ns/nc). Lo mismo para el caso que no corresponda responder la pregunta.
La lectura de la matriz
176
Distribución de la muestra según opinión sobre la película
Total
1 Mala
2 Regular
3 Buena
177
Total
Hombre
Mujer
178
Al igual que se ha visto para la matriz, el cuadro también tiene columnas, filas y
celdas. Por lo tanto, la primera decisión a tomar es acerca del posicionamiento de las
variables en el cuadro: cuál es la variable que se ubica en las columnas y cuál la que se
ubique en las filas. Convencionalmente, la variable que temporal y lógicamente
antecede va en las columnas mientras que la otra que resulte posterior, en las filas. La
palabra “convención” no significa obligación; simplemente es por costumbre o lo que se
estila. Sin embargo, dependerá de cuál sea la ubicación el cálculo de los porcentajes y el
posterior análisis que se realice.
La segunda cuestión es acerca del ordenamiento de las categorías de cada
variable en el cuadro. Nuevamente y por convención, se estila respetar el sentido de las
flechas tal como lo muestra la figura anterior; esto es: de menor a mayor. Lógicamente,
esto sería pertinente para los niveles ordinales, intervalares y racionales. Cuando los
niveles son nominales y en principio, el posicionamiento sería indistinto. Sin embargo y
por diferentes razones, muchas veces de decide por un determinado ordenamiento; sería
por ejemplo, el caso de estado civil (legal). Si se deseara respetar el ciclo vital, sería
lógico que fuera el siguiente: SOLTERO, CASADO, DIVORCIADO, VIUDO. Pero
Debe tenerse en cuenta –como ya fue dicho–, que el Excel –por defecto– ordena
alfabética o numéricamente. Entonces y como se advirtió en el momento de la carga de
la matriz y especialmente para las escalas ordinales, habrá que numerar las categorías
para garantizar dicho orden.
Supóngase que se pretenda cruzar Opinión sobre la película y NSE. No hay
dudas que la variable que antecede y por lo tanto, iría en las columnas es NSE mientras
que Opinión se ubicaría en las filas –ambas con sus respectivas categorías–, tal como lo
muestra la figura siguiente:
NSE
Opinión 1 Bajo 2 Medio 3 Alto Total
1 Mala %
2 Regular
3 Buena
Total
Como puede observarse y también por defecto, el Excel nos brindará las
columna y fila correspondiente al total.
La tercera decisión está referida a los resultados en el cuadro; es decir, a las
cifras. Por defecto, el Excel presenta los cuadros en valores absolutos a los que –según
sea la versión que se esté utilizando– denomina de diferentes maneras; en algunas los
llama “normal” y en otras “sin calcular”. Lo cierto es que cuando el estudio es
179
cuantitativo y –nuevamente, por convención–, los cuadros (y gráficos) se presentan en
valores relativos o porcentajes. Pero los porcentajes se pueden calcular de diferentes
maneras según el análisis que se quiera realizar: por columna (en forma vertical); por
fila (en forma horizontal) o contra el total de la muestra (en diagonal), tal como lo
muestran las flechas de la figura anterior. Cuando la finalidad es contrastar hipótesis o
definir acerca de su cumplimiento o cuando se analiza las relaciones entre variables –y
en la medida que se haya respetado el posicionamiento de las mismas– los porcentajes
deben ser calculados por columna y así habrá que indicárselo al Excel, en la ventana del
cuadro de diálogo que ofrecen las tablas dinámicas. Lo mismo, para decidir la cantidad
de decimales; por defecto, el programa los calcula con dos. Dado que en su mayoría las
variables son cualitativas y a los efectos de aportar claridad y mejor visualización de las
cifras– es recomendable presentarlos sin decimales. Calculados de esta manera, las
cifras de cada columna sumarán 100 y así aparecerá en las filas del total.
Una última cuestión, es acerca de cómo se titula un cuadro. Por convención, los
cuadros se titulan comenzando su redacción por la variable ubicada en las filas y
finalizando por la variable que está en las columnas. Tal como se puede apreciar en la
figura siguiente:
NSE
Opinión sobre Total
la película 1 Bajo 2 Medio 3 Alto general
1 Mala 70% 28% 5% 34%
2 Regular 5% 68% 29% 34%
3 Buena 26% 4% 67% 32%
Total general 100% 100% 100% 100%
180
Gráfico nº1: Opinión sobre la película según NSE
80%
70%
60%
50%
1 Bajo
40%
2 Medio
30% 3 Alto
20%
10%
0%
1 Mala 2 Regular 3 Buena
Debe tenerse en cuenta que estas operaciones hay que reiterarlas para cada uno
de los cuadros y/o gráficos que corresponda presentarse. Finalizado el procesamiento –o
por lo menos, su mayor parte– llega el momento del análisis de los resultados.
181
hicieron exactamente al revés (67%); mientras que los de NSE medio consideraron en
su mayoría que era regular. Debe destacarse que mientras los porcentajes fueron
calculados verticalmente (por columna sobre el total de cada categoría) en el análisis se
comparan horizontalmente (por filas).
El ejemplo anterior sirve para ilustrar claramente que no necesariamente las
cifras totales reflejan los comportamientos parciales. Y esto es importante por dos
razones:
1. La columna del total equivale a lo que sería una tabla univariada que –como se ha
visto– es producto de la tabulación simple o lectura vertical de la matriz. De manera que
si la información fuera exclusivamente presentada de esa forma se estaría perdiendo
información valiosa. Por eso los cuadros bivariados y multivariados sirven entre otras
cosas– para especificar los datos.
2. Precisamente, una conclusión posible que más bien corresponde a la interpretación,
podría ser que el target o público de la película podría ser –en principio o
provisionalmente– el de NSE alto.
182
Cuadro nº 1: Opinión sobre la película según NSE
NSE
Opinión sobre Total
la película 1 Bajo 2 Medio 3 Alto general
1 Mala 70% 28% 5% 34%
2 Regular 5% 68% 29% 34%
3 Buena 26% 4% 67% 32%
Total general 100% 100% 100% 100%
51
Véase por ejemplo, Núñez, M.: “El análisis de contenido” o Tapia Encinas, C.: “El análisis del
discurso” en Pérez Lalanne, 2010.
183
5. Una última alternativa podría ser especificando la relación o sometiéndola a control
de espureidad introduciendo una tercera variable mediante el análisis multivariado. A
estas dos últimas opciones se volverá en las páginas siguientes.
4. El análisis multivariado
La noción de espureidad
El desarrollo simbólico
184
X (X, X); Y (Y, Y); T (T, T)
X _
Y X X T
Y N n
_
Y n N
T M
185
contextual). Por otra parte, no necesariamente las relaciones tienen que ser causales. El
hecho de haber obtenido evidencias suficientes de la existencia de una asociación ya es
todo un hallazgo (en la medida que cumpla con todos los requisitos mencionados
cuando se analizó la validez de los diseños).
Pero vamos a suponer que nuestra pretensión es asignarle a la relación
condiciones de causalidad. Para ello se procede a realizar el paso siguiente.
T T
X _ X _
Y X X T Y X X T
Y n n Y N n
_ _
Y n n Y N n
T M1 T M2
186
cigüeñas y tasa de nacimientos. No es que el daño producido en un incendio dependa
del número de bomberos que van a apagarlo, sino que ambos dependen de la magnitud
del incendio; cuanto mayor es éste, seguramente mayores daños se producirán y además
mayor número de bomberos irán a apagarlo. De la misma manera, no es que en las
zonas con mayor número de cigüeñas haya una mayor natalidad, sino que ambas cosas
se dan en zonas rurales (Mora y Araujo, Lazarsfeld y otros, 1971).
Por supuesto, que el modelo de análisis multivariado resulta más complejo52.
Entre otras cosas, porque no termina en el cuadro de las relaciones parciales sino que
continúa con el análisis por separado (cruce) de la variable de prueba con la
independiente y con la dependiente (cuadro de las relaciones marginales). Además, si la
relación original se hubiera manifestado como genuina frente al primer control debería
ser puesta a prueba con la introducción de otras terceras variables y así sucesivamente;
dado que una relación causal es más “segura o firme” cuando más pruebas de
espureidad haya soportado. Para ello, es necesario que las variables de prueba se
prevean antes de la obtención de los datos, debiendo ser aquellas variables sospechadas
de alguna incidencia en la relación original.
Un ejemplo ilustrativo
“Si los alumnos universitarios utilizan algún tipo de cábala o amuleto entonces
aprueban el examen”.
52
Cfr.: Boudon, R. y Lazarsfeld, P., 1985; Zetterberg, H., 1981; Glock, C., 1973 y Hyman, H., 1984.
187
Primer paso: Cuadro Relación Original
UC
RE SI NO T
(a) (b)
A 90 5 95
_ (c) (d)
A 10 95 105
Como puede observarse, se está trabajando con una muestra de 200 casos. De los
100 alumnos que contestaron usar algún tipo de cábala o amuleto, 90 aprobaron el
examen mientras que 10 reprobaron. Por su parte, de los 100 alumnos que dijeron no
usar ningún tipo de cábala, 95 reprobaron y a sólo 5 les fue bien. No hay dudas que la
distribución de los datos está confirmando la hipótesis.
Si se deseara una mayor precisión, se podría apelar a algún coeficiente
estadístico que indicara el sentido y la intensidad de la relación. El más simple de esos
coeficientes es la Diferencia porcentual. Cuando se afirma que es el más simple
–aunque tal vez no sea el más preciso– es porque como su nombre lo indica el cuadro
tiene que estar en porcentajes calculados por columna y como se afirmó anteriormente,
es la modalidad en que deben presentarse los cuadros. La fórmula de este coeficiente
es:
D%= a – b
Las letras a, b, c y d, identifican las cifras parciales del cuadro, en el orden que
se indica en el cuadro entre paréntesis. De manera que lo único que faltaría sería hacer
la resta:
D%= 90 – 5= 85
188
Entre 0 y –40: relación inversa débil.
Entre –40 y –70: relación inversa media.
Entre –70 y –100: relación inversa fuerte.
Lógicamente que la interpretación de los signos positivos y negativos se aplica
para los niveles ordinales, intervalares o racionales. En caso contrario, para niveles
nominales sólo puede interpretarse la intensidad. A continuación se lo grafica de la
siguiente manera:
IE
–100 –70 –40 0 40 70 100
____________________________________/__________________________________
“Si los alumnos universitarios utilizan algún tipo de cábala o amuleto entonces
aprueban el examen pero siempre y cuando además hayan estudiado”.
Lo anterior implica que nuestra breve encuesta –a boca de aula– tenía tres
preguntas: 1. Resultado del examen; 2. Uso de cábala o amuleto; 3. Si había estudiado.
Como se explicó oportunamente, la introducción de una tercera variable supone
reprocesar los datos para elaborar los cuadros parciales, realizando el análisis
multivariado. Continuando con el ejemplo, nuevamente se inventará la distribución de
manera “grosera” de forma tal que los resultados ilustren claramente el concepto de
espureidad. Al mismo tiempo y para que también pueda apreciarse como la sumatoria
de ambos es igual al cuadro original, se presentará los cuadros en valores absolutos y
entre paréntesis los porcentajes:
189
Segundo paso: Cuadro de las relaciones parciales
E
E E
UC UC
RE SI NO T RE SI NO T
(100) (100) (0) (0)
A 90 5 95 A 0 0 0
_ (0) (0) _ (100) (100)
A 0 0 0 A 10 95 105
T 90 5 95 T 10 95 105
D%= 0 D%= 0
Como puede observarse, de los 90 alumnos que habían dicho utilizar alguna
cábala y que habían estudiado, los 90 aprobaron mientras que los 10 que usaban cábala
pero que no habían estudiado, reprobaron. Por su parte, los 5 que no eran cabuleros pero
habían estudiado aprobaron mientras que los 95 no usaban cábala y tampoco estudiaron
todos reprobaron. De la lectura e interpretación de los datos se percibe fácilmente que
las distribuciones cambiaron en relación al cuadro original y que la hipótesis inicial no
se había mantenido. Para mayor seguridad, se volvió a calcular el mismo coeficiente
para cada cuadro parcial y, en ambos casos, se lo comparó con el resultado original que
se recordará había dado 85. Si la relación entre uso de cábala y resultados era genuina
debía mantenerse frente a la tercera variable. Eventualmente, si se hubiera alterado en
uno de los cuadros pero no en el otro, hubiera sido cuasi espuria o, lo parcialmente
genuina. En cambio, si disminuía ostensiblemente en ambos cuadros o desaparecía, eso
era un indicador de espureidad. Como puede observarse, desapareció en ambos
cuadros.
Tal como se adelantó en el apartado anterior, existe la posibilidad de realizar el
tercer paso denominado cuadro de relaciones marginales a los efectos de analizar, ahora
por separado cómo es la relación entre la variable de prueba y la independiente y la
variable de prueba y la dependiente. Bastaría con efectuar los cruces y cuadros
bivariados correspondientes. No hay dudas que en el ejemplo anterior el último cruce
mencionado daría una relación total entre Estudio y Resultado del examen.
190
Básicamente, consiste en partir de un universo conocido y heterogéneo y
traducirlo en estratos homogéneos que –por lo menos– compartan algunas propiedades.
Sin embargo, el hecho de haber homogeneizado el estrato no significa que sus
elementos componentes tengan que serlo entre sí. Se trata simplemente de una
herramienta analítica y como tal, de un artificio estadístico o heurístico, útil para los
fines investigativos que se estén persiguiendo. Por el mero hecho de tener uno o más
elementos en común se los concibe como una “unidad social” capaz de comportarse de
similar manera o de “reaccionar” de manera parecida a un determinado estímulo o
situación sin que esto suponga que esas unidades deban conocerse, interactuar entre sí o
estar reunidos físicamente en algún espacio. Se insiste, su existencia es meramente
teórica o conceptual; es decir, en principio estos segmentos existen en la mente del
analista.
Desde sus propios comienzos las ciencias sociales –entre ellas la sociología–
manifestaron cierta tendencia a segmentar las sociedades o comunidades. Y como en
tantas otras cosas se inspiraron en otras ciencias –en este caso, en la Geología– para
elaborar sus conceptualizaciones de la realidad social. De esta manera, así como el
término estrato designaba a las distintas capas de la corteza terrestre que se hallan
superpuestas –connotando incluso, algún tipo de jerarquización– lo mismo hicieron
nuestras disciplinas –aunque no siempre– manteniendo ese ordenamiento jerárquico.
Fue así como nacieron los conocidos estratos sociales o socioeconómicos o clases
sociales, categorías de personas que comparten similares condiciones de existencia.
En tal sentido, estratificar no deja de ser una forma de discriminar –en el sentido
de separar o distinguir– sin que ello suponga dispensar un trato desfavorable
(discriminación negativa) o favorable (discriminación positiva) a quienes forman parte
de ese estrato. Y si de distinguir se trata, se podría también hacerlo entre los planos
objetivos y subjetivos, asumiendo que no necesariamente deben coincidir: una cosa es la
estratificación social medida con indicadores objetivos y otra cosa es la autodefinición
que –según su percepción– realicen los actores involucrados –criterios ambos que
suelen emplearse, aunque con distintos grados de precisión– en cualquier clase de
segmentación que suponga la pertenencia a diferentes segmentos (Merton, 1980).
Pero no sólo las variables sociodemográficas o combinación de ellas
(segmentación multivariada) se utilizan para estratificar. También se puede apelar a
criterios geográficos para distinguir entre diferentes conglomerados humanos como, por
ejemplo, sucede cuando se analiza el comportamiento electoral agrupando a la
población del gran buenos aires, en cordones residenciales. También es posible
discriminar en términos de variables psicológicas –como tipos de personalidad–,
culturales –por estilos de vida– conductuales, etc.
191
indistintamente en ambos tipos de estudio–. Son diferentes formas de presentar y
resumir los resultados, agrupando a la población analizada y caracterizándola de
acuerdo a las principales variables en torno a las cuales se realiza el abordaje.
Básicamente, existen dos formas de construcción:
1. Utilizando las cifras producto de los porcentajes por columnas de cada cuadro
bivariado, lo que supondría otra forma de mostrar los mismos resultados pero ahora
reunidos en cada perfil.
2. Apelando a las cifras producto de los porcentajes por fila; es decir, tomando como
base de cálculo el total del perfil.
3. Apelando a las cifras producto de los porcentajes sobre el total de la muestra
Supóngase que –retomando el ejemplo de la opinión sobre la película– se
quisiera construir el perfil de los favorables y los desfavorables a la película
(segmentación conductual), caracterizándolos en función de las otras variables del
estudio: NSE (como mostró el cuadro presentado), sexo, edad e ideología.
A continuación se presentan dos perfiles de los favorables calculado de acuerdo
a las dos primeras opciones (porcentajes por columna y por fila):
70%
nse alto
55% Favorables
65%
26 a 50 años izquierda
60%
hombres
192
Perfil de los favorables
(con pocentajes por fila)
55%
nse alto
45% Favorables
60%
26 a 50 años izquierda
58%
hombres
193
CAPÍTULO 14: EL INFORME FINAL
1. Introducción
El diseño.
El proyecto.
El proceso.
1. SECCION PRELIMINAR
194
1.2.2. Número de edición/reimpresión.
1.2.3. Lugar de edición.
1.2.4. Reserva de derechos.
1.3. Dedicatorias.
1.4. Agradecimientos.
1.5. Prólogo.
1.6. Índice analítico (puede ir en la tercera sección).
2.1. Introducción:
2.1.1. Planteo del problema.
2.1.2. Origen del proyecto.
2.1.3. Justificación.
2.1.4. Objetivos generales y particulares.
2.1.5. Hipótesis iniciales.
2.1.6. Breve reseña de lo realizado sin adelantar resultados.
195
3. REFERENCIAS Y ANEXOS
196
CAPÍTULO 15: INVESTIGACIONES EXPLORATORIAS, DESCRIPTIVAS Y
EXPLICATIVAS
197
sino la extraordinaria universalidad de formas y modelos de la naturaleza en sus
manifestaciones más dispares y aparentemente inconexas. La teoría del caos rompió
los lazos entre la antigua causalidad y la predicción, sosteniendo que los efectos
provocados por causas específicas no se podían predecir Hobsbawm, 1998).
Consecuentemente con lo anterior, se reforzó otra cuestión desarrollada por los
paleontólogos y que ya había afirmado el propio Darwin: las cadenas del desarrollo
evolutivo son perfectamente coherentes y explicables después del hecho, pero no
desde el principio, porque si se dan las mismas condiciones otra vez, cualquier
cambio, por insignificante o poco importante que pueda parecer en ese momento,
“hará que la evolución se desarrolle por una vía radicalmente distinta” (Gould,
1989). También en los años 60 con la obtención de nuevos datos astronómicos (no
experimentales) se comprobó que el universo se expandía a una velocidad de
“vértigo”, lo cual aumentó enormemente el papel de la historia en las ciencias
naturales al tiempo que disminuyó la identificación de las ciencias duras con la
experimentación, es decir, con la reproducción de los fenómenos naturales, porque
¿cómo se iban a repetir hechos que por definición eran irrepetibles?
En 1996 –y como una síntesis de lo anterior–, Ilya Prigogine (hombre proveniente
de las ciencias duras y premio nobel de química) en su libro El Fin de las
Certidumbres (título por cierto significativo) afirma que “... la ciencia clásica
privilegiaba el orden y la estabilidad, mientras que en todos los niveles de
observación reconocemos hoy el papel primordial de las fluctuaciones y la
inestabilidad. Junto a estas nociones aparecen también las opciones múltiples y los
horizontes de previsibilidad limitada (...) La física tradicional vinculaba
conocimiento completo y certidumbre, que en ciertas condiciones iniciales
apropiadas garantizaban la previsibilidad del futuro y la posibilidad de retrodecir el
pasado. Apenas se incorpora la inestabilidad, la significación de las leyes de la
naturaleza cobra un nuevo sentido. En adelante, expresan posibilidades”. Y más
adelante agrega: “...Los sistemas caóticos son un ejemplo extremo de sistema
inestable: en ellos las trayectorias correspondientes a condiciones iniciales divergen
de manera exponencial con el tiempo. Entonces hablamos de ‘sensibilidad a las
condiciones iniciales’, y lo ilustramos con la conocida parábola del ‘efecto
mariposa’, que dice que el aleteo de una mariposa en la cuenca amazónica puede
afectar el clima de Estados Unidos (...) Se habla a menudo de ‘caos determinista’.
En efecto, las ecuaciones de sistemas caóticos son tan deterministas como las leyes
de Newton. ¡Y empero engendran comportamientos de aspecto aleatorio!”. Y
termina diciendo: “Lo que hoy emerge es por lo tanto una descripción mediatriz,
situada entre dos representaciones alienantes: la de un mundo determinista y la de
un mundo arbitrario sometido únicamente al azar. Las leyes no gobiernan el mundo,
pero éste tampoco se rige por el azar. Las leyes físicas corresponden a una nueva
forma de inteligibilidad, expresada en las representaciones probabilísticas
irreductibles. Se asocian con la inestabilidad y, ya sea en el nivel microscópico o en
el macrocroscópico, describen los acontecimientos en cuanto posibles, sin reducirlos
a consecuencias deducibles y previsibles de leyes deterministas” (Prigogine, 1996).
198
Por su parte, la mayoría de los estudios que se llevan a cabo en las ciencias sociales
son no experimentales. Muchos son descriptivos, pero también los hay explicativos
o causales que se desarrollan siguiendo la misma lógica de cualquier prueba causal.
Sin embargo, la mayoría de los estudios explicativos que se realizan en las ciencias
sociales no son mecanicistas, no se rigen por la relación lineal causa-efecto, no
aceptan la alternativa de una única causa, no manipulan estímulos o variables
independientes, no se llevan a cabo en condiciones de aislamiento, no realizan
explicaciones ex-antes sino ex-post (Guber, 1994), utilizando procedimientos “más
realistas” que el experimento, etc. al igual que lo hacen las ciencias naturales (y en
algunos casos hasta con mayor antelación). De esta manera, si la mayoría de las
investigaciones sociales son no experimentales, poco fructífera es la distinción entre
estudios experimentales y no experimentales dado que casi todos los estudios
(explicativos y no explicativos) terminarían encasillados en la última categoría. Con
lo cual no se cumpliría con uno de los principios básicos que rigen las
clasificaciones, categorizaciones, tipologías, etc.: su valor heurístico, discriminatorio
y analítico.
Al respecto y recientemente, Passeron señala que las ciencias sociales siguen
“siendo inevitablemente múltiples y competitivas”. Agregando que los datos que se
extraen de las observaciones nunca permiten ni una demostración lógica-matemática
que opere como dentro de un puro sistema formal ni un razonamiento experimental
que pudiera ser desarrollado “suponiendo que todos los demás elementos
permanecen iguales”. Y continúa afirmando que las explicaciones de las ciencias
sociales son “desigualmente concluyentes según la pertinencia de los materiales
empíricos reunidos y según el estilo de prueba que organizan sus métodos de
tratamiento de los datos”. Para finalizar concluyendo que “estamos en una ciencia
donde la prueba es una cuestión de más o menos, no de todo o nada” (Passeron, 00).
A pesar de su “juventud” han pasado unos cuantos años desde que las ciencias
sociales han dejado de tomar como único modelo válido a las ciencias naturales.
Hasta se podría decir, que en la actualidad el camino es inverso: son las ciencias
naturales las que han comenzado a volver su mirada a sus “hermanas menores” y
muchas veces vituperadas ciencias sociales. Pero lo más preocupante, es que a veces
esta descalificación proviene de los propios cientistas sociales como ocurre cuando
en sus propias conceptualizaciones practican el sociocentrismo pero al revés, es
decir, en desmedro de sus disciplinas de pertenencia.
199
realidad que se analiza, se propone imaginarnos un “continuo investigacional” en el cual
diferenciar los estudios exploratorios, descriptivos y explicativos.
INVESTIGACIONES
1. Investigaciones exploratorias
200
1.2. Características:
1.2.1. Flexibilidad.
1.2.2. Cualitativo, cuantitativo o cualicuantitativo.
1.2.3. Sincrónico.
1.2.4. Asociado al contexto de descubrimiento.
1.2.5. Predominantemente inductivo.
Como se puede apreciar los estudios exploratorios presentan una amplia gama de
posibilidades y son tan fértiles como cualquier otra investigación. Si se los compara
con los descriptivos, en la mayoría de los casos existen diferencias de grado en lo que se
refiere a los niveles de análisis y de rigidez o control. Ya en 1960, Selltiz y
56
Para la problemática del muestreo ver en este libro el capítulo sobre muestreo.
201
colaboradores sostenían: “...existe una tendencia a subestimar la importancia de la
indagación exploratoria y considerar solamente el trabajo experimental como
‘científico’...” (Selltiz y otros, 1974). Esta tendencia se ha revertido en los últimos
años, importantes autores (en especial, del paradigma cualitativo) legitiman y
reivindican las investigaciones cualitativas.57
2. Investigaciones descriptivas
1.5. Características:
1.5.1. Mayor rigidez.
1.5.2. Cualitativo, cuantitativo o cualicuantitativo.
1.5.3. Sincrónico y diacrónico.
1.5.4. Asociado al contexto de descubrimiento.
1.5.5. Predominantemente inductivo pero también deductivo (Errandonea, 1977).
57
Schwartz, H. y Jacobs, J, 1984; Valles, M., 1997 y Guber, R., 1994).
202
pretensiones ni atribuciones de causalidad. A su vez, ambos (de variables y relacionales)
según la dimensión temporal pueden ser seccionales, transversales o longitudinales.
1.6.1.3 Seccional o sincrónico: es el diseño más simple y es uno de los más usados en
las ciencias sociales. Se utilizan para estudiar los rasgos, características o relaciones
pero no sus causas o efectos. Consisten en realizar una sola medición de un único
grupo, muestra o población en un único momento o tiempo; sería como tomar una
fotografía de algo que sucede. Por ejemplo: estudio de satisfacción de los clientes de un
banco. Se denominan también “estudio de un caso” (empleado habitualmente en
antropología y en servicio social) o diseño “post test”.
1.6.1.4 Seccional – transversal: tiene lugar cuando la población o muestra investigada
está formada por diferentes grupos de edades con el fin de inferir la evolución con el
paso del tiempo de las/s variable/s o relaciones observadas. En este caso, la variable
edad se la utiliza como contextual comparativa.58 Este modelo “simula” el estudio
longitudinal. Por ejemplo: investigación sobre iniciación sexual en diferentes grupos de
edades. Otra modalidad de este tipo de diseño es el caso de las historias de vida (de un
individuo, grupo, institución etc.) y los estudios holísticos que realiza el paradigma
cualitativo (en especial, en Antropología), (Guber, 1994).
1.6.1.5 Longitudinal o diacrónico59: Comprende dos o más mediciones realizadas al
mismo grupo, muestra o población en tiempos diversos con el fin de analizar la
evolución de las variables o relaciones observadas. Esta modalidad también es muy
empleada en los estudios sociales con múltiples aplicaciones. Por ejemplo, en los
trabajos con datos secundarios que utilizan series anuales de datos estadísticos, o en
estudios donde se realizan diferentes mediciones (por ejemplo: investigación sobre la
evolución del grado de victimización en la provincia de Buenos Aires). Estos estudios a
su vez, pueden ser retrospectivos (cuando se remiten al pasado) o prospectivos (cuando
se refieren al futuro). Se denominan también “diseño de un solo grupo con pretest y
postest”, tal como sucede cuando se miden impactos de campañas publicitarias o de
alguna intervención social, o cuando se realizan tracking o diferentes ondas u olas. Los
diseños longitudinales recolectan datos a través del tiempo en puntos o períodos
especificados, para hacer inferencias respecto al cambio, sus determinantes y
consecuencias. Por tal motivo, constituyen el antecedente y la base de los estudios
explicativos (en especial, los experimentales). Por último, también se suele distinguir
entre:
1.6.1.6 De tendencia (trend): cuando se analiza el cambio a través del tiempo (de
variables o relaciones) dentro de alguna población (mediante censos o diferentes
muestras). La característica distintiva es que la atención se centra en la población.
58
Para la distinción y uso de las variables contextuales (constantes y comparativas), ver en este libro el
capítulo correspondiente.
59
Con frecuencia los estudios diacrónicos suelen ser caracterizados como “históricos”. Sin embargo, este
último concepto presenta algunas dificultades tanto en su significado y connotación como en su
“periodización”, en especial cuando se trata de llevar a cabo estudios comparativos. Por tal motivo, se ha
preferido referir los conceptos de longitudinal o diacrónico a la variable “tiempo”, que por otra parte,
resulta más simple de mensurar o intervalar. Para mayor información véase Bartolini, Stefano: Tiempo e
investigación comparativa en Sartori, G. y Morlino, L. (1999): La comparación en las ciencias sociales,
Alianza, Madrid, 1999.
203
1.6.1.7 De evolución de grupos (cohortes): se examinan cambios a través del tiempo en
subpoblaciones o grupos específicos vinculados de alguna manera o con algo en común
(grupos de edades o egresados de una universidad). Si bien por lo general se trabaja con
muestras, la atención continúa centrándose en el grupo o categoría de individuos. Por
ello, la evaluación del cambio –tanto para los de tendencia como para los de cohortes–,
sigue siendo colectiva.
1.6.1.8 De panel: son similares a los anteriores, sólo que el mismo grupo o muestra de
individuos es medido en todos los tiempos o momentos. La ventaja es que permite
analizar el cambio no sólo grupal sino también individual pero de igual manera presenta
las dificultades que significa trabajar siempre con los mismos individuos (problemas de
contactación, desgranamientos, deserciones o pérdidas, además de las propias
incidencias de las reiteradas mediciones). Por ejemplo, la muestra permanente de
hogares que utiliza el INDEC (Instituto Nacional de Estadísticas y Censos) o ciertos
estudios sobre hábitos frente al televisor.
Los modelos descriptivos también se clasifican según tengan (o no) en cuenta la
“dimensión espacial” en:
1.6.1.9 Comparativos y no comparativos: constituyen una extensión de los seccionales y
longitudinales. Tienen lugar cuando abarcan no solo un grupo sino dos o más muestras
o poblaciones distintas simultáneamente con el propósito de efectuar comparaciones.
Nuevamente en este modelo se percibe la importancia de las variables contextuales. Las
mediciones pueden efectuarse en un solo momento (comparativos seccionales) o en
diferentes tiempos (comparativos longitudinales). Existen importantes corrientes en las
ciencias sociales que reivindican los modelos comparativos sistemáticos como recurso
heurístico y también para la elaboración y fundamentación de teorías60. Asimismo, este
modelo se asemeja –tal como se verá–, a los explicativos con “grupos de control”.
Para finalizar se presenta como síntesis de los modelos descriptivos el siguiente
cuadro:
60
Ver Glaser y Strauss en Schwartz y Jacobs, 1994 y Sartori, G. y Morlino, L., 1999.
204
DISEÑOS DE INVESTIGACIONES DESCRIPTIVAS
De variables Relacionales
Seccionales o sincrónicos
Seccionales – Transversales
Comparativos No comparativos
205
3. Investigaciones explicativas
61
Goode, W. y Hatt, P., 1976; Bunge, M., 1972 y Mayntz, R., 1988.
206
c) comprobación de hipótesis causal, formulación de leyes o elaboración de modelo
teórico (explicativa).
1.7. Características:
1.7.1. Control
1.7.2. Cuantitativo
1.7.3. Longitudinal o seccional
1.7.4. Asociado al contexto de justificación
1.7.5. Deductivo
62
Véase el apartado correspondiente en el capítulo el análisis cuantitativo de los datos.
207
1.8.1.2 Modelo experimental: para trabajar con este modelo es necesario cumplir
mínimamente con los siguientes requisitos:
a) Realizar la prueba tantas veces como sea necesario y en circunstancias tan diversas
como fuese posible y la hipótesis lo requiera.
b) Manipular la variable independiente (que en este modelo recibe el nombre de
estímulo). Esto significa que el investigador pueda manejar la variable
independiente, garantizando su ausencia o presencia y según los casos, aumentando
o disminuyendo su intensidad; con otras palabras, someter a un (o varios) grupo a la
exposición del estímulo y simultáneamente mantener aislado a otro grupo (o a
varios).
En las ciencias sociales (pero también en algunas naturales) por lo general no es
posible cumplir con estos requisitos, ya sea porque se trabaja con variables
independientes que no se pueden manipular (género, edad, NSE, estado civil, nivel de
instrucción, etc.) o porque su utilización no resulta “ética”. Por tal motivo, el uso de
este diseño es limitado. No obstante, se realizan experiencias (en el área laboral,
publicitaria, educativa, etc.) en donde se trata de reproducir la lógica de este modelo.
El plan clásico del modelo experimental supone trabajar con dos grupos
(experimental, piloto o grupo de prueba y de control o grupo testigo). La lógica indica
que el grupo experimental será sometido a la exposición de un estímulo mientras que el
grupo de control se mantendrá “aislado” o al margen de dicha influencia para luego
comparar ambos grupos (en términos de la variable dependiente o supuesto efecto) y
asignar cualquier diferencia esperada al accionar del estímulo. Desde luego que los
grupos inicialmente tienen que ser parejos o similares (aun en su heterogeneidad o
diferencias internas) porque si esto así no sucediera, esas diferencias iniciales pueden
hacer fracasar el experimento o neutralizar el accionar del estímulo. Al mismo tiempo
se controlan también las variables extrañas o perturbadoras, cumpliéndose con todas o
casi todas las exigencias de la validez interna. Según los momentos en que se realicen
las mediciones (siempre en términos de la variable dependiente) este modelo podrá ser:
“antes (de introducir el estímulo) y después (de haberlo introducido)” o “sólo después”.
A modo de ilustración, se podría mencionar las clásicas publicidades que ofrecen
tratamientos (estímulos) para adelgazar o contra la caída capilar, en donde se muestra el
estado de la gorda o el pelado (medición antes) y el resultado luego de la aplicación del
tratamiento (medición después).
Los pasos de este modelo se sintetizan en el siguiente cuadro (para un esquema
“antes y después), (Selltiz, 1974):
208
Pasos Grupo Grupo
experimental de control
_
3. Introducción del estímulo SI (X) NO (X)
63
Ver la mayoría de los autores citados en bibliografía general.
209
lejano). Mientras que el modelo experimental ensaya explicaciones ex-antes, el modelo
multivariado las intenta ex–post. Mientras que en el modelo experimental se manipulan
estímulos, en el multivariado se manipulan estadísticamente los datos.
TIPOS DE INVESTIGACIONES
Descriptivas Explicativas
Explora-
torias De Relaciones hipotéticas Experimen-
variables tales
S/control de C/control de
Espureidad Espureidad
210
CAPITULO 16: INFORME SOBRE LA INVESTIGACION
A MODO DE EJEMPLO (2º PARTE)
1. Breve recordatorio
Objetivo general:
Objetivos particulares:
Hipótesis general:
64
Nuevamente se hace expreso reconocimiento como fuente de inspiración –y salvando las distancias–, al
trabajo de Wainerman y Sautú (1998).
211
Hipótesis derivadas:
212
pediátricas). Esto obedeció a la estrategia de considerar a dichas Instituciones como el
lugar más apto para “articularlo” con la problemática investigada (disfrazada como
“terapéuticas de prevención”) y con la Facultad (para darle cierta cobertura institucional
al estudio) de donde proveníamos; de esta manera quedaba delineada la presentación y
primer apertura en donde se indagaba por la situación de pareja y por el uso de alguna
acción preventiva (entre ellas la anticonceptiva).
En definitiva el muestreo terminó siendo mixto: polietápico estratificado por
zonas geográficas (Capital y GBA norte, sur y oeste) y por tipo de establecimiento
(Hospital, Clínica/Sanatorio) con selección “probabilística” de los puntos muestrales
ajustado por cuotas de edades no proporcionales seleccionadas de manera accidental.
Cabe aclarar que el interés fundamental radicaba en poner a prueba las hipótesis
sustantivas independientemente de su poder generalizador; es decir, que en términos de
diseño se priorizó la validez interna en desmedro de la externa. No obstante, y teniendo
en cuenta que la fórmula que sugiere Galtung65 para el cálculo empírico del tamaño
muestral arrojaba un resultado de 300 (que se consideró una cifra algo exigua) mientras
que la tabla para un intervalo de confianza del 95.5 % y margen de error de +/- 5 %
determinaba 400 se decidió trabajar con esta última alternativa aunque luego de la
edición terminaron siendo 390 casos efectivos, según el siguiente detalle:
ZONA GEOGRAFICA
EDADES TOTAL
CAP. GBA Norte GBA Sur GBA oeste
Hasta 25 50 15 30 20 115
26/35 50 30 35 30 145
36 y + 50 25 30 35 130
65
Galtung, J. (1978). La fórmula que establece este autor para las muestras no probabilísticas resulta de
elegir las dos variables con mayor número de categorías y multiplicar entre sí dichas cantidades para
luego volver a multiplicar el resultado por veinte. Para el caso que se analiza se tomaron las variables
NSE (3 categorías) y Cantidad de Hijos (5 categorías), 3 x 5 = 15 multiplicado por 20 = 300. Véase
también en este libro el capítulo sobre muestreo.
213
Sobre la recolección de información:
214
En realidad, la apertura de la entrevista en sí comenzaba con el bloque de
preguntas pertenecientes al área cultural de origen rememorando la infancia de la
entrevistada. Como señala Guber se tuvo en cuenta el “arte de no ir al grano” y de tener
en claro la pregunta que no había que comenzar formulando (Guber,1991). Y en verdad,
estos temas iniciales sirvieron para distender (quizás más al entrevistador que a la
entrevistada), ganar confianza, crear el raport y la empatía necesaria.
Luego con la debida “introducción” realizada con preguntas “de relleno” sobre
acciones preventivas en general (contra la gripe, los “nervios”, etc.) y más en particular
(contra enfermedades venéreas, etc.) se pasaba al minibloque de los dos interrogantes
referidos a la técnica y al canal de información para terminar con los datos de
clasificación que apuntaban a medir el nivel socioeconómico. Con respecto a estos
últimos y en términos comparativos se notó que les provocaba una mayor
“incomodidad” o quizás “pudor” reconocer el bajo nivel de estudios de la pareja o
marido que el procedimiento anticonceptivo empleado, especialmente en mujeres que
probablemente terminarían perteneciendo al estrato “medio bajo” aunque tal vez por
autodefinición se hubieran ubicado en un nivel medio neto.
Cabe agregar que previo al trabajo de campo se llevó a cabo el pretest con una
submuestra intencional de alrededor del 6 % de lo que luego sería la muestra definitiva.
Básicamente interesaba probar la construcción de los índices y para ello se
seleccionaron personas “conocidas” en lo que respecta a dichas variables. Durante el
mismo se reiteró un hecho que provocó cierta perplejidad, que cuestionó la
conceptualización y que obligó a reformular y a explicitar de otra manera la pregunta:
algunas mujeres no reconocían como Técnica (aunque “confiaban” bastante en ella) al
método natural. Esto hizo que se revalorizara en general el pretest y fuera otro de los
motivos para darle a la herramienta de recolección de información una definición de
entrevista. Pero, además y principalmente, hay que recordar que se trataba de una
condición que habilitaba para formar parte de la muestra. De hecho, hubo algunos
casos que frente a la duda inicial se entrevistaron y a posteriori se descartaron cuando se
caía en la cuenta que la entrevistada no utilizaba técnica de ningún tipo. Ahora bien,
¿qué hubiera pasado si frente a la condición de “reclutamiento” no se hubiese planteado
adecuadamente la amplitud de las posibles estrategias? Seguramente, muchas mujeres
hubieran sido descartadas. ¿O si la pregunta hubiese sido formulada sin especificar
claramente su alcance? Probablemente muchas entrevistadas hubieran contestado por la
negativa. Este es uno de los tantos errores de diseño –en este caso de varios tipos
(interno y externo)–, que se pueden cometer. En definitiva, las usuarias de tal
procedimiento hubieran quedado sin representación o infrarrepresentadas sesgando la
muestra y por ende, los resultados y conclusiones del estudio.
215
del pretest (hecho que nuevamente resalta su importancia)–, de comparar los resultados
“provisorios” con dos alternativas de categorización del NSE tomándose la decisión
final de dicotomizarla partiendo el índice por la mitad. Esto obedeció a tres motivos: en
primer lugar, porque las otras variables principales (Área cultural de origen y Canal de
información) ya lo estaban; en segundo lugar, para que los datos se “volcaran hacia los
extremos” inclinando la balanza hacia el nivel “bajo” o el “alto” pero sin hacer
desaparecer el estrato medio que de esta manera quedó dividido en dos (medio bajo y
medio neto) que se incorporaron a los niveles bajo y alto, respectivamente. Esto último
es uno de los tantos recursos a los que se puede apelar, en este caso referido al
procesamiento y análisis de los datos; y en tercer lugar, porque se pretendió replicar en
el análisis la “lógica acotada” del modelo Lazarsfeld (Boudon y Lazarsfeld,1979) o de
análisis multivariado que también hemos denominado modelo relacional con control de
espureidad.
A continuación y a modo de síntesis, se presentarán algunos cuadros con
comentarios ilustrativos, recordando que el propósito de este trabajo no es el análisis de
los resultados en sí (que por otra parte carecen de vigencia) sino el de “contribuir” a la
enseñanza-aprendizaje del proceso de investigación.
NSE
MB/Bajo MN/Alto TOTAL
GETA % % %
Mínima 80 18 53
Máxima 20 82 47
TOTAL 56 44 100
Dif. % = 62
216
si el interés fuera describir a qué nivel pertenecen los que utilizan técnicas de
eficacia mínima o máxima, los porcentajes habría que calcularlos en sentido
horizontal como lo han sido para la fila de los totales de cada NSE.
La base se conforma por la cantidad de casos estudiados de cada categoría. Para la
columna del total la base está conformada por la cantidad de casos efectivos que
componen la muestra o población estudiada.
Hasta aquí se podría decir que el diseño empleado para el análisis de los datos ha
sido el descriptivo en su modalidad relacional; es decir, que se ha procurado y
comprobado la existencia de una relación (asociación) entre ambas variables. Sin
embargo, esto no amerita para afirmar que esa relación sea causal o de dependencia, al
margen de cómo haya sido formulada la hipótesis.
Dicho de otro modo, si bien resulta válido suponer que tanto la dimensión socio-
cultural (especialmente por el peso de la educación) como la económica (por el tema de
los costos) influyen directamente en la elección de la técnica anticonceptiva también es
válido sospechar –tal como se señaló en el capítulo correspondiente–, que dicha relación
pueda ser espuria, falsa, ilusoria o no genuina.
Dentro del continuo correspondiente a los tipos de investigación, la
comprobación de una hipótesis causal o de una relación de dependencia implica darle al
66
Para más detalles ver en este mismo libro el capítulo sobre análisis cuantitativo de los datos.
217
estudio un perfil explicativo. En tal sentido, se mencionaron dos alternativas de diseños:
el experimental y el de análisis multivariado o relacional con control de espureidad.
No caben dudas y hasta sería ridículo el intento de realizar la prueba por medio
de un modelo experimental manipulando la variable independiente NSE, de manera que
la opción se halla predeterminada. Para este tipo de situaciones, la única manipulación
posible es el manejo estadístico de los datos realizando el análisis multivariado o con
otras palabras, introduciendo una tercera variable para “poner a prueba la relación
original”. Recuérdese, para continuar con el ejemplo, que simultáneamente a la
hipótesis de la influencia del NSE se barajaba una “conjetura rival”: el
condicionamiento del Área Cultural de Origen. En este caso, esta tercera variable
(contextual comparativa) cumpliría ambas funciones (de prueba y alternativa). Para el
análisis de su influencia se procedió a la realización del segundo paso de este modelo:
los cuadros de las relaciones parciales o la elaboración por parciales:
ACO
TRADICIONAL MODERNA
Mínima 94 83 93 Mínima 22 4 8
Máxima 6 17 7 Máxima 78 96 92
Dif. % = 11 Dif. % = 18
218
La sumatoria de las bases correspondientes (no de los porcentajes) tiene que
coincidir con las bases del cuadro de la relación original. Lo mismo ocurriría si los
porcentajes se convirtieran en frecuencias absolutas.
Observando las cifras de las columnas de los totales de las dos tablas se deduce la
influencia de la variable de prueba. En efecto, la mayoría de las mujeres
provenientes de áreas tradicionales utilizan técnicas de eficacia mínima mientras que
la mayoría de las mujeres de áreas modernas emplean estrategias de mayor poder de
anticoncepción (93 y 92 %, respectivamente).
En la elaboración por parciales se intenta imitar la “lógica del modelo
experimental”. En efecto, uno de los requisitos del plan clásico de este modelo que
supone trabajar simultáneamente con dos grupos (experimental y de control) es la
igualación de los mismos antes de comenzar la prueba (introducción del estímulo).
En este caso, se podría imaginar que también se está trabajando con cuatro grupos a
los que se “ha igualado” a posteriori en lo que respecta al área cultural de origen.
Dos grupos (de 175 y 30 mujeres) coinciden en el área de procedencia (tradicional)
mientras que otros dos (de 45 y 140) provienen de áreas modernas. Si la variable de
prueba no tuviese nada que ver, la relación entre NSE y GETA debería mantenerse
en ambos cuadros (en los cuatro grupos). Sin embargo, como se verá enseguida,
ocurre lo contrario. Por tal motivo, a este paso de los cuadros parciales se lo
denomina “experimento controlado”.
Si se comparan las diferencias porcentuales (Dif. %) de ambos cuadros (11 y 18,
respectivamente) con el resultado de la relación original (62) se aprecia cómo la
relación entre NSE y GETA se ha debilitado sensiblemente con una tendencia a la
desaparición. Esto último permite inferir que tal relación es espuria por lo menos en
lo que respecta a la pretensión de asignación de causalidad, sin que esto suponga
negar la asociación (descriptiva) existente entre ambas variables.
219
Cuadro nº 3: Nivel socioeconómico de Cuadro nº 4: Grado de eficacia de las
entrevistadas según Área cultural técnicas anticonceptivas utilizadas
de origen, Cap/GBA. según el Área cultural de origen.
Dif. % = 61 Dif. % = 85
220
Finalmente, en el cuadro nº 4 se puede apreciar qué sucede con la hipótesis rival o
alternativa. Existe una relación directa sumamente fuerte (Dif. % = 85) entre el
ACO y el GETA: las mujeres provenientes de áreas culturales tradicionales son
fuertemente proclives a utilizar técnicas anticonceptivas de eficacia mínima
mientras que las socializadas en zonas modernas tienden a practicar medidas
anticonceptivas de mayor eficacia.
221
Retomando el análisis sobre las técnicas restaría el tratamiento de las otras
variables cuyas implicancias –por razones de espacio y por no ofrecer material para
realizar comentarios diferentes a los expuestos–, serán incluidas en la síntesis final. Sin
embargo y a los efectos meramente ilustrativos me detendré brevemente en algunas
consideraciones de los usos de la variable edad. Dentro del diseño descriptivo existe
una modalidad de los estudios seccionales (sincrónicos) que es el transversal
(comparativo o no comparativo) que incluye la medición de las variables en diferentes
grupos de edades. Más allá de la lógica comparación entre las distintas categorías
etarias, este recurso permite reemplazar las observaciones longitudinales en distintas
series de tiempo, con la medición simultánea en distintos grupos de edades asumiendo
que los mismos representarían los cambios intergeneracionales producidos y analizar de
esta forma el comportamiento evolutivo de las variables. Por ejemplo, estudiar las
diferencias en el uso de las técnicas anticonceptivas entre los distintos segmentos etarios
tal como a continuación se presenta:
EDAD
Hasta 25 26/35 36 y + TOTAL
GETA % % % %
Mínima 40 48 68 53
Máxima 60 52 32 47
TOTAL 30 37 33 100
Dif. % = -28
Las bases de cada grupo de edad fueron decididas por cuota muestral.
La diferencia porcentual se calculó tomando los porcentajes de las categorías
extremas.
222
Existe una relación inversa débil (-28) pero con tendencia a su crecimiento entre la
edad y la eficacia de la técnica: las mujeres de mayor edad se inclinan por el uso de
técnicas anticonceptivas de menor eficacia.
Si como se apuntó más arriba, se consideran a las categorías extremas (Hasta 25 y
36 y más) como representantes de generaciones distintas (alrededor de 20 años de
diferencia) se observa un progresivo aumento del uso de las técnicas de mayor
eficacia (del 32 al 60 %) que seguramente será mayor en las “generaciones”
provenientes de áreas modernas.
(85)
ACO GETA
(61) (62)
NSE
223
ACO TRADICIONAL
93 %
MENOR
EFICACIA
3 ó + HIJOS C. I. INFORMAL
65 % 82 %
PERFILES DE USUARIAS
DE TECNICAS ANTICONCEPTIVAS
ANTICONCEPTIVAS
1 ó 2 HIJOS C. I. ESPECIALIZADO
55 % 90 %
MAYOR
EFICACIA
224
FICHA TECNICA
Características: Cuantitativo
Población: Mujeres en edad fértil, con pareja estable, que utilizan habitualmente
alguna técnica anticonceptiva.
225
BIBLIOGRAFÍA GENERAL
226
Campbell, D. y Stanley, J., 1978: Diseños experimentales y cuasiexperimentales en la
investigación social, Buenos Aires, Amorrortu.
Candau, J., 2003: “El lenguaje natural de los olores y la hipótesis Sabir-Whorf”,
Madrid, Revista de Antropología Social, Universidad Complutense.
Cea D’Ancona, M. A., 1998: Metodología cuantitativa: estrategias y técnicas de
investigación social, Madrid, Síntesis.
Coffey, A. y Atkinson, P., 2005: “Encontrar el sentido a los datos cualitativos.
Estrategias complementarias de investigación”, Alicante, Servicio de Publicaciones
de la Universidad.
Cohen, M. y Nagel, E., 1983: Introducción a la lógica y al método científico, Buenos
Aires, Amorrortu.
Comboni, S. y Juárez, J., 1990: Introducción a las técnicas de investigación, México,
Trillas.
Cook, T.D. y Reichardt, C.S., 1997: Métodos cualitativos y cuantitativos en
investigación evaluativa, Madrid, Morata.
Corbetta, P., 2007: Metodología y técnicas de Investigación Social, Ed. Revisada,
Madrid, McGraw Hill/Interamericana.
Coser, L., 1970: Nuevos aportes a la teoría del conflicto social, Buenos Aires,
Amorrortu.
Critto, A., 1982: El método científico en las ciencias sociales, Buenos Aires, Paidós.
Delgado, J. y Gutiérrez, J., 1998: Métodos y técnicas cualitativas de investigación en
ciencias sociales, Madrid, Síntesis.
Denzin, N., 1970: The Research Act. A Theoretical Introduction to sociological
Methods, Chicago Andine.
Desvousges, W. H., 1989: Integrating Focus Groups and Surveys, Journal of Official
Statistics.
Díaz, E., 1998: La ciencia y el imaginario social, Buenos Aires, Biblos.
Díaz, E., 2000: La Posciencia, Buenos Aires, Biblos.
Domé, M. N., 2004: “Intenciones de reinserción en el mercado laboral de trabajo y
capital socio-laboral. Análisis en los beneficiarios del Plan Jefes de Hogar
desocupados de Concordia” trabajo integrador final para la licenciatura en
sociología de la Universidad Argentina John F. Kennedy, Buenos Aires, s/p.
Durkheim, E., 1992: El Suicidio, Madrid, Akal.
Echeverría, J., 1998: Filosofía de la ciencia, Madrid. Akal, Madrid.
Errandonea, A., 1977: El lugar de las técnicas cualitativas, Montevideo, FCS.
Errandonea, A., 1986: Manual de introducción a la sociología, Montevideo, FCU.
Fals Borda, O. y otros, 1973: La ciencia y el pueblo, Lima, Mosca Azul.
Feigelman, D., 2005: “Los que quedan: padres de hijos por el mundo”, Trabajo Final
Integrador presentado en la Universidad Argentina J. F. Kennedy para la
Licenciatura en Sociología en marzo de 2005, s/p.
Féstinger, L. y Katz, D., 1972: Los métodos de investigación en las ciencias sociales,
Buenos Aires, Paidós.
Feyerabend, P., 1984: Contra el método, Buenos Aires, Hyspamérica.
Fleck, L., 1986: La génesis y el desarrollo de un hecho científico, Madrid, Alianza.
Freire, P., 1999: Pedagogía del Oprimido, México, Siglo Veintiuno.
Galtung, J., 1978: Teoría y método de la Investigación Social, Buenos Aires, Eudeba.
García Ferrando, M., 1992: Introducción a la estadística en Sociología, Madrid,
Alianza.
García Ferrando, M., Ibáñez, J. y Alvira, F., 1993: El análisis de la realidad social,
Madrid, Alianza.
227
García, R. coord. gral., 1997: La epistemología genética y la ciencia contemporánea,
Barcelona, Gedisa.
Garmendia, J., 1979: Sociología, Madrid, CIS.
Germani, G., 1966: Manual del encuestador, Buenos Aires, UBA, OPFYL.
Germani, G., 1977: Política y sociedad en una época de transición, Buenos Aires,
Paidós.
Ghiglione, R. y Matalón, B., 1989: Las encuestas sociológicas, México, Trillas.
Gibbons, M. y otros, 1997: La nueva producción del conocimiento, Barcelona,
Pomares-Corredor.
Giddens, A., 1989: Sociología, Madrid, Alianza.
Giddens, A., 1997: Las nuevas reglas del método sociológico, Buenos Aires,
Amorrortu.
Gil Flores, J., 1994: Análisis de datos cualitativos, Barcelona, PPU.
Glock, C., 1973: Diseño y análisis de encuestas en sociología, Buenos Aires, Nueva
Visión.
Goetz, J. y LeCompte, M., 1999: Etnografía y diseño cualitativo en investigación
educativa, Madrid, Morata.
González Gil, T. y Cano Arana, A., 2010: “Introducción al análisis de datos en
investigación cualitativa: concepto y características”, Madrid, Nure, Nº 44.
Goode, W. y Hatt, P., 1978: Métodos de investigación social, México, Trillas.
Gouldner, A., 1979: La crisis de la sociología occidental, Buenos Aires, Amorrortu.
Guber, R., 1991: El salvaje metropolitano, Buenos Aires, Legasa.
Guber, R., 2001: Etnografía, Buenos Aires, Norma.
Hall, B. y Le Boterf, G., 1973: Investigación participativa y praxis rural, Lima, Mosca
Azul.
Hammersley, M. y Atkinson, P., 1994: Etnografía, Buenos Aires, Paidós.
Hanson, N.R., 1977: Patrones de descubrimiento. Observación y explicación, Madrid,
Alianza.
Hempel, C., 1975: Confirmación, inducción y ciencia racional, Buenos Aires, Paidós.
Hernández Sampieri, R. y otros, 1994: Metodología de la investigación, México,
McGraw-Hill.
Hobsbawm, E., 1998: Historia del siglo XX, Buenos Aires, Crítica.
Hughes, J. y Sharrock, W., 1999: La filosofía de la investigación social, México, FCE.
Hyman, H., 1984: Diseño y análisis de las encuestas sociales, Buenos Aires,
Amorrortu.
Jick, T. D., 1979: Mixing qualitative and cuantitative methods: triangulation in action,
Administrative Science Quarterly, volumen 24.
Kérlinger, F. N., 1975: Investigación del comportamiento: técnicas y metodologías,
México, Interamericana.
Kinner, T. y Taylor, J.,1994: Investigación de mercados, México, McGraw-Hill.
Kish, L., 1995: Diseño estadístico para la investigación, Madrid, CIS.
Klimovsky, G. y Schuster, F., 2000: Descubrimiento y creatividad en ciencia, Buenos
Aires, Eudeba.
Klimovsky, G., Varsavsky, O. y otros, 1973: Ciencia e ideología, Buenos Aires,
Ciencia nueva.
Korn, F. y otros, 1984: Conceptos y variables en la investigación social, Buenos Aires,
Nueva Visión.
Kuhn, T., 1966: La estructura de las revoluciones científicas, Buenos Aires, FCE.
Lakatos, I. y Musgrave, A., 1975: La crítica y el desarrollo del conocimiento,
Barcelona, Grijalbo.
228
Lakatos, I., 1983: La metodología de los programas de investigación científica, Madrid,
Alianza.
López Alonso, A., 2006: Tesis doctorales, Buenos Aires, Leuka.
Lores Arnaiz, M. del R., 1986: Hacia una epistemología de las ciencias humanas,
Buenos Aires, Belgrano.
Lundberg, G., 1949: Técnica de investigación social, México, FCE.
Maddox, J., 1999: Lo que queda por descubrir, Madrid, Debate.
Madge, J., 1969: Las herramientas de la ciencia social, Buenos Aires, Paidós.
Marradi, A. y otros, 2007: Metodología de las ciencias sociales, Buenos Aires, Emecé.
Marx, C., 1971: Elementos fundamentales para la crítica de la economía política,
Buenos Aires, Siglo Veintiuno.
Mayntz, R. y otros, 1988: Introducción a los métodos de la sociología empírica,
Madrid, Alianza.
McKinney, J., 1968: Tipología constructiva y teoría social, Buenos Aires, Amorrortu.
Merton, R., 1980: Teoría y estructuras sociales, Buenos Aires, FCE.
Minujín, A. y Kessler, G., 2000: La nueva pobreza en Argentina, Buenos Aires, Planeta.
Moledo, L., 1994: De las tortugas a las estrellas, Buenos Aires, A-Z.
Mora y Araujo, M., 1965: Recomendaciones para la lectura y análisis de cuadros,
Buenos Aies, UBA.
Mora y Araujo, M., 1973: Estadística y sociología, Buenos Aires, Nueva visión.
Mora y Araujo, M., Lazarsfeld, P. y otros, 1971: El análisis de los datos en la
investigación social, Buenos Aires, Nueva Visión.
Morgan, D.: (ed.), 1993: Successful Focus Groups. Advancing the State of the Art,
Newbury Park, Sage.
Nagel, E., 1981: La estructura de la ciencia, Barcelona, Paidós.
Noelle, E., 1978: Encuestas en la sociedad de masas, Madrid, Alianza.
Padua, J., 1982: Técnicas de investigación aplicadas a las ciencias sociales, México,
FCE.
Pardinas, F., 1972: Metodología y técnicas de investigación en ciencias sociales,
México, Siglo veintiuno.
Passeron,J-C, 2000: “¿Es confiable el saber de las ciencias sociales?”, Buenos Aires,
diario Clarín.
Pérez Lalanne, R., 2000: Investigación social, Buenos Aires, UNLZ.
Pérez Lalanne, R., 2001: Sociología. Una apuesta al conocimiento científico, Buenos
Aires, Leuka.
Pérez Lalanne, R. 2004: “Ciencia y conciencia social. Un análisis sociológico de la
ciencia y el sentido común”, Tesis de Maestrïa en Metodología de la Investigación
Científica, provincia de Buenos Aires, UNLa, s/p.
Pérez Lalanne, R., 2010: Aportes para una epistemología social, Buenos Aires, UNLZ.
Pizarro, N., 1998: Tratado de metodología de las ciencias sociales, Madrid, Siglo
Veintiuno.
Popper K. y otros, 1978: La lógica de las ciencias sociales, México, Grijalbo.
Popper, K., 1989: La lógica de la investigación científica, Buenos Aires, Rei.
Popper, K., 1994: Conjeturas y refutaciones, Barcelona, Paidós, Barcelona.
Prigogine, I., 1996: El fin de las certidumbres, Santiago, A. Bello.
Raj, D., 1979: La estructura de las encuestas por muestreo, México, FCE.
Rodriguez Osuna J., 1991: Métodos de muestreo, Madrid, CIS.
Rojas Soriano, R., 1986: La investigación social: teoría y praxis, México, Folios.
Saint – Simon, 1964: Catecismo político de los industriales, Buenos Aires, Aguilar.
Samaja, J., 1993: Epistemología y metodología, Buenos Aires, Eudeba.
229
Sánchez Carrión, J. J., 1996: Manual de análisis de datos, Madrid, Alianza.
Sartori, G. y Morlino, L., 1999: La comparación en las ciencias sociales, Madrid,
Alianza.
Sautú, R. y otros, 2005: Manual de metodología, Buenos Aires, CLACSO.
Scarano, E., 1999: Metodología de las ciencias sociales, Buenos Aires, Macchi.
Schmeichel, N., 1999: “Cómo hacer investigación de mercado”, Buenos Aires, Revista
Mercado.
Schuster, F., 1982: Explicación y predicción, Buenos Aires, Clacso.
Schuster, F., 1992: El método en las ciencias sociales, Buenos Aires, Ceal.
Schwartz, H. y Jacobs, J., 1984: Sociología cualitativa, México, Trillas.
Schwartzman, S. (comp.), 1977: Técnicas avanzadas en ciencias sociales, Buenos
Aires, Nueva Visión.
Scribano, A., 2008: El proceso de investigación social cualitativo, Buenos Aires,
Prometeo.
Selltiz, C. y otros, 1974: Métodos de investigación en las relaciones sociales, Madrid,
Rialp.
Sierra Bravo, R., 1996: Tesis doctorales y trabajos de investigación científica, Madrid,
Paraninfo.
Sierra Bravo, R., 1994: Técnicas de Investigación Social, Madrid, Paraninfo.
Taylor, J. y Bogdan, R., 1986: Introducción a los métodos cualitativos de investigación,
Buenos Aires, Paidós.
Thomas, W. y Znaniecki, F., 2004: El campesino polaco en Europa y América, Madrid,
CIS-Boletín Oficial del Estado.
Valles, M., 1997: Técnicas cualitativas de investigación social, Madrid, Síntesis.
Van Dalem, D. y Meyer, W., 1971: Manual de técnica de la investigación educacional,
Buenos Aires, Paidós.
Vasilachis de Gialdino, I. coord., 2007: Estrategias de investigación cualitativa, Buenos
Aires, Gedisa.
Vasilachis de Gialdino, I., 1992: Métodos cualitativos I, Buenos Aires, CEAL.
Vieytes, R., 2004: Metodología de la investigación en organizaciones, mercado y
sociedad, Buenos Aires, de las Ciencias.
Wainerman, C. y otros, 1976: Escalas de medición en ciencias sociales, Buenos Aires,
Nueva Visión.
Wainerman, C. y Sautú, R. (comps.), 1998: La trastienda de la investigación,
Buenos Aires, Belgrano.
Wallace, W., 1980: La lógica de la ciencia en sociología, Madrid, Alianza.
Waslavyck, P., 1985: ¿Es real la realidad?, México, Siglo veintiuno.
Weber, M., 1977: Economía y sociedad, Bogotá, FCE.
Wright Mills, C., 1961: La imaginación sociológica, México, FCE.
Yalour, M., 1972: La investigación social, Buenos Aires, Ceal.
Zeizel, H., 1986: Dígalo con números, México, FCE.
Zetterberg, H., 1981: Teoría y verificación en sociología, Buenos Aires, Nueva Visión.
230
ÍNDICE
Pág.
INTRODUCCIÓN 2
231
3. Sistema de categorías o categorización de las variables 62
3.1. Principios que rigen la categorización de una variable 63
3.2. Factores que inciden en la categorización de una variable 64
4. Niveles de medición de las variables 66
5. Clasificaciones de las variables 68
5.1. Según su naturaleza 68
5.2. Según la función que cumplen en la hipótesis o análisis del
problema 69
5.3. Según su grado de complejidad 77
5.3.1. Pasos para la construcción de un índice porcentual 81
6. Validez y confiabilidad de las mediciones 85
7. Algunos ejemplos simbólicos 87
232
4. El registro de la entrevista 154
5. Finalización de la entrevista 154
6. Tipos de entrevista 155
233