Está en la página 1de 233

Metodología

de la
Investigación Social
Roberto Pérez Lalanne

Con la colaboración de:

S. Raquel Míguez
Alfredo Oscar Castro

1
INTRODUCCIÓN

El presente libro es una reedición ampliada y corregida de un texto publicado en


el año 2000 por la editorial de la Facultad de Ciencias Sociales de la Universidad
Nacional de Lomas de Zamora.
El objetivo central fue que sirviera de recurso bibliográfico –en particular– para
los alumnos que cursan Metodología en la mencionada Facultad y –en general– para
todos los estudiantes de distintos ámbitos educativos como también para investigadores
noveles que se inician en esta grata y –al mismo tiempo– compleja tarea que supone la
producción de conocimientos.
En cuanto a su contenido, la finalidad fue el desarrollo de las temáticas centrales
que se encuentran involucradas en cualquier investigación social empírica cuantitativa
con datos primarios.
A todos los que lo hicieron posible vaya mi afectuoso reconocimiento y
agradecimiento.

Roberto Pérez Lalanne


Julio de 2016

2
CAPÍTULO 1: LA INVESTIGACIÓN SOCIAL

Desde sus propios albores la humanidad se ha preguntado por el sentido de las


cosas y en sus intentos de respuestas fue construyendo diferentes “mundos finitos de
sentido”:1 la religión, la ideología, el arte, la filosofía, el derecho, el sentido común, y
por cierto, también la ciencia. Siguiendo esta línea de pensamiento y, en términos
generales, se podría decir que la investigación social es una de las tantas formas o
procedimientos de construir representaciones de la vida social que enmarcándose en los
dispositivos científicos pretende aportar al mundo de la ciencia social. Como señala
Becker, incluye cualquier cosa que sea pertinente para los esfuerzos de los científicos
sociales dirigidos a “hablarnos acerca de la sociedad” (Becker, 2014).
Etimológicamente, la palabra investigación proviene del verbo latino
--investigare--, que podría traducirse como “estar abocado a” o “en búsqueda de”.
Diferentes autores han utilizado el verbo como sinónimo de buscar, indagar, averiguar,
desentrañar, analizar, estudiar, etc. e incluso están quienes -tal vez con la intención de
afirmar una pretendida alternativa, que no deja de ser interesante-, señalan que
investigar no consistiría tanto en buscar sino más bien en encontrar.2
Sea de una u otra manera y como ya se dijo, desde sus orígenes, el hombre se ha
dedicado a investigar en la medida que se enfrentaba a incertidumbres, perplejidades,
interrogantes, necesidad de hallar nuevos conocimientos o de dar solución a nuevos
problemas (o nuevas soluciones a viejos problemas). De esta manera y a medida que las
ciencias sociales fueron alcanzando una mayor visibilidad y legitimidad, se fueron
perfilando diferentes tipos de análisis que serán tratados en el apartado siguiente.

1. Los tipos de investigación

Las investigaciones se pueden clasificar de diferentes maneras en función de un


conjunto de criterios. Los mismos no son excluyentes y a su vez obedecen a distintos
intereses analíticos. A continuación se desarrollan los principales agrupamientos cuya
síntesis se presenta en el cuadro siguiente:3

1
En un trabajo anterior (Pérez Lalanne, 2010) se ha desarrollado esta problemática de “los mundos finitos
de sentido” conjuntamente con los distintos modos de producirlos. La expresión “mundos finitos de
sentido” le pertenece al filósofo y sociólogo vienés Alfred Schutz (1974) quien fuera el promotor del
enfoque fenomenológico especialmente en el análisis sociológico de la vida cotidiana.
2
Cf. Ibañez, Jesús: “...sólo se puede encontrar lo que no se puede buscar: porque si lo pudiéramos buscar,
ya lo habríamos encontrado” (García Ferrando y otros, 1993:75). También Picasso solía decir: “... es
artista el que encuentra, no el que busca...”.
3
El mismo se ha elaborado siguiendo --aunque no en su totalidad--, a Sierra Bravo, (1991).

3
TIPOS DE INVESTIGACION SOCIAL

Criterios Clasificaciones

Teórica
 Naturaleza Empírica
Teórico-empírica

 Finalidad Básica
Aplicada

Sincrónica o seccional (y transversal)


 Alcance temporal Diacrónica o longitudinal (retrospectiva, prospectiva, de
panel, de tendencia, etc.)
Comparativa (seccional y longitudinal)

Exploratoria
 Nivel de análisis Descriptiva
(profundidad) Explicativa

 Amplitud Microsocial
Macrosocial

Primarias
 Fuente de datos Secundarias
Mixtas

Cualitativas
 Características Cuantitativas
Cualicuantitativas

 Marco De campo
De laboratorio

a) Naturaleza: este criterio se refiere al plano en el que se implementa la


investigación. En tal sentido, los estudios pueden ser teóricos, empíricos o teórico-
empíricos. Son teóricas las investigaciones que se desarrollan en el campo de las ideas
sin ningún anclaje observacional o que abordan ideas de uno o varios autores, ya sea
con el propósito de efectuar un análisis crítico, interpretativo, complementario,
comparativo, etc. Dentro de este grupo se encuentran los trabajos bibliográficos y

4
monográficos que tan útiles aportes han realizado a las ciencias sociales. Sin embargo,
cabe aclarar su diferenciación con muchos pseudos estudios que terminan siendo copias
burdas de autores --a veces malintencionadas o lo que es peor, mal hechas--, como
sucede con muchos trabajos erróneamente llamados monográficos que incluso se
practican o fomentan en los ámbitos académicos; en tal caso, cabe recordar que a los
autores hay que citarlos y no plagiarlos. También dentro de este tipo de estudios están
la mayoría de los análisis filosóficos, lógicos y epistemológicos. Por otra parte, hay que
evitar “el teoricismo estéril” o como lo denomina Bourdieu la “institución” de la teoría
en tanto campo discursivo separado, cerrado y auto referente, es decir, palabras a
propósito de palabras. Las investigaciones teóricas se ciñen en gran medida a los
mismos procedimientos técnicos-metodológicos que cualquier otra investigación:
formulación del problema, objetivos, hipótesis, control de variables extrañas, etc.
Por su parte, los estudios empíricos abarcarían todas las demás investigaciones
que se basan en el abordaje experiencial de cualquier fenómeno de la realidad, incluidos
los de carácter documental. Precisamente, a estos últimos (los empíricos) se hará
referencia en lo que resta del desarrollo del presente trabajo. Sin embargo, cabe aclarar
que la denominación de empírico no implica que estas investigaciones carezcan de
marco teórico o que no puedan ser teóricas (como se verá en el punto siguiente). Serán
igualmente empíricas en la medida que se aluda a hechos o a fenómenos de la realidad.
En la actualidad, la mayoría de las investigaciones que se realizan en las ciencias
sociales son teórico-empíricas, aunque puedan ser predominantemente teóricas o
predominantemente empíricas o aunque no se expliciten algunos de estos planos.

b) Finalidad: este criterio se relaciona en cierta medida con el anterior y por lo


tanto puede prestarse a confusiones. No obstante, se refiere a cuestiones diferentes; en
este caso, al propósito último de la investigación. Son básicas aquellas que apuntan al
desarrollo de las grandes teorías formales --como las llaman Glaser y Strauss--, sin
pretensiones de aplicar en forma inmediata dichos conocimientos. Son las que
posibilitan la explicación y/o comprensión de los fenómenos, las que dan cuenta de los
problemas teóricos de cualquier ciencia o que apuntan a incrementar su acervo teórico.
Por ejemplo, el desarrollo que hiciera Marx sobre el Modo de Producción capitalista
(infraestructura y superestructura) o la elaboración de Weber sobre los Tipos Ideales de
Dominación. Algunos autores también la han llamado pura, término este último, que se
presta a interpretaciones erróneas en la medida en que se lo utilice como sinónimo de
inmaculada, neutral o ascética. Se denominan básicas porque constituyen el
fundamento de la mayoría de las investigaciones aplicadas que son aquellos estudios
que se proponen solucionar problemas concretos o inmediatos, o que apuntan a la
transformación de la realidad y para ello lo hacen basándose en las primeras. De hecho,
tal fue el propósito de Marx cuando analizó el capitalismo: sentar las bases para su
posterior crítica y transformación. Asimismo, todos los emprendimientos relacionados
con el avance tecnológico se ubican en el campo de los estudios aplicados.
Con respecto a esta clasificación valdría hacer un comentario: casi todas las
investigaciones que se realizan en algunas disciplinas resultan ser aplicadas. Me refiero
por ejemplo, a las que se llevan a cabo en el área de la salud, de la educación, de las
relaciones públicas, laborales, publicidad, marketing, etc. Y es lógico que así sea y esto
no le resta absolutamente ningún mérito. El problema se plantea cuando se pierde de
vista cuáles son los fundamentos últimos de esas investigaciones y se convierten en
acciones meramente intuitivas o cuyos resultados no pueden enmarcarse o no se
encuadran en ningún marco teórico que haga posible su interpretación. A esto último,
se refirió Wright Mills (1961) y lo llamó “empirismo abstracto”. Precisamente, este

5
riesgo ha llevado por ejemplo, a la creación de carreras universitarias o de profesiones
vacías o con muy pobres contenidos teóricos, o que deben necesariamente nutrirse de
modelos teóricos provenientes de otras ciencias. Y esto último, aunque pueda parecer
engorroso o hasta ofensivo, tiene que ver con la reivindicación de la teoría y con el
ámbito por excelencia en dónde ésta se produce: la Universidad.
En definitiva, tanto la básica como la aplicada son investigaciones empíricas
aunque la primera sea predominantemente teórica porque apunta a elaborar --valga la
redundancia-- teoría, mientras que la segunda sea predominantemente empírica o
empírica propiamente dicha porque aborda problemas concretos. Además, si bien por lo
general esta última se basa en aquélla también puede retroalimentarla y hasta dar origen
al desarrollo de investigaciones básicas.

c) Alcance temporal: este criterio nos remite a los momentos en que se efectúan las
mediciones y a los “grupos” involucrados por ellas. Las investigaciones sincrónicas,
seccionales o transversales realizan el estudio en un único momento, es decir, efectúan
una sola medición del fenómeno obteniéndose como resultado una única fotografía del
mismo. Por su parte, las diacrónicas o longitudinales implican dos o más mediciones en
diferentes tiempos dando por resultado varias fotografías o, en el mejor de los casos,
una película. Dicho de otra manera, son de carácter procesual e implican un seguimiento
del problema. A su vez, estas últimas pueden ser retrospectivas (cuando los momentos
estudiados se refieren al pasado) o prospectivas (cuando apuntan a efectuar mediciones
en el futuro). También pueden ser de panel (cuando se realizan a un mismo grupo o
cohorte) o de tendencia (cuando las observaciones se efectúan en grupos diferentes).
Tanto las sincrónicas como las diacrónicas pueden ser comparativas cuando se trabaje
simultáneamente con dos o más poblaciones.

d) Nivel de análisis: se refiere a los diferentes grados de profundidad que de acuerdo


a los objetivos tengan las investigaciones; o tal vez sea más adecuado hablar se
rigurosidad, intensidad y exhaustividad con que se realiza el abordaje. Si se trazara un
continuo en esos términos que fuese del nivel de menor rigurosidad, intensidad y
exhaustividad al de mayor nivel, los estudios podrían agruparse en exploratorios,
descriptivos y explicativos. Con otras palabras, cada uno de ellos se caracteriza por
responder a distintos tipos de preguntas: los exploratorios dan cuenta de ¿qué pasa?; los
descriptivos de ¿cómo, dónde, cuándo, con quiénes o con qué frecuencia pasa?;
mientras que los explicativos pretenden resolver la cuestión de ¿por qué pasa?. Cada
uno de ellos se caracteriza por responder a un tipo especial de diseño de investigación.
El hecho de ubicarlos en una suerte de continuo permite significar que los mismos son
acumulativos, consecutivos y combinables entre sí. Cuando un estudio arranca de cero,
es decir, de un desconocimiento del problema, necesariamente comienza con una etapa
exploratoria y, en tal sentido, suele estar presente en la mayoría de los estudios que
luego continuarán con un momento descriptivo y, finalmente –en el mejor de los
casos— arribarán a la explicación.

e) Amplitud: este criterio nos remite a los alcances de la investigación, al campo de


estudio, a su cobertura o al contexto que se aborda con el análisis en cuestión. En tal
sentido, las investigaciones pueden ser microsociales (cuando se trata de estudiar un
grupo, institución, organización etc. o determinadas formas de interacción, tomas de
decisión o vínculos primarios subjetivos que comprometen la perspectiva de los actores)
o macrosociales (cuando el análisis se realiza tomando a una sociedad en su conjunto, a
la totalidad de un sistema o estructura social, etc. o relaciones secundarias de tipo más

6
objetivas o despersonalizadas). Por ejemplo, si el objetivo es estudiar cómo influyen las
condiciones laborales en el rendimiento de los trabajadores de una determinada
empresa, la investigación es microsocial; en cambio, si se trata de analizar los niveles de
desocupación de un país, es macrosocial. De esto se desprende, que la opción entre los
enfoques micro y macro depende de cuál sea la problemática y los objetivos de la
investigación. Con respecto a este criterio cabe hacer notar que no hay que confundir la
distinción entre micro y macro con la diferencia entre muestra y universo; es decir, que
el estudio puede realizarse a una muestra o conjunto de unidades de análisis y la
investigación ser macrosocial y a la inversa, el estudio puede efectuarse al conjunto del
universo o población y ser microsocial.

f) Fuente de datos: se considera fuente a aquella que nos provee de la información


necesaria para la investigación. En tal sentido, este criterio se remite al origen de los
datos que pueden ser primarios o secundarios. Los primarios son datos de primera
mano, originales, que han sido recolectados directamente por los investigadores en su
ámbito natural y a los efectos de esa investigación. Por ejemplo, realizar una encuesta
a estudiantes de una Facultad para conocer su rendimiento académico. Los secundarios
son datos de segunda mano, que han sido recogidos y procesados por otros o que han
servido para otros estudios. Por ejemplo, consultar los legajos de los alumnos de esa
Facultad. A su vez, los datos secundarios pueden ser internos o externos y
sindicalizados o no sindicalizados.4 Los internos provienen de fuentes pertenecientes a
la organización/institución para la cual se realiza la investigación mientras que los
externos provienen de fuentes ajenas a la misma como sucede con la mayoría que se
encuentra en cualquier biblioteca. Por su parte, son datos sindicalizados aquellos que se
producen en forma estandarizada y sistemática, por lo general por organismos
especializados, muchos de los cuales suelen lucrar con su venta. Por ejemplo, las
estadísticas que periódicamente brinda el INDEC (Instituto Nacional de Estadísticas y
Censos) sobre desocupación o las mediciones de audiencia son datos externos
sindicalizados. Lo contrario ocurre con los datos no sindicalizados que no obstante,
también suelen venderse. Como sucede con muchas bases de datos elaboradas con los
clientes de un Banco o a partir de folletos que con la excusa de un concurso solicitan el
registro de datos personales. De lo anterior se desprende que los datos secundarios no
necesariamente tienen que ser cifras numéricas o provenir de bases estadísticas; por el
contrario, bien pueden ser datos textuales o testimoniales.
Por último, cabe realizar algunos comentarios: en primer lugar, aclarar, que una
misma fuente puede proveer de datos primarios y secundarios; por ejemplo, un profesor
que en su clase expone sus conocimientos sobre cierto tema (dato primario) y al mismo
tiempo brinda su interpretación sobre determinados autores (dato secundario). En
segundo lugar, que las investigaciones pueden realizarse con datos primarios, con datos
secundarios o ser mixtas, incluyendo ambos tipos de información que podrán o no
provenir de la misma fuente. En tercer lugar, y aunque tal vez no sea el lugar más
apropiado pero considerando el escaso interés que la mayoría de los autores le dedican,
es oportuno destacar la importancia que tienen los datos secundarios tanto en lo que
respecta a su valor intrínseco como fuente exclusiva de numerosas investigaciones
como en lo que se refiere a la apoyatura que los mismos brindan a las investigaciones
efectuadas con datos primarios. A tal punto llega esta falta de reconocimiento, que
muchas veces se realizan estudios con el propósito de obtener informaciones que ya
están disponibles en otras fuentes, con un menor margen de error y sobre todo a un

4
Al respecto, cfr. Kinner, T. y Taylor, J. (1994) y también Aaker, D. y Day, G. (1992).

7
menor costo. En cuarto lugar, también hay que señalar que los datos secundarios
pueden tener falencias y desventajas como por ejemplo, que su origen sea dudoso, que
responda a determinados intereses o que hayan sido recogidos para investigaciones que
no responden a los objetivos para los cuales se los está utilizando. Un ejemplo de esto
último, lo constituye la llamada “cifra negra” de las estadísticas que se publican sobre
victimización.5

g) Características: Bachelard (1972 y 1974) señala que el hecho científico se


conquista, construye y comprueba. De acuerdo con las características que asuma este
proceso las investigaciones serán cualitativas, cuantitativas o cualicuantitativas. Con
otras palabras, este criterio se refiere a la forma de “construcción de la realidad”, al
conjunto de supuestos, teorías, metodologías y técnicas que se comprometen en la
práctica científica.
Cuando se trata de caracterizar y distinguir entre ambos tipos de investigación se
puede apelar a diferentes especificaciones o rasgos básicos. Uno de ellos –tal vez el más
obvio–, se refiere a la cantidad de casos con los que se trabaja, es decir, al tamaño de la
muestra. Los estudios cuantitativos suelen trabajar con muchos casos –con muestras
grandes— porque privilegian la representatividad estadística de los resultados. Dicho de
otra manera, las prácticas investigativas cuantitativas apuntan a generar datos numéricos
que se presentarán condensados en porcentajes a través de cuadros y/o gráficos
estadísticos. Por su parte, los cualitativos lo hacen con pocos casos –muestras
pequeñas— porque ponderan la significación, complejidad, riqueza de los resultados
apuntando a construir datos textuales interpretados o resignificados por el investigador
como, por ejemplo, sucede con los testimonios logrados en una entrevista.
Por otra parte, los estudios cuantitativos se autodefinen como “objetivos” mientras
que los cualitativos lo hacen como “subjetivos”. Si bien el término “objetividad” resulta
ser polisémico (Rudner, 1973), en este caso su uso remite a la posibilidad que tenga el
estudio de ser replicado, es decir, a su iteratividad. En las investigaciones cuantitativas
se privilegia la perspectiva del investigador, que seguramente se explicitará en el marco
teórico y se extenderá en las hipótesis, conceptualización y categorización de las
variables, indicadores y que, por último, se plasmará en el instrumento que se utilizará
en el trabajo de campo para obtener la información. No hay dudas que la herramienta
por excelencia para tal cometido es la encuesta en cualquiera de sus modalidades de
administración muestreo probabilístico o mixto previo. Como se verá más adelante, la
encuesta es un instrumento altamente estructurado que se aplica en función de un
formulario de preguntas cerradas. Motivos todos por los cuales se hace posible que el
mismo u otros investigadores puedan reiterar el estudio y comprobar por sí mismos la
validez de los hallazgos anunciados y, en tal sentido, se afirma que el mismo es
objetivo. No en vano y entre cosas, las prácticas investigativas cuantitativas han sido
caracterizadas como profecías autocumplidas porque de alguna manera el investigador
termina sabiendo lo que de antemano quería saber (Pérez Lalanne, 2010).
En cambio, los estudios cualitativos privilegian la “perspectiva de los actores”
(Guber, 1991). El investigador aprende a “ver” el problema tal como lo hacen los
propios sujetos estudiados sumergiéndose en la subjetividad de los mismos. Para ello se
vale de estrategias lo menos intrusivas y más empáticas posibles, apelando a su propia
subjetividad en esta suerte de “doble hermeneútica” que oportunamente desarrollara

5
Se considera “cifra negra” a la totalidad de casos de delitos padecidos que por diversas causas no están
contemplados en las estadísticas que se dan a conocer: por ausencia de la denuncia por parte de la
víctima, por el rechazo a recibirla por parte de los organismos jurisdiccionales competentes, etc.

8
Giddens (1997). Por esto y tantos otros motivos es que se torna casi imposible la
replicabilidad de los estudios cualitativos.
En definitiva, ambos tipos corresponden a los dos enfoques históricos de la
investigación social: el cualitativo presentándose como subjetivo y el cuantitativo como
objetivo. Esto último sin perder de vista que tanto uno como el otro cubren aspectos
que forman parte de la objetividad social. Dado que estos enfoques no son excluyentes
bien pueden complementarse en los estudios cualicuantitativos.

h) Marco: nos remite al lugar, al ámbito en el que se desarrolla el estudio. Las


investigaciones de campo son aquellas que abordan los fenómenos en su ambiente
natural; esto implica que el investigador se traslada al lugar donde suceden los hechos o
donde se encuentran los sujetos que a los que se piensa estudiar. Por su parte, las
investigaciones de laboratorio son aquellas que reproducen el fenómeno bajo
condiciones artificiales en un ámbito que reúne características similares a las reales o
reproducidas experimentalmente bajo control del investigador. Si bien, la mayoría de
los estudios sociales son del primer grupo, no obstante, son frecuentes las experiencias
que se realizan simulando situaciones de laboratorio, especialmente en educación,
publicidad, relaciones laborales, etc. Un caso típico sería cuando se trabaja con focus
groups, grupos motivacionales, de discusión u operativos.

Para finalizar, vale la pena repetir que los criterios desarrollados no son
exhaustivos dado que existen otras formas de agrupamiento (según el interés analítico)
y no son excluyentes dado que en un mismo estudio pueden confluir varios de ellos; por
ejemplo, una investigación cuyo propósito sea medir la evolución de la intención de
voto de los ciudadanos del país frente a una próxima elección se caracteriza por ser
descriptiva, cuantitativa, empírica, macrosocial, de campo, diacrónica, etc.
Todos estos criterios presentan puntos fuertes y débiles, y en general, son útiles a los
efectos clasificatorios y pedagógicos pero también lo son cuando se trata de evaluar si
existe correspondencia entre la “autodefinición” de la investigación y como la misma ha
sido realizada.

2. Los contextos de investigación

En 1938 Hans Reichenbach en su libro Experience and Prediction propuso la


distinción entre los contextos de descubrimiento y de justificación, en el marco de la
teoría de la ciencia que caracterizó al empirismo lógico y que estuvo centrada en la
epistemología. Cabe señalar que ya muchos filósofos y científicos (Aristóteles, Kant,
Euclides, Hüsserl, Carnap, Popper, etc.) presuponían dicha separación aun antes de que
fuese explícitamente formulada. La idea de Reichenbach consistía en prescindir de los
procesos científicos reales, tomando como objeto de la Filosofía de la Ciencia una
reconstrucción lógica de las teorías.
El contexto de descubrimiento se refiere a la producción del conocimiento (en
general y científico en particular), formulación de una hipótesis, hallazgo de una nueva
idea, solución a un problema o invención de un concepto. Incluye las circunstancias
personales, valorativas, ideológicas, históricas y socioeconómicas. A este contexto se lo
considera de índole empírico-descriptivo y según Reichenbach es materia de análisis de
la Psicología, Historia y Sociología. El contexto de justificación se refiere al diseño de
la prueba, a la validación de ese conocimiento o a la contratación de la hipótesis, a los

9
razonamientos, métodos, consecuencias observacionales y predicciones; es de
naturaleza lógico-normativa y por lo tanto, materia de estudio de la Filosofía de la
Ciencia y de la Epistemología.
De esta manera y durante muchos años prevaleció esta distinción impuesta por el
positivismo lógico y demarcacionista que “menospreciaba o desconocía” el contexto de
descubrimiento (excluyéndolo de la reflexión epistemológica), reconociéndole status
científico sólo al contexto de justificación y asignándole el monopolio de su tratamiento
a la Lógica y a la Epistemología en desmedro de otros posible abordajes. En sintonía
con esta línea de razonamiento y argumentación en forma simultánea comenzó a
restringirse el concepto de investigación al contexto de justificación; así fue como su
validez se fue analizando y certificando en función de este contexto y a preservar la
misma de cualquier ingrediente o influencia ideológica, valorativa, ética, etc. De esta
forma y a la luz de esta concepción paradigmática, la investigación se autodefinía como
neutra, objetiva y libre de valores. En primera y única instancia, la validez de una
“investigación científica” se reducía y se analizaba mediante la reproducción artificial
lógica y de su concordancia con las tablas de verdad del razonamiento hipotético
deductivo en su versión falsacionista o “modus tollens”.
Sin embargo, paulatinamente a partir de la pasada década del ’50 se producen
algunas modificaciones y/o reacciones que comenzarán a interrelacionar la Filosofía de
la ciencia con la Sociología e Historia de la ciencia o a reclamar la necesidad de
caracterizar de un modo más amplio el concepto de “racionalidad” y sus nociones
asociadas. En lo que concierne al objetivo de este apartado, dichos aportes se analizarán
con el propósito de demostrar que el contexto de justificación es sólo un momento más
(y no el único) de la investigación y que en última instancia, esta distinción entre
contextos (cualquiera sea su número) es arbitraria (como toda distinción) y sólo
aceptable a los fines pedagógicos y analíticos.
En los años ‘60 Thomas Kuhn (1986) introduce en su conceptualización del
paradigma un criterio sociológico para analizar la validez y vigencia de una teoría: la
adhesión por parte de la comunidad científica. Según este epistemólogo, historiador de
la ciencia y físico norteamericano en épocas de normalidad científica o paradigmática
(que son las ordinarias y de duración más prolongada) los investigadores no se dedican
ni a verificar ni a falsar las teorías sino que trabajan convencidos en la utilidad de las
mismas procurando solucionar los problemas, desarrollando y enriqueciendo el
paradigma al cual pertenecen o a la matriz disciplinaria a la cual adhieren. En ningún
caso necesitan distinguir entre contextos o efectuar un análisis lógico de sus teorías.
Tampoco lo hacen en época de crisis paradigmática en la que se suceden las anomalías
(problemas para los cuales el paradigma vigente no ofrece respuestas/soluciones
satisfactorias). En estos períodos, los científicos comienzan a descreer de las teorías a
las que hasta ese momento adherían y a trabajar en procura de un nuevo modelo de
análisis, pero no lo hacen ni por motivos lógicos ni justificacionistas. Y cuando se
produce una revolución científica o paradigmática y queda desplazado el paradigma
anterior, a los efectos de adherir a las nuevas concepciones tampoco las someten a la
reproducción artificial de su racionalidad lógica. Esto es así porque Kuhn entiende la
investigación en un sentido amplio como la tarea cotidiana que desarrollan los
científicos en la cual se entremezclan los contextos con diferentes lógicas y
racionalidades, utilizando los métodos más convenientes y estando sometidos a
múltiples influencias. Este análisis que en principio Kuhn desarrolla para las ciencias
naturales es más complejo aún en el campo de las ciencias sociales, en donde conviven,
interactúan y hasta convergen paradigmas diferentes sin desplazarse mutuamente ni
lograr captar la adhesión mayoritaria de la comunidad de los cientistas sociales. Y sin

10
embargo, tampoco aquí se cuestiona explícitamente la “logicidad” ni siquiera de las
teorías rivales.
Siguiendo una línea de pensamiento similar a la kuhniana, en la década del ’70
Imre Lakatos (1975) introduce la distinción entre los programas de investigación
regresivos y progresivos, de acuerdo a como hayan sido sus predicciones y el estado en
que se encuentre su “cinturón protector”. Y tampoco en este análisis, para justificar el
retroceso de ciertos paradigmas se apela al “contexto de justificación”. Por otra parte y
según este autor, programas que en su momento fueron regresivos pueden volverse
progresivos, sin que para ello hayan aprobado el “exámen lógico tollensdiano”. Y esto
ocurre con frecuencia en el campo de las ciencias sociales: el programa marxista (hoy
en retroceso) tuvo amplia vigencia en los años ’70 y en ninguno de los dos momentos
se tuvo en cuenta su reconstrucción lógica justificacionista. Ni que hablar del programa
del “darwinismo social” que luego de ser considerado perimido (ni siquiera en
retroceso) y fracasado, resurgió como el ave Fenix de sus cenizas en los ’80 y no
precisamente porque se le reconocía su validez lógica. Tanto Kuhn como Lakatos
consideran además que ningún científico abandona una teoría (paradigma o programa)
por un hecho (o varios) que la contradigan o por alguna incoherencia lógica sino existe
otra (para reemplazarla) que la supere, y esto último, sí tiene lógica, aunque más no sea,
la del sentido común: es una lógica “pramática”.
En nuestro país, la distinción entre ambos contextos generó entre los
epistemólogos y metodólogos la polémica acerca de si formaban o no parte del proceso
científico; si la objetividad del conocimiento se veía o no afectada y en tal caso en que
contexto; si los investigadores eran o no responsables del destino final de dichos
conocimientos, etc. Esta controversia - que aún perdura en nuestros días -, se desarrolló
con particular virulencia durante los años ’60 y ’70 y tuvo entre los principales
contendientes y representando a posturas opuestas, a Klimovsky y Varsavsky. Gregorio
Klimovsky introduce un tercer contexto: el de aplicación, para referirse a los usos
posteriores que se hacían de los conocimientos. En aquellos años Klimovsky –
adhiriendo a la tradición positivista lógica--, sostenía que sólo se puede considerar
como propiamente científico el contexto de justificación, dado que en él se garantizaba
metodológicamente (y por supuesto también lógicamente) la no interferencia ideológica,
valorativa, etc. y en tal sentido, la ciencia (y por ende la investigación) resultaba ser
imparcial, avalorativa, etc. y por lo tanto los científicos (y por ende los investigadores)
no eran responsables de las consecuencias finales de los productos de su actividad
(contexto de aplicación). De esta manera, los contextos de descubrimiento y aplicación
(en los cuales Klimovsky reconocía todo tipo de contaminación) no formaban parte del
proceso científico: al de descubrimiento lo rotulaba de precientífico y al de aplicación
directamente lo excluía de toda pertenencia o relación con la ciencia. Oscar Varsavsky
en su réplica introducía un cuarto contexto que denominaba de mistificación, para
denunciar que –al establecer la distinción entre los contextos--, lo que se pretendía era
encubrir la verdadera responsabilidad de la ciencia y el sesgo ideológico de los
conocimientos (Klimovsky, Varsavsky y otros, 1973).
Dentro de los aportes más recientes y con intenciones similares (pero que por
escapar a la finalidad del presente tratamiento no se desarrollarán) se pueden citar a:
Nikcles, Thomas con su tricotomía de etapas de generación, de prosecución y de
aceptación,6 Samaja (1993) que incorpora el contexto de exposición, Echeverría (1998)
que introduce el contexto de educación. A modo de síntesis, Klimovsky y Schuster en
el libro citado identifican cuatro tendencias distintivas del tratamiento de la

6
Citado en Klimovsky y Schuster, (2000).

11
problemática con la finalidad de destacar una nueva corriente que estaría revalorizando
el contexto de descubrimiento y un retroceso de los partidarios del contexto de
justificación:
a) metodológica-algorítmica (Herbert Simon) que reconstruye inductivamente el
contexto de descubrimiento;
b) clásica (Popper) que distingue los dos contextos y reserva la racionalidad para la
justificación:
c) “amigos del descubrimiento” que identifica racionalidad también con
descubrimiento reclamando su ampliación y en consecuencia los de inferencia y
logicidad;
d) sociologista que rechaza la distinción, no privilegia la justificación ni se apoya
en el concepto de racionalidad (a la que relativiza a cada contexto).
Particularmente y más allá que se simpatice parcialmente con la última,
agregaría algunas consideraciones:
 No existe un límite preciso entre la producción y la validación de los
conocimientos ni tampoco un orden cronológico dado que la validación puede a su vez,
llevar a descubrir una nueva hipótesis; la distinción es más bien analítica y en tal caso,
los contextos interactúan y se retroalimentan (unidades entrelazadas).
 Existen investigaciones en donde los conocimientos se producen al tiempo que
se validan; en efecto, esto sucede especialmente en el campo de las investigaciones
cualitativas. Un ejemplo sería el programa de Glaser y Strauss que frente a la
alternativa entre verificación y falsación proponen la Teoría Fundamentada que al igual
que la inducción analítica supone la elaboración y fundamentación simultánea de las
categorías y proposiciones.7
 El contexto de descubrimiento también tiene lógica y metodología (inducción,
abducción, comprensión, fundamentación, hermenéutica, etc.) y en muchos casos son
las mismas que las del contexto de justificación.
 El contexto de justificación está sometido a las mismas influencias y
condicionamientos que el contexto de descubrimiento: objetividad I y II (Schuster),
hábitus, interés, capital y campo científico (Bourdieu), a priori histórico e imaginario
social (Díaz), razón histórica (escuela crítica), supuestos básicos subyacentes
(Gouldner), pertenencia paradigmática (Kuhn), ciencia contextualizada (Barnes y Boor),
paradigmas primitivo y técnico (Lores Arnaiz), educación (Echeverría), etc.
 Ambos contextos merecen y deben ser tratados por la Epistemologia, Sociología,
Psicología, Filosofía, Historia y por cualquier otra disciplina que tenga algo que decir.
 El hecho de incluir los aspectos sociales, históricos, económicos, etc. no obliga
como sostiene Gaeta,8 a los filósofos, epistemólogos y lógicos a tener que formarse y
especializarse en dichas orientaciones; simplemente los invita a compartir el espacio
que hasta el momento ocuparon y monopolizaron.
 Los aspectos lógicos sólo son una parte (importante pero parte al fin) y más
pequeña aún cuando se los reduce exclusivamente a la racionalidad hipotética
deductiva. Tal vez, en algún momento será conveniente distinguir (como creo que
parcialmente hizo Kuhn) entre validez, vigencia y utilidad.
 La investigación entendida como tiene que ser incluye todos los contextos: dos,
tres, cuatro, cinco o los que sean. La distinción (como todas) es –se reitera--, arbitraria
y a los efectos meramente pedagógicos y analíticos. El científico no puede (ni debe)
desentenderse de las consecuencias de su actividad. La investigación es una de las
tantas prácticas sociales y está sujeta --como todas ellas--, a los mismos
7
Ver por ejemplo Schwartz, H. Y Jacobs, J., 1984.
8
Rodolfo Gaeta: La justificación del contexto de descubrimiento, en Klimovsky y Schuster, (2000).

12
condicionamientos al tiempo que condiciona y modifica la objetividad social en la que
se desarrolla.
Por último y de acuerdo con la propuesta que se pretende desarrollar, quienes
defienden la autonomía y exclusividad del contexto de justificación o quienes afirman la
no pertinencia científica de las consecuencias o usos del conocimiento son partidarios
de una concepción restringida y mutilada de la investigación. Bastaría con mencionar el
Proyecto Genoma Humano y sus posibles derivaciones (Maddox, 1999) o la fisión
nuclear, la clonación, la fecundación in vitro y otros programas que Hobsbawn (1998)
trae a colación cuando analiza las controversias y paradojas de la ciencia
contemporánea. No obstante, es necesario recalcar que la discusión no es sobre las
consecuencias o si se está a favor o en contra de estos u otros proyectos científicos, sino
si a la hora de analizar o evaluar debe tenerse en cuenta la totalidad del proceso
investigativo –incluyendo sus posibles consecuencias--, o simplemente la porción que
remite a la lógica justificacionista. Para finalizar y a propósito de Hobsbawm habría que
agregar que él –como buen historiador--, entiende la Ciencia en un sentido amplio.
Pero ocurre que él participa de lo que se denomina la visión apocalíptica/pesimista de la
ciencia (o versión posmoderna o nihilista) mientras que, personalmente, habría que
inclinarse por la corriente optimista (y moderna) que en el balance reconoce a favor de
la investigación científica el peso de los logros obtenidos aunque en el haber queden
todavía muchas cosas pendientes y cuentas sumamente importantes que saldar como la
lucha por la emancipación del ser humano. Pero este es otro tema que al igual que la
demanda ética también merecen su urgente tratamiento.

3. Diseño, proyecto y proceso de investigación

En el análisis de las prácticas investigativas se suele diferenciar –aunque no


siempre con demasiada precisión--, entre lo que es el diseño, el proyecto y el proceso de
investigación. Esta distinción –que, tal vez pueda parecer una cuestión formal o trivial
(Samaja, 1993)--, en realidad no lo es. Básicamente por dos motivos:
a) Porque tienen lógicas y racionalidades diferentes.
b) Porque permite concebir la investigación desde una visión integral no mutilada
de la misma.
Como bien señala Samaja en el texto citado hay una pregunta que usualmente se
formula y que resulta pertinente al respecto: ¿Cuándo comienza la investigación? ¿Con
el proyecto? ¿Con el diseño? ¿Con el proceso? Y se podría agregar otra
complementaria y tal vez más importante: ¿Cuándo termina? Y otra, quizás más
significativa: ¿Existe un comienzo y un fin? Personalmente creo que no comienza ni
termina con ninguno de los tres componentes.
Con distintas palabras –y algunas diferencias--, todos los autores coinciden en
subrayar la importancia del diseño. Alvira Martín lo define como “... el plan global de
investigación que integra de un modo coherente y adecuadamente correcto técnicas de
recogida de datos a utilizar, análisis previstos y objetivos” (1993:85). Sierra Bravo
señala que “... hace a la esencia de la investigación social, la prueba y la aplicación del
método científico y, por otra parte, a la esencia del trabajo científico, la validez...”
(1976:203). Samaja dice que es “... la categoría metodológica más significativa, porque
contiene los resultados de la selección de los objetos de estudio, de atributos relevantes
y de los procedimientos que se aplicarán de manera congruente con la naturaleza de los
objetivos” (1993:203). En síntesis, una vez formulado el problema de investigación (en

13
términos de objetivos, hipótesis, variables, etc.) el investigador necesita elaborar una
estrategia de investigación que le garantice solucionarlo con éxito. Habría que agregar
que a veces la formulación del problema requiere a su vez de su propio diseño tal como
sucede con algunos estudios exploratorios que reciben también el nombre de
formulativos. Con otras palabras, diseñar una investigación implica un trabajo de
reflexión previo a su realización. Supone planificar su implementación; reflexionar
sobre los alcances de la misma, sobre cada uno de los pasos a seguir y sobre cada una de
las decisiones a tomar. Significa adelantarnos mentalmente e imaginarnos las diferentes
secuencias. Pardinas (1972) señala que el diseño es la comprobación de un modelo.
Distingue entre el diseño de la prueba de hipótesis (definición del universo de estudio,
de las unidades de análisis y de información, elección de las técnicas de muestreo y de
recolección de datos, etc.) y el diseño general de la investigación. A este último a su
vez, lo descompone en un conjunto de diseños específicos: el modelo teórico (desarrollo
conceptual de cada uno de los pasos de la investigación incluyendo el marco teórico de
referencia), el modelo gráfico (elaboración de un esquema de procedimientos,
flujograma, cronograma, etc.), el modelo simbólico (elección de los soportes
informáticos), el modelo estadístico matemático (elección de la muestra, margen de
error y tamaño muestral, coeficientes estadísticos, plan de cuadros y gráficos, etc.) y el
modelo económico-administrativo (elaboración del presupuesto y conformación del
equipo de investigación).
Los diferentes criterios mencionados cuando se analizaron los tipos de
investigación no sólo son útiles a los efectos clasificatorios y pedagógicos sino también
cuando se trata de evaluar si existe correspondencia entre la “autodefinición” de la
investigación y su diseño, concordancia que no siempre ocurre en el campo científico
especialmente en el de las ciencias sociales.
Precisamente, el diseño es algo común a todos los estudios independientemente
de cuál sea su tipo dado que aun en aquellos casos caracterizados como exploratorios y
cualitativos también requieren de algún tipo de planificación por más flexible que ésta
sea. Pero el hecho de que se trate de “algo en común” no debe prestarse a confundir
diseño con investigación ni tampoco a tratar ambos conceptos como “cosas” totalmente
diferentes. Sin embargo, existe una doble tendencia: por un lado, a considerarlos como
sinónimos o lo que es igual, a definir la investigación en función de su diseño o más
aun, a subordinarla como si la misma se realizara en beneficio o por el diseño en sí
mismo o por el simple placer de implementar lo diseñado o de llegar a la meta
independientemente de cuál sea su costo o sus consecuencias. De hecho, el diseño debe
ajustarse a los objetivos pero teniendo en claro que no son objetivos propios sino que
son objetivos de la investigación y que al igual que ella, debe contemplar otros
elementos y factores que muchas veces ni siquiera están presentes o explicitados en
aquéllos pero que forman parte del problema y por lo tanto deben ser contemplados por
el investigador. Por otro lado, la otra tendencia es a separar el diseño del resto del
proceso de investigación. Como si fuera una etapa previa –e incluso realizada por
personas diferentes--, que culminaría con la planificación a priori de la investigación.
Ambas inclinaciones muchas veces obedecen --como luego se verá--, a que se confunde
o prioriza el interés analítico por sobre la concepción de la investigación en forma
global.
A los efectos de ilustrar como se concretan y hasta coinciden en la práctica
ambas tendencias, recurriré a una analogía que con frecuencia se traza entre el diseño de
una investigación y el diseño de una construcción (por ejemplo de una vivienda). En
este caso, el plano de la obra elaborado por el arquitecto equivaldría al diseño elaborado
por el investigador, mientras que lo mismo ocurriría entre la construcción de la vivienda

14
y la realización de la investigación. Algunos arquitectos suelen desentenderse de la
obra una vez que la han diseñado aunque por lo general, acompañan, supervisan,
dirigen, etc. la obra en su totalidad; lo mismo ocurre con el diseñador de una
investigación --aunque también, no en todos los casos--. Sin embargo, son más
frecuentes de los que se cree, los estudios (cuantitativos, en su mayoría) que se
planifican desde un escritorio al mejor estilo del burócrata. Esta actitud, en ambos
casos, le estaría otorgando al diseño un valor intrínseco, que por cierto tiene pero que es
un valor parcial, relativo y más bien potencial, dado que son ínfimos los casos en que
una investigación pueda ser diseñada totalmente antes de su realización. 9 Pero esto no
es todo ni lo más grave. Particularmente, me ha tocado participar en la evaluación de un
programa (subvencionado e implementado por el estado nacional, a través de uno de
sus ministerios) de construcción de viviendas comunitarias para poblaciones aborígenes
con el propósito de “preservar” dichas culturas ancestrales. Las viviendas habían sido
diseñadas por arquitectos desde Buenos Aires, con criterios y estilos urbanísticos
propios de esta ciudad, que --aun a riesgo de ser injusto--, poco se preocuparon por sus
futuros moradores como así también poco se interesaron en supervisar la obra y sus
“alrededores” dado que para su aprobación final y envío correspondiente de los fondos,
se evaluaba el “producto” en función de los planos originales. Así fue como se
construyeron las viviendas, siguiendo al pié de la letra su diseño arquitectónico.
No es necesario tener mucha imaginación para saber qué fue lo que pasó. Entre
otras cosas, la comunidad había construido baños externos (afuera de las viviendas) en
lugar de utilizar los construidos (internos) porque según sus pautas culturales ese tipo de
necesidades debían realizarse afuera y no dentro de la casa. Lo cual tiene su lógica,
pero aunque no la tuviera, si se trata de preservar la cultura aborigen hay que empezar
por no cambiarle sus estilos de vida. Tal vez, el ejemplo pueda parecer algo grotesco o
ficticio; sin embargo, la realidad suele superar a la ficción (y no tan solo a la
imaginación).
Ahora bien, qué es lo que se pretende demostrar con el ejemplo? Lo apuntado
más arriba: que el diseño no es equivalente a la investigación sino que es un ingrediente
más, tal vez uno de los más importante o como señala Samaja el “alma mater” pero
sólo es una parte; con otras palabras, que el diseño --por más adecuado que sea--, no
garantiza el éxito de la investigación o la resolución del problema, que en tal caso, es
una condición necesaria pero no suficiente; que el diseño no es sólo un paso previo y
acabado sino que acompaña, se ajusta durante y termina con la propia investigación.
En cambio no despierta la misma unanimidad el concepto de proyecto de
investigación. Alvira Martín (1993) lo equipara al diseño. Para Sierra Bravo el proyecto
contiene al diseño y “... consiste en la especificación organizativa, temporal y
económica de los distintos elementos, pasos y operaciones del proceso de investigación
respecto a un caso concreto de investigación” (1991:124). Mientras que para Samaja
(cuya posición --en este punto--, comparto) “... abarca otra porción y otro plano del
proceso de investigación, ya que se refiere a aquel conjunto de componentes que
producen y regulan la información más adecuada para llevar a cabo una dirección y
control eficaz del desarrollo del proceso (...) casi invariablemente se trata de una
información escrita y presentada de acuerdo a un cierto formato establecido por un
sujeto supervisor (o sistema regulador administrativo)” (1993:205).

9
Quiero aclarar que tanto para el caso del arquitecto como del investigador me estoy refiriendo
especialmente a aquellas investigaciones (o construcciones) que efectivamente se realizan. Cuando esto
no ocurre, los diseños igualmente tienen su valor pero como se señaló se trata de un valor parcial y
relativo, como ocurre cuando se juzga cualquier promesa o acto en potencia. Con otras palabras, una cosa
es el plano de la obra y otra cosa es la obra terminada, sobre la que recaerá el veredicto final.

15
Como se puede observar, tanto el proyecto como el diseño responden a lógicas o
racionalidades diferentes. La lógica del proyecto obedece más a lo formal y burocrático,
posibilitando la evaluación y control de gestión, contemplando aspectos del diseño y del
proceso de investigación (en un sentido restringido), “balanceando” objetivos y
recursos, pero además contemplando a quien va dirigido (entre ellos, los eventuales
evaluadores), a sus posibles beneficiarios (y también “perjudicados”), las consecuencias
manifiestas (entre ellas las llamadas trasferencias al medio socio productivo) y las
latentes (o muchas veces no explicitadas) que el investigador ni los evaluadores pueden
ignorar y que remiten a los compromisos éticos involucrados. Mientras que la lógica
del diseño en principio es más “reducida” y obedece especialmente a lo técnico-
metodológico-operativo (a las que se volverán para su tratamiento más adelante, rige la
relación entre el cuerpo de conocimientos existentes (marco teórico), los procedimientos
y herramientas, contemplando los diferentes criterios de demarcación, de control y de
validez científica, tal como enseguida se analizará.
Ahora bien, si el diseño implica la organización de la investigación y el proyecto
la comunicación –generalmente, por escrito--, de lo que se piensa hacer conforme a
ciertos protocolos que necesariamente habrá que completar, constituyendo un
dispositivo burocrático imprescindible, en especial, cuando la investigación requiere de
la evaluación de una instancia superior para su aprobación y/o financiación, el proceso
de investigación nos remite a la ejecución, implementación de lo diseñado y
comunicado. Precisamente, la investigación concebida como proceso será objeto de
tratamiento en los capítulos siguientes.

3.1. Esquema sobre las decisiones involucradas en el diseño

Se ha dicho que todo diseño implica un conjunto de decisiones sobre las que el
investigador deberá reflexionar. A continuación se presenta un esquema sintético sobre
las mismas y que serán desarrolladas en los capítulos siguientes:

16
3.2. Principios y criterios operativos generales del diseño

Una de las claves de todo investigador que se precie como tal es el manejo y
conocimiento de la lógica del diseño, tanto para realizar sus propias investigaciones
como para evaluar las implementadas por otros. Esto último, resulta particularmente
importante para muchos profesionales (de cualquier índole) y personal directivo que en
el ejercicio de sus funciones están en contacto con investigaciones.
El dominio de la técnica del “diseño” contempla algunos principios (Sierra
Bravo, 1991):
a) Un conocimiento adecuado de la lógica del proceso de investigación, sus
metodologías y técnicas y de los factores que puedan afectar su validez.
b) Realismo para la adaptación, de modo creativo y original, a las cambiantes
circunstancias de cada investigación.
c) Imaginación para intuir todos los factores que pueden afectar la validez y para
encontrar soluciones eficaces a los mismos.
d) Flexibilidad o capacidad de adaptación del diseño inicial a las nuevas exigencias
que el desarrollo de la investigación ponga de manifiesto.
Como bien señala Sierra Bravo, el fin último de todo diseño es lograr la máxima
validez posible, es decir, la correspondencia más ajustada de los resultados del estudio
con la realidad. Kerlinger (1975) sostiene que hay que disponer la investigación de
modo que resulte maximizada la variación o efecto en la variable dependiente producido
por las variables independientes estudiadas, a fin de que su influencia aparezca lo más
clara posible, controlando las variables extrañas no investigadas, minimizando la
influencia de los factores aleatorios y los errores de medida e incrementando todo lo
posible la seguridad y fiabilidad de las operaciones de la investigación. En tal sentido,
ya en 1966 Campbell y Stanley (1978) habían establecido dos criterios valorativos:
El criterio de validez interna.
El criterio de validez externa.
Luego en los últimos años se agregaron dos criterios más:
El criterio de validez de constructo.
El criterio de validez estadística.
Si bien estos criterios (especialmente los dos primeros) fueron delineados
pensando en los diseños experimentales (para cualquiera de sus modalidades), a
continuación se los desarrollará de manera que puedan adaptarse a cualquier tipo de
estudio. Independientemente de lo anterior, en todos los casos --tal como se verá--,
estos criterios suponen diferentes tipos o procedimientos de control de variables:
eliminación, conversión a constantes, igualación, aleatorización, contrabalanceo,
repetición, grupos testigos, etc.

Validez interna

El primer paso para poder controlar los posibles factores o variables


perturbadoras (hipótesis alternativas, en algunos casos), es conocer y ser conscientes de
cuáles pueden ser. Dado que su número es casi ilimitado dependiendo de los objetivos
de la investigación y de las hipótesis (si las hubiera), se agruparán los casos de errores
o de invalidación interna en las siguientes categorías genéricas:10
1) Características iniciales y/o experiencia previa de las unidades de análisis.

10
Alvira Martín, F (1993) que a su vez las toma de Selltiz, C. y otros (1974).

17
2) Acontecimientos externos a la investigación que tengan lugar durante el
desarrollo de la misma.
3) El proceso de maduración de los sujetos de la investigación.
4) Los propios efectos reactivos de la utilización de diferentes técnicas de
investigación, en especial de los instrumentos de medición.
5) El investigador como fuente de invalidación interna.11
Cabe agregar, que algunas de las variables incluidas en este agrupamiento se
pueden controlar mientras que otras forman parte de los denominados factores no
controlables. Por otra parte, no todo estudio tiene que verse afectado por los mismos.
Debe señalarse también que la validez interna es un ideal al que hay que
aproximarse y que se alcanza en menor o mayor grado. Un diseño podrá tener menor o
mayor validez interna que otro, pero casi nunca podrá carecer totalmente de ella. El
grado de validez interna condiciona la interpretación analítica de los resultados de una
investigación. Su control puede efectuarse a priori al plantear el diseño de la
investigación, o a posteriori en el análisis e interpretación de los datos.
Algunos ejemplos:
 Una de las técnicas que con frecuencia se utilizan en los estudios cualitativos es la
de Focus Groups. La validez de los mismos puede resentirse seriamente si el
reclutamiento de los integrantes no es adecuado: muchas veces se conforman con
individuos que son “especialistas en el arte de ser reclutados” (invalidación interna o
error de tipo 1). Dado que no todos los integrantes participan de la misma manera (algo
natural que refleja lo que ocurre en cualquier grupo) a veces sucede que alguien “copa
la parada” entorpeciendo o anulando la dinámica grupal (error de tipo 3) o lo que es
peor aún, que el coordinador confunda la dinámica de ese sujeto con la dinámica grupal,
perdiendo de vista a las “mayorías silenciosas” (error de tipo 5). También con
frecuencia en estas sesiones se suelen testear pautas publicitarias: si con anterioridad a
la exposición el grupo fue interrogado sobre la opinión del producto promocionado,
cuando se realice el postest es probable que todos o algunos se cierren a la influencia del
“estímulo” y mantengan su parecer inicial (error de tipo 4).
 En períodos preelectorales son frecuentes los estudios de intención de voto. Sin
entrar a discutir los problemas de representatividad de la muestra (validez externa)
muchas de estas investigaciones adolecen de ciertos sesgos: el llamado “voto
vergonzoso” de aquel entrevistado que miente u oculta su verdadera intención (error de
tipo 3); el “voto publicado” dado a conocer por los medios de comunicación y que
influye en la respuesta de los entrevistados (error de tipo 2); el encuestador que
presiona o induce a los encuestados (error de tipo 5).

Validez externa

Un diseño tiene validez externa cuando los resultados obtenidos pueden ser
generalizados o inferidos estadísticamente a otras unidades de análisis/universo, a otras
situaciones/contextos o a otros momentos/tiempos distintos a aquel en que se realizó la
investigación. En tal sentido, existen diferentes estrategias:
1) Utilizar técnicas del muestreo probabilístico tanto para seleccionar unidades de
análisis como contextos o momentos.
2) Creación y selección deliberada de grupos heterogéneos de unidades de análisis,
situaciones o tiempos. Es decir que en lugar de trabajar con muestras aleatorias se

11
Tanto Alvira Martín como Selltiz mencionan cuatro categorías, la quinta la agrego --por su
significación--, tomándola de Hernández Sampieri, R. (1994:124).

18
utilizan muestras por cuotas forzando la inclusión de unidades más heterogéneas y
distintas.
3) Tomar ejemplos/casos modales/muestras “ad hoc” o determinar las
características de aquellas unidades, contextos y momentos a los que se quiere
generalizar (muestreo intencional, evaluado, racional o dirigido).12
Estas estrategias están ordenadas de mayor a menor poder de inferencia o
generalización y a la inversa en lo que respecta a las posibilidades prácticas de
utilización.

Validez de constructo

En la mayoría de las investigaciones --salvo aquellas que son exclusivamente


teóricas--, se opera siempre en dos niveles diferentes:
 un nivel teorético, abstracto, poblado de conceptos y constructos,
 un nivel de observables, de operaciones y de indicadores.
Ambos niveles están interrelacionados dado que se pretende que el nivel
operacional traduzca al plano de la realidad al nivel teórico. Pero esta correspondencia
es casi siempre imperfecta, puesto que por lo general se operacionaliza con ciertos
grados de libertad o márgenes de error. Esto es así porque a los efectos de medir una
variable --especialmente las complejas--, no existe un único indicador o gama de
indicadores sino que siempre los referentes empíricos utilizados constituyen una
muestra de un universo posible de observables; con otras palabras, todo indicador
posee una determinada probabilidad de medir con éxito a la variable en cuestión.13 De
esto se deduce que convendría interrogarse sobre la validez de la operacionalización o
sobre los efectos que pudiera tener el uso de otros indicadores en los resultados de la
investigación.
El problema de la validez de constructo es claramente una cuestión de medición
y se soluciona utilizando operacionalizaciones múltiples o lo que es igual, trabajando
simultáneamente con dos definiciones operativas (validez interna de los indicadores) o
empleando (en la medida de lo posible) varias técnicas de obtención de datos (validez
externa de los indicadores). Como señala Alvira Martín los factores que van en contra
de este tipo de validez pueden obedecer a no haber incorporado todas las dimensiones
del constructo investigado (infrarrepresentación) o por haber utilizado subvariables
irrelevantes (sobrerrepresentación).

Validez estadística

El análisis de los datos que se realiza en la mayoría de las investigaciones


cuantitativas supone el uso de recursos estadísticos con el propósito de establecer
relaciones entre variables (asociativas, correlacionales o causales). Cuando se trabaja
con muestras aleatorias se recurre al test de significación o al intervalo de confianza que
indica la probabilidad de acierto (o error) que tienen las afirmaciones o conclusiones
(por lo general, 99.5 %). Esto implica que cualquier afirmación sobre la existencia de

12
Con respecto al tema del muestreo intencional o a la utilización de muestras “ad hoc” cabe aclarar que
siempre se tratan de muestras no probabilísticas pero en ningún caso de muestreo predispuesto (en el que
los resultados obtenidos son consecuencias directas del mismo procedimiento de selección empleado).
Pero por tratarse de muestras no probabilísticas sería cuestionable la posibilidad de generalización. Para
mayores detalles ver Jorge Padua (1982); Samaja, J. (1993); Alvira Martín, F. (1993); y en este mismo
libro el capítulo referido a esta temática.
13
Ver más adelante el capítulo correspondiente.

19
una determinada relación puede ser cierta con un 99.5 % de seguridad o confianza pero
también puede ser equívoca (en mucho menor medida). Precisamente la validez
estadística se refiere a este tipo de error aleatorio (que no debe confundirse con el error
de muestreo) que informa sobre la estabilidad y fiabilidad de los resultados obtenidos.
Resumiendo, existen cuatro criterios para analizar la validez de un diseño, que
suelen sintetizarse en dos: interna (en el que se incluye como un caso especial, la
validez de constructo) y externa (incluyendo como otro caso especial, la validez
estadística). A priori, el más importante es la validez interna, dado que si no se pueden
interpretar los resultados por no tener controladas las variables extrañas y/o hipótesis
alternativas o no estar adecuadamente operacionalizadas las variables, no tiene sentido
hablar de errores aleatorios (validez estadística). Por otra parte, si el diseño tiene
validez interna aunque no se pueda generalizar (validez externa), los resultados
obtenidos serán válidos por los menos para ese contexto restringido. Sin embargo,
también hay que señalar que la validez que debe primar depende de los objetivos de la
investigación: si se pretende, por ejemplo, medir la conducta electoral resulta más
importante la generalización (validez externa); en cambio, si el propósito es analizar
las condiciones laborales de los empleados de una empresa será más importante la
validez interna.
Retomando el análisis comparativo entre diseño, proyecto y proceso de
investigación, se podría agregar que no todo lo diseñado se comunica ni puede
comunicarse en el proyecto; por varios motivos: básicamente, porque no se trata de
“avivar giles” ni de exponerse a que le “roben” la idea y porque muchas de las
decisiones se toman durante la investigación. Ni tampoco los contenidos de ambos
coinciden necesariamente con lo realizado luego en la investigación que tiene sus
propios “avatares” y su propia “dialéctica” y dinámica en la que interviene no sólo el
investigador sino también el contexto y los propios sujetos investigados. Esto último se
manifiesta especialmente en los estudios cualitativos en donde como bien señala Guber
(1991) “el investigador no es el único estratega”.
En síntesis, diseño, proyecto y proceso --con sus lógicas respectivas,
relativamente autónomas pero a su vez complementarias--, constituyen tres
componentes de la Investigación, que a su vez, tiene su propia lógica solidaria e
inclusiva de las anteriores pero que --como más arriba se señaló--, involucra otras
cuestiones y pertinencias. Parafraseando a Bourdieu serían tres subcampos (con sus
propias reglas de juego y fuerza gravitatoria) dentro del campo científico, que también
tiene sus propias reglas de juego que condiciona a las anteriores al tiempo que están
determinadas por la estructura de relaciones (de poder) del espacio social en el que
interactúan los actores.
En lo que respecta a las preguntas iniciales sobre los límites (¿Cuándo comienza
y termina una investigación?, etc.) y si necesariamente hay que definir un comienzo, el
mismo estaría en el momento en que se decide convertir un problema --valga la
redundancia--, en problema de investigación.14 Pero no se podría, de la misma manera,
hablar de un final; dado que este proceso se retroalimenta o citando nuevamente la frase
de Poincaré “... no hay problemas resueltos, hay problemas más o menos resueltos”.15

14
Veáse el capítulo correspondiente al problema de investigación.
15
En Moledo, L. (1994).

20
3.3. Formulario para la presentación de proyectos de investigación

Con el propósito de ilustrar el desarrollo sobre el proyecto de investigación, a


continuación se transcribe un modelo de protocolo para su presentación:

1. DENOMINACION DEL PROYECTO


1.1. Título
1.2. Subtítulo
2. TITULAR / DIRECTOR
3. AREA DE ESPECIALIZACION
3.1. Disciplina que involucra
3.2. Campo de aplicación
4. RESUMEN DEL PROYECTO / ABSTRACT
5. PALABRAS CLAVES
6. OBJETIVOS
6.1. General
6.2. Particulares
7. ANTECEDENTES Y FUNDAMENTACION
7.1. Historia, orígen del proyecto
7.2. Justificación, relevancia, afinidad, etc.
8. PRESENTACION DE LA PROBLEMÁTICA A INVESTIGAR
8.1. Tema
8.2. Delimitación
8.3. Formulación del problema
8.3.1. Hipótesis
8.3.2 Variables
9. ESTADO ACTUAL DEL CONOCIMIENTO / PROBLEMA
9.1. Grado de avance del conocimiento/Estado del arte
9.2. Diagnóstico de la situación
10. MARCO TEORICO
10.1. Enfoque
10.2. Modelo teórico
10.3. Fuentes de información
10.3.1. Revisión bibliográfica
10.3.2. Revisión de experiencias
11. ASPECTOS METODOLOGICOS
11.1. Tipo de estudio
11.2. Universo o población
11.3. Unidades de análisis y/o de información
11.4. Técnica/s de muestreo
11.5. Tamaño muestral
11.6. Error muestral
11.7. Técnica/s de recolección de información
12. PRESENTACION DE RESULTADOS
12.1. Análisis de los datos
12.2. Informes de avance, parcial, final y complementarios
13. REFERENCIAS BIBLIOGRAFICAS
14. RESULTADOS ESPERADOS
14.1. Nuevos conocimientos/soluciones al problema
14.2.Transferencia al medio socioproductivo
15. DURACION DEL PROYECTO
16. PLAN DE ACTIVIDADES
16.1.Etapas
16.2.Actividades
16.3.Cronograma
17. PRESUPUESTO
17.1.Total
17.2.Detallado por etapa/actividad

21
CAPÍTULO 2: EL PROCESO DE INVESTIGACIÓN

1. Características de la investigación como proceso

En el capítulo anterior, se planteó la distinción entre diseño, proyecto y proceso


de investigación prestándose mayor atención a los primeros dispositivos. El presente
apartado estará dedicado al desarrollo de la investigación como proceso.
En términos generales y abrevando de diferentes autores,16 toda investigación
científica se concibe como un proceso deliberado, racional/reflexivo, sistemático,
metódico, controlado y crítico que persigue obtener nuevos conocimientos. Con otras
palabras, a través de este proceso se procura establecer cuáles son los elementos
presentes y la función que cumplen (causantes, determinantes, intervinientes,
contribuyentes, etc.) en una situación o problema dado, con el propósito de describir,
explicar y/o predecir el comportamiento de dicha situación o con la intención de
resolver dicho problema.
Ampliando lo anterior, se desarrollarán algunas de las características
mencionadas:17
 El hecho de que sea un proceso significa, en primer lugar, que una investigación
no es algo que pueda realizarse de un día para el otro. Precisamente, el tiempo es uno
de los factores a tener en cuenta para su diseño, que se plasmará en el cronograma de
tareas del proyecto y en su posterior realización. Además, toda investigación supone un
período de maduración y un avance progresivo. En segundo lugar y en correspondencia
con lo anterior, es que en tanto proceso, toda investigación implica una serie de fases,
pasos o etapas, que según sea su tipo, estarán más o menos formalizados y serán de
cumplimiento más o menos riguroso. En tercer lugar, el tiempo no deja de ser un
recurso como tantos otros que habrá que tener en cuenta en aquellos casos donde exista
la posibilidad de elegir el tema y/o problema sobre se piensa realizar el abordaje.
 Con respecto a la racionalidad/reflexividad, ésta se refiere a tres cuestiones
diferentes aunque relacionadas entre sí. Por un lado, alude a los aspectos lógico-
racionales que deben estar presentes en toda investigación; por el otro, al papel que le
cabe al investigador, al rol activo que en tanto sujeto cognoscente debe desempeñar.
Pensemos por ejemplo, en Bachelard (1945) para quien el hecho científico se conquista,
se construye y se comprueba. O en Bourdieu (1975) quien basándose en aquél también
se refiere a la ruptura con “la ilusión del saber inmediato”. O en Guber (1991), cuando
destaca la importancia de la reflexividad --y no sólo por parte del investigador sino
también por parte de los actores estudiados, y la que surge de la relación entre ambos--,
tanto en la construcción del objeto de estudio como en el trabajo de campo y creación de
los datos. O en la “doble hermeneútica” de Giddens (1987). Y en tercer lugar, al papel
que se le asigna a la razón científica, ya no tan sólo --como lo concibe el positivismo--,
adjudicándole un mero rol instrumental por el que se encargaría exclusivamente de los
medios necesarios para acceder a determinados fines/objetivos (cuya legitimidad y
racionalidad está fuera de toda discusión) convirtiendo la cuestión en algo meramente
técnico, sino también --y en especial--, como evaluadora de la racionalidad de los
propios fines, una razón crítica, objetiva (no neutral) y sustantiva que introduzca como
corresponde la problemática de los valores. Porque --como se verá más adelante--,

16
Ver bibliografía general.
17
La característica referida al método será tratada en el apartado correspondiente.

22
frente al objetivo de lograr un nuevo conocimiento necesariamente resulta pertinente la
pregunta del para qué de ese conocimiento. Y esto último, no significa promover --
como algunas veces se ha dicho y ciertos precursores soñaron18--, el gobierno de los
científicos o el relativismo valorativo ni tampoco pecar de racionalista perdiendo de
vista la historia externa de la ciencia o lo que se denomina la razón histórica.
Como señala Miguel Beltrán19 la racionalidad de los fines no implica que la
ciencia social hubiera de suplantar la decisión política llegándose con ello a la engañosa
utopía del gobierno de los sabios. Por el contrario, de lo que se trata es del ejercicio
racional de la crítica de fines que no tiene por objeto absolutizar ninguno de ellos, sino
más bien corromper la fe en el pretendido carácter absoluto de alguno de esos fines.
Tampoco se trata de que a la ciencia social pueda darle igual un fin que otro: siempre la
justicia será mejor que la injusticia o la libertad mejor que la opresión, y la ciencia
social deberá señalar la injusticia implícita en posiciones que se pretendan justas, o los
recortes a la libertad que se presenten como conquistas de la libertad. No hay, pues,
vestigio alguno de relativismo axiológico en la negación del dogmatismo, sino sólo la
constatación de que el papel normativo de la ciencia social es más bien de crítica que de
propuesta, y que, en el caso de esta última, tratará de defender valores y no programas
políticos concretos.
Por otra parte, los objetivos de la investigación no son sólo fines científicos sino
también extracientíficos; no pertenecen en forma exclusiva a las comunidades
científicas sino a las distintas comunidades histórico-sociales de las cuales aquéllas
forman parte. De igual manera, las prácticas científicas integran las prácticas sociales
y por lo tanto se rigen --aunque con cierta autonomía, que tal vez sea mayor a la de otras
prácticas específicas--, por las relaciones de poder existentes en ellas. Con otras
palabras, los “fines valiosos” de la investigación científica son también --y por lo
general, primero--, “fines valiosos” para la comunidad en la cual los investigadores
están insertos, es decir, que hay un “a priori histórico” que incluye el imaginario social20
y que brinda las condiciones de posibilidad o imposibilidad de conocimiento; pero
además, la racionalidad científica no es la única existente sino que está contenida,
controlada y subordinada a la racionalidad del poder que no siempre coincide con la
racionalidad del saber.
 Precisamente, el control es otro de los rasgos que caracteriza al proceso de
investigación y puede ser analizado desde diferentes perspectivas. Existen controles
metodológicos, epistemológicos, filosóficos, sociales, políticos-ideológicos,
económicos y éticos. Hay controles internos al proceso de investigación (especialmente
metodológicos) que apuntan a erradicar el mayor número de errores y sesgos posibles
sin que por ello se alcance la absoluta objetividad del conocimiento aunque se tienda a
ello (a la objetividad, no a la neutralidad). Hay controles internos a la comunidad
científica (especialmente epistemológicos, filosóficos, políticos-ideológicos,
económicos y sociológicos) que desarrollan sus propios miembros (que por sus intereses
específicos, por la posición que ocupan en el campo científico y por su pertenencia a

18
Ver Saint Simon (1964).
19
Beltrán, Miguel: Cinco vías de acceso a la realidad social, en García Ferrando, M. y otros (1990).
20
Para las nociones de “a priori histórico” y de “imaginario social” ver Díaz, E. (1998 y 2000,
respectivamente).

23
determinados paradigmas) se hallan en competencia/conflicto.21 También están los
controles externos que realizan los grupos de poder y de presión (especialmente
políticos-ideológicos y económicos) que no necesariamente (y por lo general, es así)
procuran una mayor objetividad. Finalmente, están los que ejerce la propia comunidad
en general (especialmente políticos-ideológicos, y sociales) a través de la opinión
pública y de los medios de comunicación. Y atravesando por todos los agentes
mencionados y/o involucrados, desde el comienzo hasta el final del proceso (antes,
durante y después) están los controles éticos-morales como ocurre en toda actividad
humana.
 Por último, y porque quizás sintetice e incluya todo lo anterior, habría que
destacar el aspecto crítico de toda investigación y por lo tanto, el perfil crítico que debe
poseer todo científico.22 Y esto por varios motivos que a continuación se explicitarán.
En primer lugar, la decisión de investigar una determinada situación o problema
supone una elección (orientada por valores) entre una gama de posibles problemas. En
segundo lugar, encierra un juicio de valor o, lo que es lo mismo, supone un no estar de
acuerdo ya sea con el conocimiento (o desconocimiento) que se tiene sobre el problema
o con las soluciones que se proponen o ya sea, con el estado en que se encuentra dicha
situación. Y ese desacuerdo se transforma –directa o indirectamente, voluntaria o
involuntariamente--, en una denuncia. Y si esto es así, entonces probablemente –por no
decir en todos los casos--, ocurrirá que esa denuncia se trasladará a quienes hasta ese
momento o bien, son los responsables de dicha situación o bien, se están beneficiando
con la misma. En cualquier caso, quienes se sientan involucrados percibirán esa
denuncia como un ataque a sus intereses y, en tal sentido, van a reaccionar y --entre
otras cosas--, es posible que califiquen a los investigadores --en el mejor y más amplio
sentido del término--, de “subversivos”. Y es correcto, porque investigar supone
subvertir cierto estado de cosas o status quo, independientemente de cuál sea el ámbito
o contexto. A nivel macrosocial --en especial, bajo gobiernos o regímenes autoritarios,
más allá de su signo ideológico--, en donde los argentinos tenemos sobrada experiencia.
Y no sólo en el campo de las ciencias sociales sino también en el de las formales; basta
recordar cómo –durante el último régimen militar--, se prohibieron elementos de las
matemáticas modernas por considerárselos subversivos. En el nivel microsocial –en
una empresa, escuela, oficina, familia, etc.--, cuando se estudia acerca de cómo cambiar
las relaciones existentes, y en el propio plano individual, como ocurre por ejemplo,
cuando el terapeuta subvierte el orden interno de su paciente.
Por último (aunque tal vez tendría que estar en primer lugar), la perspectiva
crítica de la investigación nos remite a la idea de que no se debiera investigar por el
mero hecho de hacerlo --más allá del válido placer que se sienta--, sino que por el
contrario, habría que actuar luego en consecuencia, haciendo uso de los hallazgos
obtenidos. Y no --en el peor de los casos--, archivándolos burocráticamente o no tan
sólo --y en el mejor de los casos--, dándolos a conocer. Dado que de poco sirve estudiar
el nivel de pobreza existente en el país (incluso por los propios organismos oficiales) si
luego no se actúa para erradicarla, o evaluar la calidad del aprendizaje en alumnos

21
Ver por ejemplo a Bourdieu, P. (2000).
22
El perfil crítico de toda investigación es independiente de lo crítico que a su vez resulta ser el método
científico.

24
primarios y secundarios para llegar a la conclusión de su estado deficitario y no hacer
nada para mejorarla. Hace rato que me está dando vueltas una de las tesis que allá a lo
lejos y --valga la redundancia--, hace tiempo elaborara Marx sobre Feuerbach.23 Pero
insisto, esto no invalida o tiende a desconocer la validez e importancia que todo estudio
intrínsecamente tiene, por más que luego no se sirva de él. Por otra parte, aunque lo
anterior ocurriera, toda investigación --como se ha visto en el párrafo anterior--, también
por su propia naturaleza es crítica. Por eso es que muchas veces se la obstaculiza y en
otras tantas, hasta se convierte en una especie de boomerang que se vuelve en contra de
sus autores o patrocinadores.
No obstante lo anterior y parafraseando a Bourdieu de lo que se trata es que la
investigación --aunque resulte paradójico--, “...libere al hombre al liberarlo de la ilusión
de la libertad, o más exactamente, de la creencia mal ubicada en las libertades ilusorias.
La libertad no es algo dado, sino una conquista, y colectiva...”.24 Con palabras más
profanas, lo que se pretende señalar es que la investigación no es o no debiera ser un
proceso aislado sino que, por el contrario, forma parte de un proceso mayor que se
podría denominar “Proceso de Resolución de Problemas”, aceptando como señala
Henri Poincaré que “...no hay problemas resueltos, hay problemas más o menos
resueltos...”.25 Como acota Schuster ninguna investigación comienza si no se detecta
alguna dificultad en una situación práctica o teórica. Es esta dificultad o problema,
quien guía la búsqueda de algún orden entre los hechos en términos del cual la
dificultad pueda solucionarse (Schuster, 1992:15) Por otra parte, uno de los indicadores
para evaluar el “progreso” de la Ciencia es la medida en que va resolviendo --aunque
sea parcialmente-- los problemas o si las teorías sucesivas resuelven más problemas que
sus predecesoras. Precisamente y como se verá, la faceta crítica también está presente
en la definición de lo que es un problema de investigación.

2. La investigación y los métodos

Toda investigación es un proceso metódico aun en aquellos casos en que se


afirma lo contrario, dado que si a algún lugar se ha llegado por algún camino tuvo que
haber sido. Pero de esto no se deduce que haya un camino predeterminado ni menos
aun un único camino. En tal sentido, puede aplicarse lo dicho en su momento por el
poeta Machado cuando afirmaba que se hacía camino al andar o lo expresado por
Feyerabend cuando señala que los grandes descubrimientos científicos se llevaron a
cabo cuando los investigadores se apartaron de las prescripciones metodológicas
vigentes, sin que esto suponga tener que adherir al anarquismo metodológico o al “todo
vale” (Feyerabend, P., 1984)

23
Feuerbach, Ludwing (1804-72) filósofo materialista alemán, discípulo de Hegel, a quien Marx criticara
por su incapacidad para relacionar la teoría con la praxis revolucionaria. Precisamente, la tesis nº 11 que
Marx escribiera sobre él decía lo siguiente: “Hasta ahora los filósofos se han dedicado a contemplar el
mundo, de lo que se trata ahora es de transformarlo”.
24
Bourdieu, P. (1993:.27).
25
En Moledo, L. (1994:162).

25
Etimológicamente, la palabra método proviene del griego (metá y odos) y
significa “camino hacia” o “hacia la meta”, es decir, camino a recorrer para alcanzar un
objetivo que cuando se hace referencia a la investigación se traduce en obtener un
determinado conocimiento. La principal función del método es posibilitar (al
explicitarlo) que cualquier otro investigador pueda reiterar la experiencia y comprobar
por sí mismo la validez y legitimidad de los hallazgos. Con otras palabras, el método
hace posible que parcialidades individuales puedan convertirse en parcialidades
compartidas.
Por otra parte, es necesario distinguir entre métodos (o modos) de
pensamiento/razonamiento y métodos (o modos) de investigación (a los cuales se refiere
la frase inicial) y que incluyen a los primeros. Los métodos de investigación son las
formas de actuación, son cursos de acción (Samaja, J., 1993) para la producción y
validación de los conocimientos y por lo tanto, son algo más que uno o varios modos de
pensamiento. Y --parafraseando parcialmente a Kuhn--, los métodos de investigación
se consideran científicos (más allá de los problemas de fundamentación lógica y
gnoseológica) en la medida en que son aceptados, reconocidos y legitimados con su uso
por la comunidad científica o por los científicos pertenecientes a un determinado
paradigma si se tiene en cuenta la heterogeneidad paradigmática de dicha comunidad.
Por eso, es que no corresponde hablar de un anarquismo metodológico o científico en
general sino que a lo sumo esta postura representará los intereses de dicho paradigma.
Pero al mismo tiempo, cabe señalar que los métodos tampoco son propiedad exclusiva
de un paradigma tal como lo demuestra la convergencia paradigmática y/o
metodológica (Pérez Lalanne, 2010). Como bien apunta Bourdieu, el campo científico
goza de autonomía y fuerza de gravedad propias (mayor aun a la de otros campos) y se
rige por lo tanto por sus propias reglas de juego, por los capitales e intereses en juego y
por lo tanto, por las relaciones históricas de poder (Bourdieu, 1999) Y precisamente,
son estas relaciones de poder existentes en el campo científico las que hacen posible que
determinados métodos puedan ser considerados “científicos” o “más científicos” que
otros. Desde luego que esta autonomía es relativa --pensar lo contrario sería pecar de
ingenuidad--, dado que en última instancia todos los campos están sujetos a la lógica
general del espacio social global (que al igual que la de los campos excede los límites
societales) en el cual están insertos. Aunque resulte una verdad de perogrullo estas
reglas de juego responden a la lógica del capital. Y esto último hasta resulta paradójico,
dado que la problemática del método se instaura como una forma de terminar con el
criterio de autoridad hasta ese momento vigente y termina utilizándose para encubrir
otra forma de autoridad. Por supuesto, que esto será motivo de rechazo por quienes
gozan de “autoridad” en el campo científico. Pero al respecto, vale recordar que entre
los dominantes también hay dominados y que en general el consentimiento (a veces
inconsciente) de los dominados, su “complicidad”, es también un efecto incorporado de
la dominación o con otras palabras la raíz de la sumisión es expresión de la
somatización de las relaciones sociales de dominación (Bourdieu, 1995).
En términos generales, el análisis de cualquier método de los considerados
científicos debe contemplar básicamente los siguientes aspectos: supuestos

26
filosóficos/epistemológicos, contenidos formales y sustantivos, características y
elementos. A continuación, se realizará una breve especificación de los mismos.

2.1. Supuestos filosóficos/epistemológicos de los métodos científicos.

Dudley Shapere26 --refiriéndose a los logros de la ciencia moderna--, menciona


un conjunto de “asunciones” o presuposiciones que podrían también servir para
caracterizar a cualquier paradigma y por extensión, a todo método; Gouldner (1979) los
denominó Supuestos Básicos Subyacentes:
1) La presuposición ontológica: supuestos acerca de cómo es el mundo (ordenado,
determinista, caótico, etc.) que deben ser aceptados antes de cualquier investigación
teórica y/o empírica, o antes de que nuevas creencias fundadas puedan ser
aceptadas.
2) La presuposición metodológica: el supuesto de que existe un “método”, el método
científico, con cuya aplicación se obtiene conocimiento fundamentado sobre el
mundo.
3) La presuposición lógica: la afirmación de que hay “reglas de inferencia” --en el
ámbito de la lógica deductiva, inductiva, abductiva o analógica--, que pueden ser
aplicadas en el razonamiento científico, pero que no pueden cambiarse bajo ningún
resultado científico.
4) La presuposición terminológica o conceptual: la asunción de que existen ciertos
términos “metacientíficos” como teoría, evidencia, método, explicación, etc. que se
utilizan para designar conceptos científicos, argumentos, etc. cuyo significado es
independiente de los contenidos específicos de la ciencia en cuestión.
Y agregaría:
5) La presuposición gnoseológica acerca de cómo es el proceso de conocimiento y la
relación sujeto-objeto.
Todos los métodos parten de este conjunto de suposiciones aunque luego ellas
difieran según el método que se analice, y es precisamente una de las tareas de la
reflexión epistemológica establecer las particularidades de cada caso.

2.2. Contenidos formales y sustantivos de los métodos científicos.

Todo método prescribe un conjunto de reglas, procedimientos, y pasos lógicos


a seguir para formular y resolver un problema de investigación. Sin entrar en las
cuestiones referidas a los modos de pensamiento o razonamiento (problemas de validez
de las inferencias inductivas, conclusiones falsas partiendo de premisas verdaderas,
fundamentaciones gnoseológicas de premisas iniciales, etc.) temáticas que son materia
de análisis de la Lógica pero que --como se señaló anteriormente--, son aspectos
parciales de los modos de actuación científica y sin reconocer tampoco el argumento
que el positivismo lógico desarrolla para justificar --valga la redundancia--, la
exclusividad del contexto de justificación como único momento de reconstrucción
racional para la validación de los conocimientos, a continuación se desarrollarán los dos
26
Dudley Shapere: The character of scientific change, en Th. Nickles(comp.): Scientific Discovery, Logic
and rationality citado en Schuster y Klimosky, 2000: 25/26.

27
caminos posibles --más allá de sus distintas modalidades que posteriormente se
mencionarán--, para el desarrollo de las investigaciones teórico-empíricas. Este análisis
recoge parcialmente y por lo tanto es tributario del desarrollado en su esquema por
Wallace (1980):

TEORÍAS

Conceptos, Deducción
Proposicio lógica
nes,etc.
Inferencia
lógica

GENERA-
LIZACION DECISION HIPOTESIS
EMPIRICA

Contrasta-
ción de
hipótesis
Medición, Interpretac.
Muestreo, instrument.
parámetros muestreo

OBSERVA
CIONES

Réplica parcial del Esquema desarrollado por Walter Wallace. Los componentes de información se
hallan rectangularizados mientras que los controles metodológicos están ovalizados. La mitad izquierda
corresponde al camino inductivo mientras que la derecha al deductivo. La mitad superior sería la etapa
teórica mientras que la inferior corresponde a la faz empírica de la investigación.

a) Método inductivo: de lo particular a lo general, de lo concreto a lo abstracto, de las


observaciones a la teoría, de lo singular a lo universal. Las investigaciones parten de un
conjunto representativo o significativo (según el estudio sea cuantitativo o cualitativo)
de observaciones o casos (enunciados singulares u observacionales con carga teórica o
conceptual) y por procedimientos de medición y muestreo (probabilístico o no
probabilístico) llegan a la formulación de generalizaciones empíricas (hipótesis
sustantivas o proposiciones intermedias que afirman la existencia de regularidades
estadísticas que con intervalos de confianza y margen de error estiman parámetros
poblacionales --generalización hacia fuera--; o significativas que mediante la saturación
teórica de las categorías realizan descripciones densas --generalización hacia adentro--),

28
para luego mediante construcción y ordenamiento teórico-conceptual elaborar hipótesis
teóricas (teorías de alcance medio o sustantivas y teorías más generales o formales).
b) Método hipotético-deductivo: de lo general a lo particular, de lo abstracto a lo
concreto, de lo universal a lo singular. Las investigaciones parten de la teoría
(hipótesis teóricas) y por deducción lógica desprenden hipótesis sustantivas o
intermedias para luego por procedimientos de interpretación (conceptualización),
instrumentación (operacionalización), escalaje (niveles de medición) deducir
consecuencias observacionales (hipótesis de trabajo o empíricas) y por
procedimientos de muestreo realizar la prueba de las mismas.
En ambos caminos se efectúan procedimientos de contrastación (verificación o
falsación) en procura de evidencias que permitan la toma de decisiones para aceptar,
rechazar o reformular las hipótesis (teóricas o sustantivas) en cuestión.
Cabe señalar que en términos estrictos ninguna investigación es exclusivamente
deductiva o inductiva sino que son predominantemente deductivas o inductivas.
También puede ocurrir que simultáneamente se recorran ambos caminos, que no se
transite ninguno en su totalidad o que se comience a mitad de uno y se llegue por el
otro. Asimismo, existe la posibilidad de partir de una fantasía, delirio, alucinación o
prejuicio que no tenga ni fundamento empírico (observacional) o teórico tal como a
veces sucede cuando se trabaja en el denominado contexto de descubrimiento o en
algunas investigaciones cualitativas.
Simultáneamente a los métodos inductivo y deductivo, existen otras estrategias
con sus partidularidades específicas y muy valiosas por cierto, que o bien son
modalidades de éstos o bien son complementos que parten de diferentes Supuestos
Básicos Subyacentes y que por no ser el propósito de este apartado sólo serán
mencionadas: la inducción analítica, la teoría fundamentada, la etnometodología, el
método axiomático, la comprensión, la fenomenología, el método abstracto-concreto, el
método dialéctico, el método regresivo-progresivo, etc.

2.3. Características y elementos de los métodos científicos

Los métodos considerados científicos reúnen un conjunto de rasgos que a


continuación se explicitan:27
a) problemático-hipotético: dado que se basa en la formulación de problemas
(preguntas) y en soluciones probables a los mismos (respuestas), aunque en última
instancia “... la historia de la ciencia es la historia de las preguntas y no de las
respuestas ...” .28
b) fáctico, tiene referencia empírica, pero va más allá de los datos empíricos, puesto
que los interpreta desde un determinado marco teórico.

27
El listado de características que se mencionan pretende ser una síntesis del valioso aporte realizado por
numerosos autores: Bunge, Ander Egg, Sierra Bravo, Cohen y Nagel, Popper, Goode y Hatt, etc. Al
respecto, ver bibliografía general. A su vez, el orden de las mismas no indica jerarquía y por otra parte,
no son exclusivas de los métodos científicos.
28
Jorge Wagensber en entrevista publicada en el diario Clarín, suplemento Cultura y Nación, del
17/05/90.

29
c) trasciende los hechos, superando la mera apariencia de los fenómenos o como diría
Bourdieu, rompiendo con la “ilusión de la transparencia del mundo social”.
d) se vale de la contrastación empírica (verificación o falsación, exigiendo una
constante confrontación con la realidad, descartando los criterios de autoridad,
tradición, revelación, etc. Tampoco cabe en el método científico lo que Merlau-
Ponty denominó el “dogmatismo del sentido común”.
e) teórico, supone siempre una teoría (o esbozo de ella) a partir de la cual formulará los
problemas y observará la realidad para retornar luego a ella.
f) crítico, autocorrectivo y progresivo: rechaza y/o ajusta permanentemente sus
afirmaciones, se halla sujeto a críticas y exámenes. Sus conclusiones nunca son
finales sino provisorias, se halla abierto a nuevos aportes y a la utilización de nuevos
procedimientos y técnicas.
g) sus proposiciones son generales, ignorando los hechos aislados o únicos; sin
embargo, la universalidad no debe perder de vista la singularidad y además --como
señala Guber (1991)--, debe contemplar la diversidad.
h) aspira a lograr la mayor “objetividad posible”, procurando alcanzar “la verdad
fáctica o científica” sin desconocer los condicionamientos sociales de la práctica
científica.
i) analítico-sintético: desconstruye la realidad estudiada en sus elementos y luego la
reconstruye obteniendo una nueva visión global del conjunto y de las relaciones
estructurales entre los mismos.
j) circular: los enunciados teóricos se prueban mediante datos empíricos y éstos se
analizan o interpretan sobre la base de los primeros.
k) selectivo en un doble sentido: concentra su observación entre los elementos más
relevantes y luego, en el análisis de los datos recogidos procura detectar los más
significativos.
l) fomenta la intuición, la imaginación, la audacia y la creatividad aun en el caso de
que no se atenga estrictamente a las reglas, e incluso a las teorías admitidas
Feyerabend, P., 1984).

Por otra parte, los métodos científicos se valen de un conjunto de elementos que
serán desarrollados más adelante:

30
TEORIA

HIPOTESIS

VARIABLES

CATEGORIAS

CONCEPTOS DEFINICIONES
DIMENSIONES

INDICADORES

INDICES

OBSERVACIONES

De acuerdo al desarrollo anterior se podría decir que las ciencias sociales (y


también las naturales) son plurimetodológicas e intermetodológicas. No obstante, es
posible señalar que si bien existen distintas estrategias metodológicas (incluyendo los
diferentes tipos de convergencia29) por lo general hay una que resulta ser la más
adecuada para cada investigación concreta. Esto significa que en la relación método –
investigación, en última instancia es el método el que se subordina (o debe
subordinarse) al tipo de investigación que se trate y no la investigación al método.

3. La investigación y las técnicas

Si el método es el camino para alcanzar un determinado conocimiento las


técnicas constituyen el “arte de recorrer” ese camino. Las técnicas son el conjunto de
herramientas, instrumentos y operaciones que se utilizan para transitar cada uno de los
pasos que el método indique. Las técnicas son teoría en acción y por lo tanto, parten de
los mismos supuestos metodológicos, teóricos, epistemológicos y filosóficos que las
teorías que les dieron vida. Además, se debe tener en cuenta que así como Paulo Freire
señaló que las técnicas pedagógicas tienen consecuencias ideológicas lo mismo ocurre
con las técnicas de investigación.
Existen técnicas de construcción de índices, de muestreo, de recolección de
datos, de análisis de datos, etc. A su vez, en cada una de ellas encontramos diferentes
29
Véase Pérez Lalanne, R., 2010.

31
tipos y modalidades con sus respectivas ventajas, limitaciones y desventajas. Si bien las
técnicas tienen pertenencia paradigmática al igual que lo dicho para los métodos, no son
propiedad exclusiva de los paradigmas ni tampoco de los métodos y por lo tanto, en una
determinada investigación pueden combinarse o triangularse técnicas de distintos
paradigmas y/o métodos (Pérez Lalanne, 2010). Pero al mismo tiempo se debe señalar
que existen técnicas (o convergencias) más adecuadas que otras dependiendo del tipo de
estudio en cuestión al que se hallan subordinadas.

4. Los pasos de la investigación

Toda investigación es un proceso a partir del cual se pone en marcha los


lineamientos del método científico. En tanto proceso y al igual que cualquier otro, toda
investigación supone un conjunto de pasos, etapas, fases, etc. Estos pasos se agrupan en
un esquema metodológico que es, a su vez, lo que sirve de base para el diseño de la
investigación. No existe un único esquema con una cantidad establecida de etapas sino
que, por el contrario, cada autor que desarrolla este tema elabora su propio esquema. 30
Esto significa que se trata de algo convencional y arbitrario; lo importante, en última
instancia, no es cuántos son los pasos sino el contenido de los mismos. Por otra parte –e
independientemente de cuántos sean–, hay que señalar que estos pasos tampoco siguen
un orden cronológico estricto –dado que algunos pueden llevarse a cabo en forma
simultánea–-, pero sí existe un orden lógico porque por ejemplo, no se pueden analizar
datos que aún no han sido obtenidos, aunque sí se los puede analizar e interpretar en
forma simultánea al trabajo de campo.
No obstante lo anterior, teniendo en cuenta el proceso de una investigación
teórico-empírica y considerando la alternativa en la que el investigador puede elegir el
tema o la problemática para su realización, se desarrollará un esquema de 8 (ocho)
pasos que permitan visualizar didáctica y pedagógicamente cada una de las secuencias
que en los próximos capítulos serán abordadas:

30
Ver bibliografía general.

32
Primer paso: Segundo paso: Tercer paso:
SELECCIÓN DEL DELIMITACION FORMULACION
TEMA O DEL TEMA O DEL PROBLEMA
PROBLEMA PROBLEMA

Cuarto paso: Quito paso: Sexto paso:


REDUCCION DEL DETERMINACION RECOLECCION
PROBLEMA A DE LAS UNIDADES DE
NIVEL EMPIRICO DE ANALISIS INFORMACIÓN

Séptimo paso: Octavo paso:


ANALISIS DE L0S INFORME FINAL
DATOS

5. Hacia la Formulación del problema

5.1. La selección del tema

Seleccionar un tema de investigación significa haber identificado un problema o


bien un área o una situación que pueda ser problematizada de manera que amerite su
investigación. Se podría decir que este es un paso obvio dado que no se puede empezar
a investigar sin saber sobre qué se lo va a hacer; al punto tal, que muchos autores no lo
explicitan como el inicio de la investigación. Sin embargo, las cosas no suelen ser tan
sencillas cuando se trata de definir el tema y a veces requiere de todo un estudio previo
o por lo menos, de una primera evaluación.
Por otra parte, la selección de un tema de investigación no es algo que quede
librado al arbitrio o voluntad del investigador y menos aun cuando se trata de una
elección compartida. Dicho de otro modo, la elección de un tema suele estar
condicionada por un conjunto de factores (Selltiz, 1965): algunos son inherentes al
investigador y otros le son ajenos.
Un primer factor es el intelectual; Lorez Arnaiz (1986) lo llamó paradigma
técnico para referirse a la capacitación, profesionalización o especialización del
investigador que de por sí hace que el investigador pueda inclinarse hacia determinadas
problemáticas afines al ejercicio de su rol actual o futuro. Dentro de ello habrá que
considerar el enfoque y su marco teórico de referencia.
Un segundo factor es el ideológico; entendiéndolo en un sentido amplio, que
incluya no sólo lo estrictamente político sino también lo filosófico, lo artístico, lo

33
religioso y hasta lo sentimental/afectivo tal como lo hace notar Gouldner (1979) cuando
se refiere a los supuestos básicos subyacentes.
Incluyendo tal vez a los anteriores, un tercer factor es el socio-histórico que nos
remite a la posición del investigador en el espacio social en general y en el campo
científico o subcampo disciplinario, en particular. Al respecto, Bourdieu señala la
existencia de un doble condicionamiento social en cualquier toma de decisión como la
que es motivo de análisis. Por un lado, está el condicionamiento de la posición que
ocupa el investigador en la estructura de las relaciones sociales históricas objetivas y
por el otro, estaría el habitus o la disposición como mecanismo estructurante de la
acción. Parafraseándolo: la toma de posición (elección del tema) es tomada desde algún
punto (posición) que a su vez ha sido internalizado de una determinada manera
(disposición).31
Un cuarto factor es el prestigio; como ocurre en cualquier campo en el científico
existen temas o problemas que son mejor valorados que otros o que le pueden otorgar al
investigador un mayor reconocimiento o relevancia. En algunos casos, el prestigio no
pasa tanto por el tema como por la Institución en la que se investiga, el equipo de
investigación del cual se forme parte o por quien se es dirigido. Hay que tener en cuenta
que en el momento de presentarse a un concurso, beca, trabajo o similar, el investigador
tiene que presentar su currículum vitae en el cual deberá detallar --entre otras cosas--
los trabajos realizados, que serán evaluados de acuerdo a las características
mencionadas.
Un quinto factor es el económico para el cual hay que distinguir dos enfoques:
el costo o la financiación y el rédito o los beneficios. Para analizar el primero tal vez
resulte obvio decir, que son escasas las investigaciones autofinanciadas motivo por el
cual, la ayuda económica es por lo general, externa al investigador. En estos casos, la
financiación o bien proviene del estado (nacional, provincial o municipal) a través de
algunas de sus instituciones, de algún organismo público internacional o de algún
organismo privado (nacional o multinacional). En países como el nuestro --como ya es
sabido--, es escaso (por no decir nulo) el presupuesto destinado a la investigación (y
menos aun cuando se trata del ámbito de las ciencias sociales); motivo por el cual, en la
mayoría de los casos la “ayuda económica” se origina en los otros organismos. En
definitiva, en cualquiera de los casos, el que solventa los gastos suele limitar (cuando no
imponer) los temas para los cuales ofrece financiación, con el agregado de que a veces
los temas no responden a las necesidades de los países en los cuales están radicados los
investigadores sino a problemáticas de los países en donde tienen su sede estos
organismos o con el agravante de que se utilizan a los países donde están localizados los
investigadores como laboratorios o banco de prueba para testear nuevas tecnologías o
políticas de diversas índole y de dudosos resultados como muchas veces ocurre, por
ejemplo en el ámbito de la salud.
Para el análisis de los beneficios a su vez hay que distinguir dos perspectivas: la
del investigador y la de quien la financia. Desde la primera, y si pensamos que el
investigador es un ser de carne y hueso como cualquier otro, con las mismas

31
Bourdieu, Pierre: ver bibliografía general.

34
necesidades, etc. es posible entonces, que al momento de elegir un tema de
investigación lo haga pensando con el bolsillo y se incline por temas que
económicamente sean más redituables aunque intelectualmente o académicamente sean
más pobres o incluso alienantes. Si consideramos la perspectiva de quien financia la
investigación se pueden mencionar diferentes alternativas: a) en algunos casos no
interesa la investigación (ni sus resultados) sino que se la utiliza como uno de los tantos
mecanismos de evasión impositiva. Esto último serviría --en parte-- para explicar por
qué los grandes bancos y empresas tienen fundaciones, institutos, etc. a través de los
cuales canalizan fondos para destinos (uno de ellos, la investigación) que no están
gravados impositivamente o que están exceptuados del pago de impuestos; b) en otros
casos tampoco interesa la investigación (o sus resultados) sino que se la utiliza como
otra forma de realizar publicidad institucional, de manera de mantener o de mejorar la
imagen de la empresa en la comunidad. En este caso, lo importante es que aparezca el
logo o el nombre de la organización auspiciando el evento en cuestión; c) en ciertos
casos, sí interesa la investigación (y sus resultados) y entonces se obliga a los
investigadores a ceder sus derechos intelectuales sobre los conocimientos o hallazgos a
obtener quedando patentados a nombre de quien financia la investigación, con el
agregado de que el patentamiento se realiza en los países centrales y con el agravante de
que a veces se archivan los resultados hasta tanto no se amorticen las tecnologías en
uso, o se dan a conocer en esos países llegando a los nuestros la tecnología descartada
por obsoleta o debiendo pagar en forma alienante por algo que fue hecho en el país.
Un sexto factor lo constituyen los grupos de poder y/o de presión que pueden
favorecer u obstaculizar que se investiguen determinados temas: es abundante la
bibliografía sociológica referida al tema. Al comienzo de este capítulo se hizo referencia
al papel “subversivo” de la investigación y cómo ésta puede afectar determinados
intereses.
Un séptimo factor sería el contexto, la propia situación en la que están insertos
los investigadores que bien puede en algunos casos imponer el tema como ocurre a
menudo en el campo de la salud, en donde en forma imprevista un virus hasta ese
momento desconocido, obliga a los científicos del área a tener que abocarse a su estudio
tal como sucedió con la aparición del Sida.
Por último pero no menos importante y pensando ahora en términos operativos –
especialmente, para el caso de estudiantes, tesistas o investigadores noveles, no había
que dejar de considerar la accesibilidad tanto del tema en sí mismo como,
eventualmente, el escenario en el cual se piensa trabajar o en el cual se piensa obtener
cierta información. No hay dudas que existen temáticas que resultan ser mucho más
accesibles que otras. Particularmente, cuando no se cuentan con muchos recursos
(económicos, temporales, etc.). Al mismo tiempo hay problemáticas sobre las cuales se
sospecha que se va a disponer de abundante información y luego resulta que la misma
es escasa o inexistente o, lo que es peor aún, se nos impide el acceso a ella. Con
respecto a los escenarios no debe perderse de vista que de acuerdo al acceso y
permanencia del investigador, los mismos podrán ser públicos, semipúblicos o privados.
Estos últimos suelen demandar la realización de trámites burocráticos, muchas veces de
resultados inciertos o –directamente— desfavorables.

35
Para terminar y a modo de síntesis tal vez sea conveniente volver a Bourdieu y
recordar que no existen acciones desinteresadas. En el análisis que se está realizando
cabe la posibilidad de incluir los cuatro capitales que él identifica: económico, cultural,
social y simbólico por los cuales estarían interesados cualquiera de los actores
involucrados, especialmente los investigadores. De esta manera toda investigación
constituye una práctica interesada especialmente aquéllas que se autodefinen como
“desinteresadas”. Un caso paradigmático --al que ya se ha hecho referencia--, para
ilustrar la incidencia de los diferentes factores analizados y para mostrar la trama de
intereses (por distintos capitales) en juego es el Proyecto Genoma Humano (Maddox,
1999).

5.2. La delimitación del tema

En la mayoría de los casos no basta con haber elegido el tema o con tener
identificado un área-problema: dado que hasta aquí lo que se tiene es la “ideota” o sea la
“idea grandota” acerca de lo que se pretende investigar. Es necesario establecer los
alcances circunscribiendo el campo de análisis y especificando el objeto de estudio: en
términos teóricos, metodológicos y empíricos. Al respecto, me permito sugerir algunas
estrategias para la delimitación que a su vez posibilitarán la formulación del problema:

a) Torbellino de ideas: en primer lugar y con el posible tema en mente habría que
comenzar formulando algunos interrogantes: el primero y fundamental es ¿qué se
pretende conocer o averiguar sobre el mismo? Es decir, ¿adónde se quiere llegar con la
investigación? Posteriormente, habría que preguntarse por ¿quiénes van a estar
involucrados en el estudio?; ¿en dónde se lo piensa realizar, cuáles los momentos que se
van a tomar y cómo se piensa realizar el abordaje? Simultáneamente, ¿Qué es lo que ya
se sabe sobre el problema en cuestión? En segundo lugar, habría que comenzar a
descomponer el tema en sus diferentes aspectos y elementos presentes, procurando
asignarles posibles funciones y estableciendo relaciones entre los mismos. Una vez que
se tienen todas las cartas sobre la mesa y habiendo tomado los recaudos pertinentes de
que no haya quedado algo sin contemplar, se estaría en condiciones de seleccionar
cuáles aspectos y elementos se van a considerar y cuáles se van a descartar. De esta
forma y barajando tentativas respuestas a los interrogantes formulados, se podría
avanzar con las otras estrategias de delimitación y con la formulación del problema. El
propósito es descomponer el tema elegido en sus diferentes aspectos, analizar sus
posibles relaciones, formular interrogantes y sugerir respuestas, evaluar alternativas de
abordaje, etc. para luego seleccionar algunos de ellos y descartar otros. Con otras
palabras, una vez identificado el problema y a los efectos de aclararlo y precisarlo, el
investigador realiza la tarea denominada por Van Dalem y Meyer (1971) “el análisis del
problema”: enumerando los factores o variables que parecen tener relación con el
problema, es decir, problematizando el problema o conviertiendo el problema en un
problema de investigación. De esta manera se estará en condiciones de formular el
problema de investigación con el interrogante inicial, la definición de los objetivos y las
hipótesis.

36
b) Contextualizar la investigación: en términos generales, se trata de acotar el estudio.
Acotarlo temporal, espacial y sociodemográficamente introduciendo variables
contextuales (constantes y/o comparativas)32. Esta tarea supondrá la toma de un
conjunto de decisiones que irán perfilando la caracterización del estudio. En tal sentido,
contextualizar temporalmente una investigación implica decidir si se piensa hacer un
abordaje sincrónico o diacrónico (retrospectivo o prospectivo), comparativo o no
comparativo. Por su parte, la contextualización espacial lleva a decidir el área de
cobertura de la investigación lo cual significará optar –primero— entre realizar un
estudio macro o microsocial y, a renglón seguido, elegir el o los escenarios involucrados
(grupo, institución, área geográfica, etc.). Por último, la delimitación sociodemográfica
supone identificar y caracterizar la población objeto del estudio en función de las
variables consideradas pertinentes (sexo, edad, nivel socioecómico, lugar de residencia,
estado civil, etc.). Cabe señalar que al mismo tiempo y para los tres recortes anteriores,
también estará pendiente la decisión acerca de si se piensa realizar un abordaje
comparativo o no comparativo, en cualquiera de sus variantes. En definitiva, estos
acotamientos constituyen una condición necesaria para encarar cualquier investigación:
“no se puede estudiar el mundo a lo largo de toda su historia” (Sautú y otros, 2005: 36).
Dicho con otras palabras, se trata de determinar tiempo, espacio y población donde se
buscará la evidencia empírica contextualizando las conclusiones que se logren con
dichas evidencias.
Veamos a modo de ejercitación, un ejemplo:
Supóngase que se ha elegido como tema “la discriminación”. Esta problemática
así planteada es prácticamente inabordable. Es ahí cuando se apela a las dos estrategias
anteriormente desarrolladas:
1. ¿Interesa estudiar las características, las causas, los motivos o las consecuencias de
la discriminación?
2. ¿Importa analizar las reacciones de los discriminados y/o de los que no lo son?
3. ¿Es cierto que la discriminación está relacionada con el color de la piel, con el nivel
socioeconómico, el género, la edad, la vestimenta, etc.?
4. ¿Interesa realizar un estudio histórico sobre su evolución o focalizar en lo que
ocurre con la discriminación en la actualidad?
5. ¿El mismo se realizará a lo largo y ancho del país, en CABA/GBA o en algún
escenario más acotado?
6. ¿Cuál va a ser la población objeto de estudio: niños, adolescentes, adultos, ancianos,
hombres y/o mujeres?
7. ¿En cuál ámbito se lo piensa abordar: educativo, familiar, recreativo, religioso,
político, sexual, etc.?
Supóngase –abriendo un paréntesis— que hasta aquí se haya decidido lo
siguiente: “Estudiar las características que tiene la discriminación que padecen los
adolescentes en la actualidad en los boliches bailables radicados en CABA/GBA.” Y se
podría continuar:
8. ¿Importa analizar las reacciones de los discriminados y/o de los que no lo son?

32
Ver el capítulo: Sobre variables, indicadores e índices.

37
9. ¿Interesa saber si la discriminación varía según el tipo de boliche?
10. ¿Importa analizar la opinión de los concurrentes sobre la discriminación?
11. ¿O saber si concurren a sabiendas de que hay discriminación?
12. ¿O además averiguar por los motivos, las causas o consecuencias de la
discriminación?
13. Etc., etc., etc.

c) Ayudas metodológicas: a los efectos de delimitar el tema existen un conjunto de


herramientas especialmente útiles cuando no hay un adecuado conocimiento sobre el
mismo o cuando no se tiene una real conciencia de los recursos necesarios:

1. La revisión bibliográfica: consiste en llevar a cabo una consulta de la literatura


existente sobre el tema en cuestión: libros, artículos periodísticos, conferencias y, en
general, cualquier otro material que esté circulando en internet. Aunque claro está,
tomando los debidos recaudos, especialmente, en función de las fuentes de procedencia,
la seriedad en el tratamiento, etc. Esta consulta permitirá:
a) informarse sobre lo que ya se sabe o se ha investigado sobre el tema en cuestión –lo
que habitualmente se denomina el estado del arte— y si se está de acuerdo con lo ya
realizado evitar superposiciones o esfuerzos inútiles; en caso contrario, igualmente
tomarlo como referencia;
b) conocer los vacíos o lo que no se sabe de lo que se sabe; ingrediente importante si se
piensa darle algún tinte de originalidad a nuestro trabajo;
c) tomar contacto con los diferentes enfoques disciplinares existentes: antropológico,
psicológico, sociológico, filosófico, religiosos, legal, etc.;
d) conocer las distintas posturas epistemológicas, perspectivas teóricas existentes dentro
de cada enfoque;
e) comenzar a elaborar el marco teórico de la investigación y la conceptualización de las
variables que se van a incluir.
Con otras palabras, esta tarea permite al investigador volver a la literatura para
buscar qué se ha dicho hasta el momento sobre el tema. Cualquier resultado aportado
por otros autores es de gran interés por varios motivos: primero le posibilita al
investigador ver cómo otros han abordado su posible problema –si es que lo han hecho–
e identificar analogías que puedan guiar su propia indagación,; segundo, le ofrece un
acercamiento a las conclusiones obtenidas por ellos y una perspectiva más clara acerca
de la relevancia y pertinencia de lo que pretende estudiar; tercero, le abre la posibilidad
de una evaluación crítica del material encontrado.
La delimitación conceptual ha de llevarse a cabo a través de una correcta
ubicación del problema en un determinado contexto histórico-social, relacionándolo con
otros fenómenos y con los conocimientos preexistentes.
En síntesis, la revisión bibliográfica permitirá la delimitación más precisa del
problema, el conocimiento de los enfoques y teorías en los que será posible encuadrar el
estudio evitando reproducir abordajes ya realizados.

38
2. La revisión de experiencias: también consiste en realizar una consulta pero en este
caso a especialistas, idóneos, profesionales, expertos y a todo aquel que posea algún
conocimiento sobre el tema en cuestión y que por algún motivo no ha escrito o
publicado pero que nos puede brindar una información en algunos casos más útil que el
que se puede encontrar en un libro. Esta consulta nos permitirá:
a) conocer bibliografía sobre el tema elegido u otras fuentes de datos;
b) orientar la investigación: enfoques, estrategias y herramientas a utilizar, instrumentos
de medición, conceptualizaciones, etc.;
c) ciertas veces ocurre que sobre el tema en cuestión no existe suficiente bibliografía o
está desactualizada o responde a la realidad de otros países o la misma resulta poco
accesible; en esos casos las entrevistas a especialistas colaboran en la elaboración del
marco teórico de la investigación cubriendo la ausencia de literatura;

3. La experiencia de campo: se trata de tomar contacto con el lugar donde se piensa


llevar a cabo la investigación o donde se piensa obtener cierta información. En algunos
casos este contacto no tiene que ser necesariamente físico o real, basta con imaginarse
cómo sería la situación y cuáles podrían ser los posibles inconvenientes. Este contacto
nos permitirá:
a) asegurarnos el acceso al lugar o la existencia y disponibilidad de la información
necesaria;
b) conocer e iniciar los trámites burocráticos pertinentes;
c) evaluar los recursos necesarios (temporales, económicos, técnicos, intelectuales,
humanos, etc.) y cotejarlos con los recursos disponibles y en función de dicho balance
acotar los alcances de la investigación.

4. Análisis de casos típicos y atípicos o de estimulación interior (Selltiz, 1975): se


consideran casos típicos aquellos que son representativos de la problemática estudiada o
en los cuales se cumplirían nuestras hipótesis de trabajo mientras que con los atípicos
ocurriría lo contrario: sería casos refutatorios o falsadores. Básicamente, el propósito es
estudiarlos en profundidad con la intención de obtener una mayor información. Si se
retomara el ejemplo anterior y suponiendo que una de las posibles relaciones fuera el
color de la piel y la discriminación, un caso típico sería el morocho discriminado
mientras que uno atípico lo sería el morocho no discriminado. Podría resultar
interesante conocer ¿qué ocurre con ese morocho que no lo discriminan?.

Resumiendo, se acaban de presentar distintas estrategias para la delimitación del


tema y posterior formulación del problema. Las mismas constituyen alternativas
posibles y su empleo dependerá de cada investigación en particular y de sus
condiciones iniciales.

5.3. Sobre cómo surgen y se justifican las “ideas” de la investigación

Existe otra forma de analizar los comienzos de un estudio y consiste en


reflexionar acerca de cómo se originan las ideas iniciales de una investigación, tema al
cual se refieren distintos informes cuando desarrollan, precisamente, lo que se denomina
la “trastienda” o la “cocina” de la investigación. Si bien, el lector notará que este

39
tratamiento se superpone en alguna medida, con lo expuesto en los apartados anteriores,
considero que el mismo es necesario, especialmente, para destacar el papel que cumple
la teoría.
En un sentido amplio, las “ideas” (dudas, problemas, preguntas, hipótesis,
cuestiones, etcétera) de la investigación reconocen diferentes fuentes de inspiración:
a) el capital cultural/académico/teórico del investigador;
b) su marco ideológico/valorativo;
c) su interés económico/simbólico/cultural/social (Bourdieu);
d) la revisión bibliográfica/de la literatura existente (Selltiz);
e) su experiencia/trayectoria/años de trabajo/olfato/intuición/sentido común;
f) el/los paradigmas existentes/la comunidad/el campo científico (Kuhn/Bourdieu);
g) las observaciones, hechos, circunstancias, contexto, realidad, medios de
comunicación;
h) contradicciones entre los hechos y las teorías existentes;
i) ausencia de explicación/vacíos teóricos/problemas sin respuestas;
j) el análisis de casos típicos y/o atípicos/ casos de estimulación interior (Selltiz);
k) hechos anómalos/datos imprevistos: serendipity denominado por Merton, abducción
por Pierce); 33
l) analogías con otras disciplinas/ciencias;
m) investigaciones/estudios realizados por el mismo o por otros analistas;
n) controversias/intercambios/entrevistas con colegas/especialistas/revisión de
experiencias (Selltiz);
ñ) prejuicios, estereotipos, fantasías (Wallace), conceptos sensibilizadores (Glaser y
Strauss);
o) demanda del cliente/institución/comunidad;
p) marco institucional/académico/laboral del investigador;
q) contexto sociohistórico/relaciones de poder existentes/historia externa/razón
histórica;
r) etcétera.
Como se podrá observar el listado no pretende ser exhaustivo ni las alternativas
excluyentes entre sí. De todos ellas, tal vez merezca un párrafo aparte el marco
institucional, no tan sólo por la cobertura y respaldo que brinda sino por la formación
que posibilita, en especial para los jóvenes o principiantes. Por supuesto, que se está
haciendo referencia especialmente, a la Universidad y sus institutos afines, que son los
ámbitos naturales y por excelencia de la investigación y que por otra parte, es de donde
surgen los científicos. Pero también, cabe mencionar, el papel que tienen que cumplir
los profesores investigadores (particularmente los de mayor experiencia) como
directores de programas de investigación, conductores de equipos y maestros-tutores de
dicha formación.
Sin embargo y en un sentido restringido, es la teoría, en última instancia, el
origen de cualquier proceso de investigación (o contexto de descubrimiento) porque los
problemas de investigación son problemas de conocimiento o de ausencia del mismo (lo

33
Merton, Robert: Teoría y estructura sociales, FCE, México, 1980.

40
que se sabe de lo que no se sabe).34 Es la teoría (a través de sus diferentes
manifestaciones: conceptos, hipótesis, proposiciones, leyes, etcétera) la que avala la
decisión de investigar, la que nutre y orienta la experiencia del investigador, la que
provoca el consenso (o disenso) de la comunidad científica, la que constituye el núcleo
fuerte (o central) de cualquier paradigma o programa de investigación, la que permite
interpretar las observaciones (o los datos), a la que refieren los hechos anómalos o a la
que contradicen los datos, la que se toma prestada de otras disciplinas, la que se reclama
por su ausencia, a la que apela el cliente cuando consulta al especialista, la que se
enseña en la universidad, etcétera.
De la misma manera, es la teoría la que justifica las ideas de la investigación al
establecer su relevancia o fertilidad, al orientar la búsqueda y el diseño de la prueba
(contexto de justificación). En efecto, la teoría permite definir los objetivos de la
investigación, es la que brinda la caja de herramientas conceptuales, la que respalda las
hipótesis de trabajo, la que define las estrategias técnico-metodológicas (que por otra
parte, son teoría en acción), la que establece las evidencias necesarias y el marco de su
interpretación. En tal sentido, cabe recordar, que los datos no hablan por sí mismos sino
que lo hacen a la luz de una determinada teoría, que la realidad se problematiza e
interroga desde la teoría. Como señala Bachelard (1984), el hecho científico “se
conquista, construye y comprueba” (superando los obstáculos epistemológicos) o con
palabras de Bourdieu (1975) “hay que romper con la ilusión de la transparencia o del
saber inmediato” (estableciendo la prioridad epistemológica de la teoría). Con palabras
de Sautu: “...el sostén de una investigación, el andamiaje sobre el cual se construye, son
las teorías, modelos de análisis y conceptos que estructuran un área de conocimiento
aportándole ideas, planteándole dudas, sugiriendo hipótesis y preguntas que
eventualmente constituirán el objetivo de investigación...” (Wainerman y Sautú, 1998:
182) .
Con el propósito de ilustrar lo anterior (pero en especial, el papel de la teoría) se
hará referencia a un caso clásico y “paradigmático” de la Sociología: la “idea de
suicidio” de Durkheim (1992). Y lo por las razones que brevemente a continuación se
desarrollan: 35
1. En sociología, la idea de suicidio (muerte voluntaria) no tiene (o no tenía) un sentido
inmediato, no se planteaba en principio como un objeto sociológico legítimo –desde la
inmediatez y arbitrariedad del sentido común en adelante--, y sí en cambio lo es --y
especialmente, lo era--, para el psicólogo, psiquiatra, médico, etcétera.
2. No son las estadísticas (abundantemente difundidas en la Francia de principios de
siglo XIX) como a menudo se ha sostenido ni la generalización de los procedimientos
estadísticos, lo que hay que invocar para explicar las condiciones de posibilidad de la
sociología del suicidio de Durkheim. Ni siquiera su afán moralizador (por cierto
importante). Porque para él, el suicidio no constituye nunca otra cosa que el síntoma de
un cierto grado de patología de la estructura social. Ni tampoco responde a la
satisfacción de un requisito especulativo o de pura deducción lógica dado que en su

34
Véase el capítulo siguiente.
35
Para un análisis más pormenorizado, veáse Gonthier, F. (1998), en quien me he basado para desarrollar
la ilustración.

41
filosofía social (y moral) no había lugar para la idea del suicidio. En tal caso, la idea de
suicidio sólo encuentra lugar como anomalía que es necesario rectificar o lo que su
teoría positivista de la sociedad pretende hacerse cargo de eliminar.
3. La idea de suicidio se cuestiona sólo en tanto que se presenta como un sinsentido que
es necesario superar porque compromete las condiciones mismas del discurso
sociológico (que es un discurso de y sobre el sentido). Es un caso límite para la
objetivación sociológica que lo convierte en problema antes de darle sentido. Es una
”zona de sombra” que se impone primero como un enigma a priori , una duda que
amenaza con la ausencia de respuesta por parte de la teoría social. La idea del suicidio
constituye desde un punto de vista epistemológico el dilema (¿aporía, paradoja,
antinomia?) por excelencia de la sociología que la induce al “error”: lo individual vs.
lo social, lo subjetivo vs. lo objetivo, la acción vs. la estructura. La idea de suicidio es
de las que obliga al investigador a asumir el riesgo por la fertilidad que la misma
supone, a extremar la imaginación sociológica, la audacia teórica para demostrar la
presencia (determinación) de lo social en un hecho tan “individual” como el suicidio, a
hacerse cargo de los riesgos en las “condiciones más desfavorables” (Wainerman y
Sautú, 1998).
4. Y es la teoría sociológica de Durkheim la que fundamente la idea de suicidio, la que
le da consistencia, asignándole un lugar en sus tesis teóricas. La que vincula la idea
sociológica del suicidio con el hecho social. A diferencia de la perspectiva weberiana,
que postula que todo hecho social es ipso facto un hecho sociológico, para Durkheim la
conexión entre lo social y lo sociológico no queda certificada de manera inmediata sino
que se articula (construye) teóricamente: no puede decirse nada sociológico sobre el
suicidio sin haber formulado previamente una teoría sociológica que lo defina como
objeto teórico. No se trata de “atomizar y luego sumar” –como lo pretende el estilo
empirista inductivo ingenuo (y no tanto)– para llegar al hecho científico, se trata de
“conquistar, construir y comprobar” el hecho científico. Sólo la construcción teórica
permite resolver la antinomia entre individuo y sociedad posibilitando que la razón
sociológica tome conciencia de sí misma.

42
CAPÍTULO 3: EL PROBLEMA DE INVESTIGACIÓN Y SU FORMULACION

1. Diferenciación entre problema y problema de investigación

A los efectos de lograr una aproximación a la conceptualización del punto que es


objeto de desarrollo del capítulo es recomendable comenzar distinguiendo entre
problema y problema de investigación, dado que como es lógico suponer, existen y es
posible identificar muchos problemas pero no cualquiera de ellos resulta ser un
problema de investigación. En tal sentido, se podría comenzar descartando aquellos de
naturaleza metafísica, filosófica o existencial que no son empíricamente abordables. Por
ejemplo, cualquier individuo puede estar legítimamente preocupado por dilucidar la
cuestión sobre “el sentido y la finalidad última del ser” o acerca de “la existencia de
Dios”; pero debe saber que no son temáticas abordables científicamente o, por lo menos
en los términos de las ciencias fácticas. Tampoco son problemas las disputas éticas o
morales que suponen controversias valorativas: la investigación no puede demostrar que
un valor sea superior a otro. Por ejemplo: “si la caridad es superior a la bondad”. Lo
mismo ocurre con los problemas de tipo instrumental que implican llevar a cabo algún
tipo de acción o medida. Nuevamente, cualquier persona puede estar legítimamente
preocupado por la inseguridad, la falta de trabajo, la pobreza, etc. pero debe saber que la
investigación no va a resolver esos problemas. Investigando no se va a erradicar la
inseguridad, aumentar la oferta de trabajo o eliminar la pobreza. A lo sumo, la
investigación podrá sugerir algunas acciones o políticas que puedan contribuir a hacerlo.
Y así se podría continuar con otras cuestiones de naturaleza similar. En todos los casos
no hay que confundir los problemas sociales con los problemas de investigación social.
En definitiva, los problemas de investigación siempre son problemas de conocimiento
que se solucionan obteniendo la información que permita suplir esa carencia.
Con otras palabras, los problemas de investigación constituyen una discrepancia
entre dos modelos: el modelo real que nos informa acerca de lo que se sabe del
fenómeno y el modelo ideal que nos indica lo que se debería saber. Es decir: lo que no
se sabe de lo que ya se sabe. Pero además, para que se pueda hablar –en términos
estrictos– de problema es necesario vislumbrar aunque más no sea en forma conjetural
alguna respuesta porque la propia definición de problema encierra su posible solución.
Como bien señala Adorno “...únicamente a quien sea capaz de imaginarse una sociedad
distinta de la existente podrá ésta convertírsele en problema...”. 36
De lo anterior se desprende que, básicamente, los problemas de investigación
reconocen tres fuentes de origen: la ausencia de teoría: cuando no hay conocimiento al
respecto; la discrepancia entre la teoría y los hechos: cuando no se está de acuerdo con
el conocimiento existente; la controversia entre teorías: cuando existen conocimientos
rivales y se decide investigar para saldar la disputa.

36
Adorno, T. (en Popper, K. y otros, 1978:45).

43
2. La formulación del problema de investigación

Se podría comenzar este apartado señalando dos cuestiones: en primer lugar y al


decir de muchos autores, éste sería el verdadero primer paso de la investigación porque
de alguna menar expresa la razón de ser de la misma. En segundo lugar, se trata de un
paso vital porque un problema bien formulado es un problema medio resuelto. En caso
contrario, si se lo hace erróneamente, es probable que lo que se haga luego vaya en la
misma dirección y no sea fructífero.
En tal sentido, existen diferentes alternativas –por cierto, no excluyentes sino
más complementarias– de formular el problema: el interrogante inicial, los objetivos, el
marco teórico, la hipótesis.

2.1. El interrogante inicial

La primera alternativa para comenzar la formulación del problema es con un


interrogante inicial que sintetice cuál es la principal inquietud que motiva la
investigación. Debe tenerse en cuenta que por su forma gramatical (interrogativa) y la
función del lenguaje que realiza (expresiva) una pregunta no es un enunciado que pueda
ser verdadero o falso. Sin embargo y al mismo tiempo, puede señalarse que una
pregunta para la cual no existe alguna respuesta posible es una pregunta mal formulada.
En suma: el problema es una pregunta, pero no toda pregunta es un problema de
investigación.
Dicho con otras palabras, “problematizar es interrogar al tema de manera cada
vez más precisa hasta llegar a formular con claridad una pregunta, sin la cual ningún
proceso de conocimiento puede tener lugar” (Vieytes, 2004: 24). Debe tenerse en cuenta
que todos los esfuerzos por plantear el problema de investigación resultan importantes
pues las preguntas que se logren formular serán la medida de las respuestas que se
logren alcanzar con la investigación. No en vano, suele decirse, que son más
importantes las preguntas que las respuestas.
Por tales motivos, una investigación suele arrancar con una etapa exploratoria,
cuyo objetivo será, precisamente, llegar a establecer conceptos y relaciones para
plantear mejor el problema de investigación. Es por ello que la investigación
exploratoria –como se verá en el capítulo correspondiente– se caracteriza por su
flexibilidad permitiendo al investigador bucear en distintos aspectos relacionados con el
tema de interés, para, valiéndose de todos los recursos que tiene a mano, relevar el
terreno con el fin de identificar aspectos asociados a su tema.
Seguramente, este interrogante estará presente luego en la introducción cuando
presentemos el planteo del problema y –en algunos casos– hasta puede ser utilizado
como título o subtítulo del trabajo. Al mismo tiempo, se supone que la investigación
estará orientada a ofrecer una respuesta validada. Veamos algunos ejemplos:

 ¿Qué opinan los ciudadanos sobre la sanción por ley de la obligatoriedad de los
debates presidenciales entre los candidatos?

44
 ¿La satisfacción con un producto, garantiza la fidelidad de marca por parte de los
usuarios?
 ¿La elección de los lugares de compras por parte de los consumidores se realiza en
función de las promociones que ofrecen las tarjetas de crédito?
 ¿Por cuáles motivos las víctimas no realizan las denuncias pertinentes por los delitos
padecidos?
 ¿Cómo han impactado las redes sociales virtuales en el estilo de vida de los adultos?

2.2. Los objetivos de la investigación

Los objetivos constituyen la meta de la investigación; a dónde se pretende llegar;


cuál es la información que se procura obtener; qué es lo que se quiere saber. A
diferencia del interrogante inicial, los objetivos se redactan en términos afirmativos
comenzando por algún verbo en infinitivo: analizar, estudiar, explicar, describir,
determinar, demostrar, comprender, averiguar, indagar, etc. para continuar con la
redacción del resto del enunciado. No obstante, hay que ser cuidadoso con los verbos
que se eligen debido a que sus significados e implicancias son diferentes; no quiere
decir mismo explicar (dar cuenta de las causas) que describir (contar lo que sucede) o
explicar que comprender (dar cuenta de los motivos, razones, intenciones, etc.). Ante la
duda, existen verbos más neutros y menos comprometidos como analizar o estudiar.
Con otras palabras, los objetivos serían acciones investigativas a seguir para dar
cuenta del problema de investigación, por lo tanto deben ser claros y alcanzables. Deben
incluir los conceptos teóricos fundamentales dando cuenta del recorte espacio-temporal
y haciendo referencia a las unidades o casos que conforman el universo de estudio
(Sautú y otros, 2005).

Objetivos generales y específicos o particulares

Resulta recomendable y así se estila, realizar la distinción entre el objetivo


general y los objetivos particulares, en una cantidad que, por lo general, es de uno y
cinco o seis, respectivamente. Se entiende que el objetivo general tiene que estar en
sintonía con el interrogante inicial expresando la idea central de la investigación y
procurando encontrar una respuesta a dicho interrogante. Por su parte, los objetivos
particulares son especificatorios o subsidiarios del objetivo general. De manera que el
objetivo general actúa como una suerte de paraguas que contiene a todos los
particulares. No puede ocurrir, por ejemplo, que mientras el objetivo general indique
una dirección haya uno o más de los particulares que señale un rumbo diferente o que
involucre una población diferente a la establecida por el general.
Habitualmente, son los objetivos particulares los que se investigan y no el
objetivo general, que se logra con los resultados del estudio. Esto significa que la suma
de los objetivos específicos es igual al objetivo general.
Retomando algunos de los interrogantes anteriores veamos algunos ejemplos:

45
Objetivo general:
Estudiar la opinión de los ciudadanos sobre la obligatoriedad legal de los debates
presidenciales.
Objetivos particulares:
Analizar si existen diferencias en la opinión según el lugar de residencia (CABA o
GBA).
Determinar si la opinión varía en función del sexo, edad y nivel socioeconómico de
los ciudadanos.
Averiguar si la opinión es contraria cuando se es simpatizante del candidato
oficialista y/o presunto ganador.
Indagar acerca de los principales motivos que brindan los ciudadanos para sustentar
sus posturas.
Identificar los principales temas que –según los ciudadanos– deberían ser incluidos
en el debate.

Objetivo general:
Investigar el impacto de las redes sociales virtuales en el estilo de vida de los adultos.
Objetivos particulares:
Elaborar una radiografía de usuarios de redes sociales según frecuencia y
características de participación, sexo, edad y nivel de estudios.
Describir –desde la perspectiva de los usuarios– los cambios provocados por las
redes en sus estilos de vida.
Analizar las principales actividades socioculturales realizadas en el último mes:
prácticas deportivas, concurrencia a espectáculos, reuniones con amigos y/o familiares,
lecturas de libros, etc.

2.3. El marco teórico de la investigación

Teoría, estado del arte y marco teórico


Un buen punto de partida es comenzar distinguiendo entre estos conceptos dado
que no son sinónimos y por varios motivos. Una teoría es un sistema de ideas que
guardando cierta coherencia lógica interna describe, explica y/o predice el
comportamiento de un conjunto de fenómenos de una misma naturaleza con cierto
grado de verosimilitud. Con otras palabras, una teoría es “un conjunto de hipótesis
estructurado” (Galtung, 1973:538). No obstante, debe señalarse que –además de las
hipótesis– la teoría puede estar constituida por axiomas y leyes. En última instancia, el
elemento básico al cual puede reducirse toda teoría es el concepto y en tal sentido, toda
teoría es un sistema conceptual.
Básicamente, la teoría cumple distintas funciones: orienta la investigación;
ofrece un sistema conceptual; brinda un sistema de clasificación; sistematiza, explica y
predice los hechos; ofrece el encuadre necesario a las hipótesis; permite interpretar los
datos y las observaciones; indica áreas no exploradas de conocimiento.
Por su parte, se denomina estado del arte a “lo último”, “lo más avanzado”, “la
tecnología de punta” o “el estado actual de la temática y sus avances”. Con otras

46
palabras, el estado del arte nos informa acerca de cómo se encuentra el avance del
conocimiento en el momento de realizar la investigación y cuáles son las tendencias
existentes para el desarrollo de la problemática que se piensa abordar.
Asimismo, el estado del arte le sirve al investigador como referencia para asumir
una postura crítica frente a lo que se ha hecho y lo que falta por hacer en relación a la
problemática, para evitar superponer esfuerzos, para evitar errores que ya fueron
superados. Esto explica que no puede considerarse como un producto terminado dado
que hasta puede referirse a investigaciones en curso, sino como una contribución que
genera nuevos problemas para nuevas hipótesis de investigación y representa el primer
y más importante insumo para dar comienzo a cualquier estudio (Londoño Palacio y
otros, 2014).
En cambio el marco teórico implica, por un lado, explicitar desde dónde se
piensa abordar el problema y, por el otro, su desarrollo conceptual. La primera cuestión
supone la decisión acerca del abordaje disciplinario, interdisciplinario,
multidisciplinario o transdisciplinario (Gibbons et al, 1997) y desde cuál/es
perspectiva/s paradigmática/s se lo va a hacer. Esto significa que se ha hecho una
revisión de las diferentes disciplinas y posturas epistemológicas respecto a las
categorías de análisis que hacen a la comprensión del problema. Mientras que la
segunda cuestión implica la conceptualización del fenómeno que se piensa estudiar.
Con otras palabras, el marco teórico ofrece los fundamentos de la respuesta
teóricamente concebida: constituye el argumento elegido por el investigador como el
mejor –ante otros argumentos alternativos– para responder a la pregunta inicial.
Como señala Sautú (2005) el marco teórico constituye un corpus de conceptos
de diferentes niveles de abstracción articulados entre sí que orientan la forma de
aprehender la realidad. Incluye supuestos de carácter general acerca del funcionamiento
de la sociedad y la teoría sustantiva o conceptos específicos sobre el tema que se
pretende analizar.
Se podría señalar que hay autores o posturas –como por ejemplo, el
interaccionismo simbólico desde quien fuera su fundador Herbert Blumer en adelante–
que sugieren evitar el marco teórico previo y, en tal caso, efectuar la consulta al mismo
a posteriori, debe aclararse que aún en esos casos es prácticamente inimaginable que el
investigador puede despojarse totalmente de la totalidad de su propia formación.
El marco teórico conduce a la formulación de hipótesis, proporciona los
principales conceptos, orienta sobre cómo se realizará la investigación (estrategia
técnico –metodológica) y provee del marco interpretativo de los resultados
(Achaerandio Zuazo, 2010).
De lo anterior se desprende que el marco teórico puede ser elaborado con
aspectos parciales de una o varias teorías. Al mismo tiempo puede nutrirse de
testimonios brindados por especialistas entrevistados e información provenientes de
otras fuentes: periódicos, otras investigaciones, internet, etc. Asimismo, puede incluir
datos secundarios y hasta –como complemento– del desarrollo de un breve marco
histórico que permita contextualizar la problemática en tratamiento. Por tales motivos,
queda claro la no concordancia entre teoría, estado del arte y marco teórico. En el
capítulo siguiente se desarrollará el tema de las hipótesis.

47
CAPÍTULO 4: LAS HIPOTESIS EN LA INVESTIGACION CIENTIFICA

Alfredo Oscar Castro

1- Teorías e Hipótesis:

El objetivo de la investigación científica es la explicación de fenómenos y


problemas en cualquier campo del conocimiento. Explicar un fenómeno o problema
supone a su vez llegar al conocimiento de sus causas o demostrar a que leyes obedece.
Para lograr este resultado, los científicos deben enfocar los problemas a la luz de
teorías e hipótesis, a fin de encontrar bajo que sistemas de regularidades se pueden
ordenar los fenómenos. Una teoría consiste en un conjunto de hipótesis relacionadas
coherentemente entre sí y que dan respuesta a un problema o grupo de problemas en un
campo específico del conocimiento científico.
La propia etimología de la palabra hipótesis, puede ayudarnos a comprender el
papel que juega en la investigación, ya que proviene de los términos griegos e hipo (que
significa debajo y thesis (lo que se pone o ubica)). Entonces se trata de aquello que
subyace o se supone

Como podemos ver, la hipótesis tiene, en el método científico, una doble


función: no solamente pretende el avance de la teoría existente, proporcionando
nuevas adquisiciones empíricamente verificadas, sino que también indica al
investigador cuáles son los aspectos del fenómeno que se deben tener en
consideración. (BOUDON y LAZARSFELD: 1979, 47 a 49)

La teoría, por lo tanto, no es pura especulación, sino algo construido sobre una
serie de hechos. Ahora bien, estos hechos, debidamente conceptualizados
pueden ser analizados lógicamente y, por consiguiente, partiendo de ellos, es
posible deducir nuevas relaciones que todavía no han sido afirmadas por la
teoría. (BOUDON y LAZARSFELD: 47 a 49)

Entonces llamamos teoría científica al conjunto de hipótesis que manteniendo un


orden coherente y complementario entre sí apuntan a comprender, (eventualmente
explicar y predecir), los fenómenos o problemas.

Dado que el proceso de investigación científica no consiste en otra cosa sino en


ver si una determinada respuesta a la cuestión o problema planteada se ajusta o
no a la realidad o no es confirmada por los hechos, emprender sin más, una vez
determinado el problema, la búsqueda de su solución, llevaría al investigador a
actuar a ciegas y sin orden, al no saber en qué sentido orientar el hallazgo de la
solución pretendida. (SIERRA BRAVO.R: 1988, 70 y 71)

48
Por ello el científico se ve obligado a plantearse nuevos interrogantes y a
efectuar una nueva elección. Después de haberse preguntado qué y en la
determinación del problema, debe inquirir ahora ¿ cuál es la solución o
soluciones probables a la cuestión planteada? En contestación a esta pregunta
ha de efectuar, entre las diversas explicaciones posibles del fenómeno que se le
ocurran, la elección de aquella o aquellas que le parezcan más plausibles o
verosímiles, a fin de proceder a la comprobación en la investigación de su
validez. Esta explicación o solución posible elegida no es otra cosa que la
hipótesis. (SIERRA BRAVO.R, 70 y 71)

Las hipótesis representan, pues, otra nueva concreción del tema a investigar,
necesaria para proceder con el debido orden en la comprobación científica. Precisan, en
general, el objetivo de ésta y orientan la búsqueda de explicación al problema
planteado, lo que equivale a decir que iluminan el proceso de la investigación en sus
distintas fases. Por todo ello, las hipótesis son básicas en toda investigación científica.

1-1 El papel de las hipótesis en los pasos del proceso de investigación:


Hemos marcado en letra cursiva los momentos en que el investigador debe
actuar en relación al planteo de sus hipótesis.

a) Elección del problema a investigar.


b) Recopilación de documentación y definición del problema.
c) Elaboración del Marco Teórico y Formulación de Hipótesis.

d) Deducir y desarrollar consecuencias lógicas y/u observacionales de las Hipótesis.

e) Definir el diseño de la verificación de hipótesis y el procedimiento concreto para su


prueba.
f) Puesta a prueba o contraste de las hipótesis a través de sus consecuencias
observacionales – empíricas.

g) Establecimiento de conclusiones o resultados de la investigación.

h) Extender las conclusiones o generalizar los resultados.

2- ¿Es posible investigar sin hipótesis?

El uso de teorías en general y de hipótesis en particular en el campo de la


investigación científica, ha sido algunas veces cuestionado, por algunos seguidores de
las corrientes empiristas extremas como así también por algunos de sus rivales
enrolados en las corrientes subjetivistas.
Incluso al interior de las “ciencias duras” el uso de teorías e hipótesis ha tenido
sus detractores, a tal grado que en una conferencia para estudiantes avanzados de física

49
en los Estados Unidos, el propio Einstein en su defensa de su uso pronunció la famosa
frase “no hay nada más práctico que una buena teoría”.
Podemos asimilarlas a un faro que echa luz sobre el camino a recorrer en la
elucidación del problema general o de los problemas particulares que se plantean en el
transcurso del proceso de investigación.
Además señalan el rumbo y los contornos del camino a recorrer por el
investigador, marcando un derrotero concreto. Podemos asimilarlo a las hojas de
navegación que emplean los pilotos de barcos para guiarse en el océano, o a las
estrellas que usan de guía para enfilar mejor el rumbo hacia su destino.
Pero ¿ qué sucede si ese rumbo es el equivocado y nos lleva a conclusiones
falsas, ya que a priori, si toda hipótesis es una conjetura, bien puede ser refutada por los
hechos?.
La respuesta es que esto no hace más que reforzar la importancia de las hipótesis
como herramienta indispensable, ya que la ciencia avanza tanto demostrando lo
verdadero como refutando lo falso.
Por lo tanto, si una hipótesis es refutada como consecuencia de las instancias que
llevan a su prueba, ya sabemos por donde no debemos marchar, abriéndose entonces
para a ese u otros investigadores un panorama que le permitirá encarar nuevas
orientaciones, sabiendo que no tropezará con la misma piedra.
Entonces, aunque en algunos trabajos el investigador no ha planteado
explícitamente sus hipótesis, situación frecuente en algunos campos, como así también
en los esquemas exploratorios o formulativos, esto no significa que el mismo no se haya
efectuado preguntas o interrogantes frente a la situación o problema que tiene por
delante.
Esas preguntas e interrogantes no son si embargo otra cosa que hipótesis que
subyacen a lo largo de un trabajo que en apariencia se llevó solo por objetivos.
En el caso puntual de la investigación exploratoria precisamente, lejos de desconocer las
hipótesis, a menudo el mismo se orienta a una elaboración y explicitación de las
mismas.
Y aún así ¿que lleva a un investigador, que no explicita sus hipótesis, a
privilegiar o simplemente seleccionar unos objetivos descartando otros?
Simplemente su enfoque experto del tema, edificado sobre innumerables
hipótesis subyacentes en su pensamiento, o en la experiencia acumulada. También
puede jugar un papel la intuición del experto, en la medida que la podemos definir como
proyección informal o inconsciente de experiencia o conocimiento acumulado.
Suele también decirse ¿no son acaso famosos hallazgos científicos en los que los
aspectos fenomenológicos evidenciados por la propia casualidad llevaron a la solución
de un enigma o problema?
En esta línea aparentemente se encuentran el principio de Arquímides sobre el
comportamiento de los cuerpos sumergidos o la sorpresa de Fleming al hallar
inesperadamente muertas las bacterias de un grupo de sus cultivos, lo que lo llevó al
descubrimiento de los efectos antibióticos de la penicilina, etc.

50
Pero el genio de Arquímides no se funda en haber corrido desnudo por las calles
de su ciudad presa del entusiasmo gritando “ lo hallé, lo hallé ”, sino en haberse
planteado (post facto) la hipótesis que daba respuesta al hecho sucedido.
Asimismo el hallazgo “casual” o “accidental” de Fleming no hubiera llegado a
constituirse en el aporte monumental que implicó para la salud humana, sin haberse
ligado en su mente a la elaboración y prueba del sitema de hipótesis que explicaron el
“accidente”.
Precisamente este planteo sistemático de hipótesis como parte de una estrategia
de indagación, marcó, según muchos epistemólogos e historiadores de la ciencia, el
paso de la actitud precientífica a la científica, ya que en la propia persona de
Arquímides se dieron ambos roles.
En el campo de la investigación social en particular, la elaboración de hipótesis
presenta algunas dificultades especiales, debidas por un lado al alto grado de
abstracción teórica de los conceptos utilizados y a la habitual pluricausalidad de los
problemas o fenómenos estudiados.
También cabe volver a hacer algún comentario respecto a la diferencia en el uso
y construcción de Hipótesis en el campo de la investigación académica / científica y en
el de la investigación “por encargo o por objetivos”, (Ejemplo típico estudios de
mercado o de satisfacción del cliente).
Si bien una revisión de las investigaciones del segundo tipo parece asegurar que
no poseen marco teórico e hipótesis explícitas, siempre presentes en las primeras, no
debemos perder de vista que en las segundas las preguntas concretas que se formulan en
las encuestas, cuestionarios o los contenidos de las guías de pautas para entrevistas,
surgen del conocimiento teórico que los investigadores poseen sobre el problema
concreto, y de las hipótesis derivadas del mismo.
No podemos dejar de lado el papel de la utilidad de la hipótesis en la
delimitación del campo de investigación en ciencias sociales. En este sentido, la
investigación social no trata de teorías más o menos abstractas, sino que formula
problemas concretos. También otra de sus finalidades consiste, por lo tanto en concretar
el problema de interés.

3. ¿De dónde se extraen y cómo se construyen las hipótesis?

Las hipótesis surgen generalmente durante el proceso de planteamiento del


problema; a partir de revisión de literatura relacionada con el mismo; del análisis de
investigaciones preexistentes o postulados teóricos preliminares relacionados con la
cuestión; o de opiniones expresadas por expertos.
Pero también es posible que nos enfrentemos a un problema sobre el que no se
disponga de cuerpo teórico, en ese caso deberemos plantear explícitamente nuestras
propias hipótesis, sean éstas producto de la observación, del razonamiento, la intuición
y /o la analogía.

51
3.1 - Definiciones:

Hipótesis Científica:

Se trata de enunciados o proposiciones teóricas conjeturales, tentativas, y no


verificadas, referidas a variables o relaciones entre variables que dan cuenta del orden,
regularidad, causa o asociación bajo la que se encuentran los fenómenos o problemas,
referidos a unidades de análisis.
Proposición:
Decimos que es un enunciado de base lógica o empírica compuesto por conceptos.

Concepto:
El concepto, fruto de una abstracción, consiste en la representación mental de un
objeto, situación o fenómeno.

Variable:
En ciencias fácticas (las que estudian hechos o fenómenos, tales como biología,
física, sociología o psicología experimental): Todo concepto que puede asumir distintos
valores, características o atributos susceptibles de medirse.
En filosofía, metafísica o religión (que estudian absolutos, valoraciones, etc, no
sujetos a supuestos o comprobación empírica): Todo concepto que puede asumir
distintas categorías, no necesariamente mensurables.
Cabe mencionar el caso especial de las matemáticas, el álgebra o el cálculo en
general, que a pesar de trabajar con signos y símbolos conceptuales, también emplean
variables abstractas que permiten establecer mediciones.

4 - Condiciones que deben presentar las hipótesis.


Para que una hipótesis científica pueda considerarse tal debe reunir, según R.
Sierra Bravo algunos requisitos: (SIERRA BRAVO: 70 y 71)

- Deben ser conceptualmente claras y fácilmente comprensibles

- Los conceptos usados deben tener vinculación con la realidad empírica

- Las variables que contienen deben ser susceptibles de verificación o refutación


mediante el uso de técnicas asequibles.

- Las mismas deben ser específicas y concretas, ya que si son demasiado amplias y
generales no se podrán verificar directamente.

- Deben estar conectadas con teorías precedentes, a fin de ampliar el conocimiento


disponible.

52
- Deben tener cierto alcance general, es decir trascender uno o pocos hechos, apuntando
al valor trascendente del saber.

- Deben ofrecer una respuesta probable al problema o fenómeno bajo estudio.


- Sus términos o variables deben ser susceptibles de operacionalización. Este concepto
significa que las mismas deben contener un referente empírico que permita
contrastarlas en la experiencia o en la realidad.

5- Acerca de la cantidad de variables que debe contener una hipótesis:


Respecto a esta cuestión existen posiciones divergentes. La mayoría de los
autores coincide en que para considerarse hipótesis una proposición debe contener al
menos dos variables, en esta línea encontramos a Hans Zetterberg,
(ZETTERBERG:1965, 59 a 64) Por el contrario, otros autores como Johan Galtung,
(GALTUNG:1978 373 a 379), sostienen que son factibles las hipótesis de una sola
variable.

Ejemplo de Hipótesis de una sola variable: Las nubes están compuestas por
gases; Los hombres son mortales; Este árbol es viejo; o El capital depositado ha
aumentado. Como se aprecia se trata en general, de enunciados descriptivos.

Ejemplo de hipótesis bivariada: El uso de anticonceptivos es más frecuente a


medida que aumenta la clase social.

6- Clasificación de las hipótesis

Para esta clasificación tendremos en cuenta los siguientes criterios:

A) Según su función

B) Según el tipo de nexo que se establece entre las variables

C) Según la cantidad de variables que contiene la hipótesis

D) Según su planteo temporal respecto al acaecimiento del hecho del que dan cuenta

E) Según su direccionalidad

A) Según su Función:

Aquí se tiene en cuenta el papel que dentro de ellas tienen las variables, en
relación con los planos teóricos y empíricos y su relación dentro de una investigación.
No debemos olvidar que en investigación científica, las hipótesis de alto nivel
teórico no pueden ponerse a prueba en forma directa. Por lo tanto de ellas deben

53
derivarse lógicamente consecuencias observables, que son las que finalmente se
contrastan empíricamente. Este proceso es llamado “operacionalización de variables”.
Una de las clasificaciones por función más citada, tanto en la bibliografía
metodológica local y extranjera se debe a nuestro compatriota Manuel Mora y Araujo
(MORA y ARAUJO: 1973,15), que define:

- Hipótesis sustantivas: Relacionan variables conceptuales o generales

- Hipótesis que relacionan los indicadores derivados lógicamente de las hipótesis


sustantivas: Son las que se contrastan empíricamente.
- Hipótesis auxiliar de validez: Supone una relación entre los indicadores y las
variables conceptuales o generales.
- Hipótesis auxiliar de generalización de la muestra a la población: Permiten
generalizar los resultados hallados en la muestra al conjunto de la población o
universo.

Sin embargo, es común encontrar otros autores (ANDER –EGG: 1983, 75), que
hacen referencia a hipótesis sustantivas cuando estas tratan de la realidad social, lo que
puede llevar a confusión.
Por lo tanto hemos desarrollado una clasificación propia, tomando los aportes de
diferentes autores, que entendemos adecuada ya que elimina las contradicciones y que a
la vez mantiene poder explicativo.

1. Hipótesis Teóricas o Generales

Estas poseen alto contenido de abstracción, elaboradas con variables conceptuales que
no contienen referentes empíricos o vinculados con una realidad inmediatamente
asequible.

Ejemplo I:

1. Hipótesis Teórica:

La familiaridad de manejo de tecnologías informáticas entre los jóvenes está asociada a


la calidad del primer empleo

2. Hipótesis Intermedias o sustantivas.


Establecen relaciones de intermediación o interconexión entre la teoría y el
campo empírico. Para ello deben contener variables con referentes empíricos:

Entre los jóvenes el conocimiento y capacidad para dominar el uso de herramientas


informáticas, permite una mayor posibilidad de obtener mejores condiciones de trabajo
al momento de la búsqueda del primer empleo.

54
3. Hipótesis de trabajo o Empíricas:
Constituidas a partir de definiciones operacionales o indicadores, directamente
contrastables y mensurables, utilizadas en una investigación concreta.

Aquellos jóvenes que adquieren tempranamente un manejo del paquete office tienen
mayor posibilidad de obtener puestos con mejores salarios y condiciones físicas de
trabajo que aquellos que no poseen esa capacidad.

4. Hipótesis de generalización:
Permiten extender las conclusiones tomadas para las muestras al conjunto o
población de sujetos o fenómenos.
Las provincias que introducen igualitariamente programas de capacitación temprana en
herramientas informáticas, es más probable que disminuyan la diferencia de calidad en
los puestos de trabajo entre los jóvenes que provengan de familias de ingresos
económicos desiguales al momento de obtener el primer empleo, respecto a aquellas
que no lo hacen.

Ejemplo II:

1. Hipótesis Teórica o General

El éxito del capitalismo temprano en los Estados Unidos, estuvo fuertemente vinculado
a la postergación de gratificaciones por parte de la burguesía.

2. Hipótesis intermedia o sustantiva.


La rápida e intensa acumulación de poder económico por parte del Estado /
Nación, durante el desarrollo del capitalismo temprano en los EEUU estuvo asociado
con la tendencia a diferir en el tiempo el gasto de las riquezas obtenidas a través del
trabajo, por los sectores capitalistas, a fin de reinvertirlas para lograr el crecimiento del
ciclo productivo.

3. Hipótesis de trabajo o Empírica:


Durante los siglos XVIII , XIX e inicios del XX, la forma de vida austera y
despojada de lujos de los propietarios norteamericanos, ya sean comerciantes,
industriales o granjeros norteamericanos, a pesar de poseer éstos grandes sumas en sus
cuentas bancarias, estuvo asociada a la creciente cantidad de capitales disponibles en la
Reserva Federal Americana.

55
4. Hipótesis de generalización

Dado que en una muestra de países (durante los siglos XVIII a mediados del XX) se
halló que una forma de vida austera entre los propietarios capitalistas estaba relacionada
a grandes reservas de capitales, es probable que en los demás países en que se dio esa
misma costumbre, también hayan existido grandes reservas de capitales.

Ejemplo III:

1. Hipótesis Teórica o General:

La motivación está asociada al rendimiento.

2. Hipótesis Intermedia o Sustantiva:


A mayor conformidad con las condiciones de trabajo, menor absentismo laboral

3. Hipótesis de trabajo o Empírica:

Cuanto más puntos obtenga un trabajador en el test de “Conformidad con sus tareas”
menos cantidad de faltas presentará en su registro de asistencia.”

4. Hipótesis de generalización

En las empresas donde hallemos los mayores valores obtenidos en el “Test de


Conformidad con sus tareas”, es probable que se den los menores niveles de absentismo
laboral”

B) Según el nexo que liga las variables:

1. Hipótesis descriptivas:

Señalan la frecuencia o características de un fenómeno sin establecer relaciones


causales entre sus variables:

Pueden ser a su vez:

1.1 Asociativas: Plantean relaciones no paramétricas entre las variables que las
componen. En este caso las variables son cualitativas.

Ej: “El estado civil de los varones está asociado al tipo de actividad recreativa
desarrollada”.

“ La satisfacción del consumidor aumenta con la calidad de los productos”.

56
1.2 Correlacionales: Plantean la existencia de relaciones de tipo estadístico o
paramétricas entre variables cuantitativas o cualicuantitativas:

Ej: “La tasa de mortalidad aumenta a medida que se eleva la tasa de desocupación”.

“El índice de riesgo país disminuye a medida que aumentas las reservas depositadas en
el Banco Central”

1.3 Probabilísticas: Se trata de hipótesis que se dan en el marco de la idea; “Si X


probablemente Y”, fijándose dicha probabilidad dentro de ciertos parámetros
estadísticos que oscilan entre el cero al ciento por ciento.
Es probable en un 75 % que un aumento en la presión fiscal produzca disminución en el
consumo de bienes durables

2. Hipótesis Explicativas:
Dan cuenta del porqué o causa de los fenómenos.
A su vez se subdividen en:
2.1. Causales o Determinísticas:
Plantean la existencia de una relación causa-efecto ineluctables. Son poco comunes en
las ciencias sociales y más frecuentes en las físico-naturales.

“ El hábito de fumar provoca lesiones de distinta gravedad a nivel pulmonar”

“ Al calentar un gas en un recipiente cerrado, aumenta su volumen”

2.2. Hipótesis Contingentes

Son del tipo; Si X entonces Y, pero sólo si Z.

Un riego adecuado produce una buena cosecha, sólo si no se producen heladas.

La existencia de programas sociales de información sobre anticoncepción tiende a


disminuir la tasa de natalidad, siempre que los líderes religiosos de la comunidad los
apoyen.

2.3. Hipótesis Predictivas:


Permiten anticipar con algún grado de certeza el comportamiento de ciertas variables o
el acaecimiento de fenómenos:

A su vez pueden ser:

57
2.3.1. Fundadas en leyes teóricas:
Por ejemplo la predicción futura de la posición de un planeta del sistema solar, en base a
las leyes de Kepler.

La fuerza gravitacional en cualquier planeta del sistema solar a partir de las leyes de
Newton.

2.3.2. Fundadas en acumulación de datos empíricos:


Por ejemplo el tamaño de la población mundial dentro de diez años en base al tamaño
de la población actual y hace diez años atrás.

La cantidad de alumnos que se inscriben en un año determinado para ingresar a la


universidad en función de la evolución de la inscripción en años anteriores

C) Según la Cantidad de Variables que contienen las hipótesis:


Según la cantidad de variables que posea una hipótesis puede ser:

1) Univariada (una variable)


Como vimos mas arriba generalmente hacen referencia a uniformidades o regularidades
empíricas.
2) Bivariada: Poseen dos variables

3) Multivariada: Poseen dos o más variables.


Ejemplo de tipo de variables en una Hipótesis Multivariada:
“El sexo, el cociente intelectual y el tipo de composición del hogar, influyen en la
cantidad de horas que un niño ve televisión; según la provincia analizada”.

Variable Independiente: Cociente Intelectual

Variable Dependiente: Cantidad de horas que ve televisión

Variable Antecedente: Sexo del niño

Variable Interviniente o Intermedia: Tipo de composición del hogar

Variable contextual: Provincia analizada. (Si se hace un estudio comparativo entre dos o
más)

D) Según su planteo temporal respecto al acaecimiento del hecho del que dan
cuenta:

1 Ante Facto: Planteadas antes de que ocurra el hecho:

58
Ej: Es probable que mañana aumenten los valores bursátiles debido a las medidas
financieras tomadas hoy por el gobierno.

2 Post-Facto:

Ej: El comportamiento del día de hoy de las acciones probablemente se debió a las
medidas tomadas ayer por el gobierno.

E) Según la direccionalidad de las variables en la hipótesis:

1 Unidireccionales o Asimétricas:
El sexo influye en la elección del tipo de carrera.

La edad influyen en las posturas políticas.

2 Bidireccionales o Simétricas:
Los conflictos hogareños pueden provocar dificultades en el aprendizaje escolar de los
niños. (Ya que las dificultades en el aprendizaje escolar de los niños pueden provocar
conflictos hogareños)

El nivel socioeconómico del sujeto influye en la jerarquía de sus contactos sociales. (Ya
que la jerarquía de los contactos sociales influye en el nivel socioeconómico”

F) Hipótesis Nula
Son aquellas que en el contexto de la investigación y teniendo en cuenta el principio de
refutabilidad, el investigador desarrolla para tratar de demostrar que no se verifican.
Por lo tanto si la hipótesis nula no se puede refutar, se convalida transitoriamente la
hipótesis original de la investigación

Ej: Hipótesis original: La autoregulación de los integrantes de un grupo de trabajo,


eleva la productividad.

Ej: Hipótesis nula: La autoregulación de los integrantes de un grupo de trabajo, no eleva


la producción.

59
CAPÍTULO 5: REDUCCIÓN DEL PROBLEMA A NIVEL EMPÍRICO

1. De los conceptos y sus definiciones

Un concepto es una abstracción, es una construcción mental; es una idea que se


tiene acerca de algo. Es la forma consciente de aprehender la realidad aunque nunca
será idéntico a ella. Es el resultado del proceso de conceptualización; conceptualizar
significa captar la esencia del fenómeno, es decir, abstraer aquellas características,
particularidades, atributos, magnitudes, funcionalidades, etc. que permitirán agrupar
bajo un mismo nombre a un conjunto de fenómenos y simultáneamente diferenciarlo de
otro conjunto de elementos –que a su vez–, se hallará identificado con otro nombre. De
esto se desprende que todo concepto supone dos elementos (Zetterberg, 1981):
a) un simbolismo gramatical que es el término (o sea el nombre) empleado para
designar el concepto: “el definiendum”;
b) su definición, el significado (alcance) de dicho término: “el definiens”.
Y esto último es importante, dado que una misma palabra en el lenguaje
cotidiano, en distintas ciencias y aun en una misma disciplina, puede ser empleada con
diferentes significados. Pensemos, por ejemplo, cuando se utiliza la palabra “gato”; ¿a
qué se está haciendo referencia?, ¿al felino o a la danza?, ¿al criquet del auto, al hombre
astuto, al peluquín o a la profesional? De ahí la relevancia de explicitar el contenido del
concepto. Sin embargo, tampoco se trata de caer en el “fetichismo del concepto” sino
manejarlos “como caja de herramientas” para analizar la realidad (Bourdieu, 1975). Con
otras palabras, los conceptos son los elementos básicos al cual se reduce cualquier teoría
o son los ladrillos de una teoría (Corbetta, 2007).
Ahora bien, existen distintos tipos de definiciones, básicamente se pueden
mencionar cuatro (que no son los únicos): dos de naturaleza teórica (nominal y real) y
dos de naturaleza empírica (ostensiva y operacional).
 La definición nominal es aquella que explica el significado apelando a otros
términos ya conocidos. Por lo general, se remite al origen etimológico de la palabra
o a un sinónimo. Es la clásica definición que aparece en cualquier diccionario
(indicando incluso su género y número). Por ejemplo: “anomia” significa “falta de
normas”.
 La definición real o conceptual es más específica, más especializada; informa sobre
los alcances del concepto, sobre sus diferentes aspectos o dimensiones, sobre el
campo aludido por el mismo. Nos enuncia las propiedades consideradas esenciales
del objeto al que se refiere el “definiendum”. Son afirmaciones sobre la naturaleza
de un fenómeno y por lo tanto, pueden ser verdaderas o falsas, según cuál sea el
grado de adecuación de nuestras ideas al objeto en cuestión. Por ejemplo: “anomia”
es una “situación de desintegración o desestructuración normativa que genera en los
individuos estados de confusión o desorientación”. Este tipo de definición se halla
inserta en una determinada teoría o marco teórico.
 La definición ostensiva es aquella que explica el significado apelando o bien a
gesticulaciones o bien a ejemplos concretos del fenómeno aludido. Si se trata, de

60
explicar qué es un “gato” (el felino) habrá que imitarlo (en su forma de maullar,
etc.), dibujarlo o directamente mostrarlo.
 La definición operacional, como su nombre lo indica, es una definición de trabajo.
Informa acerca de cuáles son los procedimientos para la medición del concepto o
provee de referentes empíricos (indicadores). Dicho de otro modo, mediante la
operacionalización se definen las consecuencias observacionales de las hipótesis que
permitirán recoger las evidencias necesarias para su comprobación o refutación. En
definitiva, se obtienen hipótesis empíricas. A este tipo de definición se volverá más
adelante.
Engels afirmaba que la investigación era “el arte de operar con conceptos”. Sin
embargo, uno de los problemas (obstáculo epistemológico) que enfrentan las ciencias
sociales es el de ocuparse de un “objeto que habla”, corriendo el investigador el riesgo
de sacar los conceptos de la boca de sus informantes sustituyendo sus prenociones
(sociología espontánea del científico) por las prenociones de los sujetos que estudia
(sociología espontánea del objeto) o con una mezcla falsamente científica y objetiva de
ambos. Esto último, estaría justificando la necesidad de las definiciones. No obstante,
estos conceptos tampoco deben ser entendidos meramente de manera “intelectiva” como
conjuntos de términos bien definidos (conceptual y operacionalmente) sino como
conocimientos que aspiran a reflejar en el “objeto construido”, la existencia y el
movimiento del “objeto real”. Por tal motivo, se debe evitar –como ya se señaló– el
“fetichismo del concepto o del texto autonomizado” en el que caen algunos análisis
semiológicos y/o postmodernistas. Los conceptos son “cajas de herramientas” que se
supone fijan, de alguna manera, la identidad de conjuntos de fenómenos. Pero estos
fenómenos no se integran en un mismo conjunto porque son nombrados por una misma
palabra (o definición) sino que previamente formaban parte de un conjunto particular de
fenómenos. En suma, “ni la ‘audacia sin rigor’ de la filosofía social ni el ‘rigor sin
imaginación’ del positivismo hiperempirista” (Bourdieu, 1975).

2. Sobre las variables

En términos generales, las variables son conceptos; pero no cualquier concepto


constituye una variable. Esto significa que existen conceptos constantes y conceptos
variables. Los primeros son aquellos que –una vez que han sido conceptualizados–, van
a permanecer fijos, por lo menos, a lo largo de la investigación que se está realizando;
permitiendo por ejemplo, determinar la población objeto del abordaje o identificando las
propiedades en función de las cuales se va a realizar el mismo.
En cambio, las variables son conceptos que asumen diferentes valores. Es decir,
que las variables se refieren a aquellas propiedades, atributos, características,
magnitudes, funcionalidades, etc., que podrán estar presentes –en algunos casos con
distinta intensidad– o ausentes en cada uno de los casos que conforman el universo de
estudio. Con otras palabras, las variables se utilizan para designar aspectos discernibles
de un objeto de estudio (Korn, 1984), analizar la distribución de una población,

61
formular relaciones descriptivas, explicativas o predictivas sobre la misma, predicar
algo acerca de su comportamiento, etc.
Un concepto se convierte en variable cuando se aplica como propiedad de
determinadas unidades de análisis (Corbetta, 2007). En definitiva, las variables
presentan dos características fundamentales: por una parte ser características
observables de algo, y por otra ser susceptibles de cambio o variación con relación a los
mismos o diferentes objetos (Batthyány, K., 2011). En definitiva, los términos
constantes son conceptos que no se someten a variación en una investigación –de ahí su
nombre–. Cuando el término adopta más de un valor, se lo denomina –justamente–
variable.
Por ejemplo, supóngase que se trata de llevar a cabo un estudio sobre los
egresados universitarios. El concepto “egresado universitario” una vez definido va a
permanecer constante a lo largo de toda la investigación. En cambio, entre los
egresados existe una multiplicidad de características, propiedades, etc. (género, edad,
religión, inserción laboral, profesión, nivel salarial, estado civil, etc.) que podrán
presentarse de diferentes maneras en cada uno de ellos. Estas últimas son variables.

3. Sistema de categorías o categorización de las variables

Si las variables son conceptos que asumen diferentes valores esos valores se
denominan categorías. Dicho de otro modo, las categorías son las distintas alternativas
que –a los fines de una determinada investigación– presenta la variable; alternativas en
las cuales serán clasificadas o agrupadas las unidades que constituyen el universo de
estudio.
Por ejemplo:

Variables Categorías

Edad hasta 25 / 26 a 30 / 31 o más


Género masculino / femenino
Estado civil soltero / casado / viudo / divorciado / separado

Es importante distinguir entre concepto, variable y categorías, y no confundirlas


en el momento de su explicitación. Si por ejemplo en una hipótesis se afirma: “Los
estudiantes universitarios de ciencias sociales tienen mayor sensibilidad hacia las
expresiones artísticas que los estudiantes de ciencias naturales”. Las variables NO SON:
estudiantes universitarios, mayor sensibilidad, expresiones artísticas, ciencias sociales ni
ciencias naturales. En tal caso, estudiantes universitarios, sensibilidad, expresiones
artísticas, ciencias sociales y naturales son conceptos. Las variables son: tipo de carrera
universitaria estudiada y grado de sensibilidad hacia las expresiones artísticas. Y las
categorías serán: pertenecientes a las ciencias sociales / a las naturales / a otras; y muy
bajo / bajo / medio / alto / muy alto, respectivamente.

62
3.1. Principios que rigen la categorización de una variable:

La categorización de una variable no es algo arbitrario sino que, por el contrario,


debe respetar algunos criterios y tener en cuenta un conjunto de factores. En primer
lugar, existen dos principios que rigen la categorización de una variable: exhaustividad
y exclusividad.
El principio de exhaustividad señala que el sistema de categorías de una variable
debe contemplar todas las posibilidades de variación, de manera tal, que no quede
excluido ningún elemento sujeto a estudio. Por ejemplo, si la variable fuera “nivel de
remuneraciones de los empleados de una empresa” no sería correcto categorizarla: de $
5000 a 10000 / de 10001 a 15000 / de 15001 a 20000, dado que se dejaría afuera a
quiénes ganan menos de $ 5000 o más de $ 20000. O si la variable fuese “profesión”,
tampoco sería correcto: abogado / ingeniero / médico / relacionista público, porque
también se estaría excluyendo a muchos otros profesionales e incluso (suponiendo que
la población los incluya) a quienes no lo son. Para estos casos habría que prever (si es
que no se desea especificar todas las profesiones) una categoría residual de: “otras
profesiones” y otra: “sin profesión”.
El principio de exclusividad afirma que las categorías de la variable deben ser
mutuamente excluyentes, de manera tal, que una misma unidad de análisis no pueda ser
ubicada en dos categorías simultáneamente. Por ejemplo: si la variable es “edad”, no
sería correcto categorizar: hasta 20 años / de 20 a 25 / 25 o más; dado que aquel
individuo que tuviese 20 o 25 años, podría ser clasificado al mismo tiempo en dos
categorías. En tal caso: hasta 20 años / de 21 a 25 / 26 o más, o hasta 20 años / + 20 a
25 / + 25 años. Una situación diferente puede presentarse cuando realmente la unidad
de análisis –ya no por error de delimitación–, haga posible dicha simultaneidad. Por
ejemplo: supongamos que la variable sea carrera universitaria que cursa el alumno y nos
encontramos con alguien que está estudiando dos carreras al mismo tiempo; en ese caso
–y para garantizar la exclusividad–, o bien se especifica una categoría con la
combinación de ambas carreras: periodismo y publicidad (lo cual puede resultar
engorroso por la cantidad de combinaciones posibles), o bien se abre una categoría de
“varias carreras” o “más de una carrera”, o en caso contrario, se admite la excepción y
se acepta la simultaneidad. Este principio permite también otras excepciones como
ocurre cuando se trabaja con preguntas que aceptan respuestas múltiples que no son
excluyentes entre sí o no se hayan jerarquizadas u ordenadas por prioridad. Por ejemplo:
motivos de elección de un candidato: honestidad / credibilidad / capacidad / plataforma /
trayectoria / ideología / etc. Estos casos de excepción deberán ser tenidos en cuenta –a
la hora de analizar la información–, por ejemplo, para definir la base sobre la que se
calculan los porcentajes darles un tratamiento especial al momento de cargar la
información en el programa informático atendiendo a que, por lo general, esos
programas –supóngase el Excel– no aceptan más de una respuesta por celda. Si llegado
el caso, se quisieran evitar estos inconvenientes, lo aconsejable es trabajar con preguntas
que no acepten respuestas simultáneas y se les permita a los interrogados sólo elegir una
respuesta (la principal, la primera que le venga a la mente, etc.).

63
3.2. Factores que inciden en la categorización de una variable

Más allá de los principios anteriores, existen otros factores de los cuales depende la
categorización de una variable:

El grado de discriminación deseado para estudiar la población en cuestión, dado que


no es lo mismo distinguir para la variable NSE (nivel socioeconómico) entre bajo /
medio / alto que hacerlo entre muy bajo / bajo / medio bajo / medio neto / medio alto
/ alto / muy alto. Al respecto, cabe señalar que es conveniente –para algunos
estudios– prever más categorías con el propósito de no perder información para
luego, si no resultaran significativas, proceder a su reagrupamiento, recategorización
o reducción (Barton, A. en Korn, F., 1984 y Critto, A., 1982).
Relacionado con lo anterior, otro factor es el tamaño del universo o de la muestra;
dado que por un principio de economía y a los efectos de evitar que la información se
disperse, el número de categorías debe adecuarse a la cantidad de unidades de
análisis; si se trata de trabajar con pocos casos o muestras reducidas y en especial
para análisis cuantitativo, el número de categorías deben ser igualmente reducido.
Al mismo tiempo, la cantidad de categorías debe regularse en función del análisis y
presentación de los resultados posterior dado que no debe perderse de vista que en lo
estudios cuantitativos los resultados serán presentado en cuadros y gráficos
estadísticos y cuanto mayor sea el número de categorías más dificultoso será no sólo
la presentación sino la lectura de los mismos.
Cuando el sistema de categorías constituye una serie graduada como ocurre cuando
se trata de clasificar opiniones o actitudes es conveniente que el número de
categorías sea impar (tres, cinco, siete, etc.) a los efectos de contemplar la posición
intermedia o de neutralidad, por ejemplo: totalmente de acuerdo / de acuerdo / ni de
acuerdo ni en desacuerdo / en desacuerdo / totalmente en desacuerdo (Wainerman,
C., 1976). No obstante, existen casos en donde la neutralidad no es pertinente (por
ejemplo, opinión sobre el aborto en casos de embarazo por violación) y es preferible
reemplazarla por una categoría o alternativa residual (no sabe/no contesta).
En relación con lo anterior, la cantidad de categorías “positivas” y “negativas”
debe ser similar; no es correcto por ejemplo, si la variable fuera “opinión sobre la
película proyectada” categorizarla en: excelente / muy buena / buena / regular / mala,
porque se estaría sugiriendo o induciendo al encuestado para que se incline por
alguna alternativa positiva.
La linealidad del continuo: como ocurre con cualquier procedimiento de medición,
las categorías de una variable permiten ordenar a los elementos estudiados a lo largo
de un continuo que se supone que tiene que ser de la misma naturaleza. Dicho de
otro modo, no se debe incluir en un mismo sistema de clasificación categorías que
pertenezcan a diferentes continuos. Por ejemplo, si la variable fuese “clima laboral”
no sería correcto categorizar en: muy conflictivo / desagradable / amistoso / muy
acogedor porque corresponden a escalas diferentes.
Otro factor a tener en cuenta es la conceptualización de la variable y su adaptación al
contexto sociocultural; por ejemplo, el significado jurídico de la variable “estado

64
civil” no suele corresponderse con el que cultural o el que socialmente la gente le
asigna, y por lo tanto, puede ocurrir que “separados, divorciados, solteros, unidos de
hecho y hasta viudos” jurídicamente hablando sean socialmente definidos como
“casados”.
En concordancia con lo anterior, otro factor es el objetivo o las necesidades de la
investigación: ¿interesa conocer el status civil legal o social? Si se trata de los
primero, habrá que especificar claramente la variable (“estado civil legal”), en
cambio si se trata de lo segundo se debería especificar “situación de pareja o
matrimonial” y tal vez baste con dos categorías: “con pareja estable / sin pareja
estable”.
También merece destacarse la relación entre categorización-
conceptualización de la variable-marco teórico de la investigación: debe existir una
correspondencia entre los tres aspectos y no que la conceptualización y/o la
categorización nada tengan que ver con el marco teórico. Por ejemplo, si en el marco
teórico se ha desarrollado la problemática de las clases sociales desde una
perspectiva marxista no se debería conceptualizar la variable y menos aún
categorizarla siguiendo los lineamientos funcionalistas y terminar hablando de
niveles socioeconómicos bajo / medio / alto.
Otro elemento condicionante son las características “objetivas” del contexto de
investigación; si se trata por ejemplo, de estudiar cómo se distribuye la población
estudiantil de una universidad (del país) según su nacionalidad, se podría prever:
argentino / peruano / boliviano / uruguayo / etc., pero no tendría sentido: noruego /
italiano / francés / etc. A lo sumo (y para cumplir con la exhaustividad): otras
nacionalidades u otras americanas / otras no americanas.
Relacionado con lo anterior está la posibilidad de acceder a determinadas unidades
de análisis y/o de información; por ejemplo, en el campo de las investigaciones de
mercado/marketing/publicidad se suele categorizar a la variable NSE en ABC1 / C (2
y 3 o amplio) / DE. Sin embargo, últimamente, diferentes consultoras/agencias/etc.
se están cuestionando hasta qué punto es legítimo incluir en sus estudios los niveles
A y B (niveles socioeconómicos muy alto/alto), cuando prácticamente –por un
problema de imposibilidad de acceso o de contacto efectivo–, no se hallan
representados en la muestra.
La categorización también depende de cómo haya sido formulada la hipótesis; en
efecto, muchas veces en las hipótesis no aparecen explicitadas las variables y sí en
cambio las alternativas que –desde luego–, son las que deben tenerse en cuenta. Por
ejemplo: “en las universidades argentinas, mientras que las mujeres se inclinan
mayoritariamente por carreras humanísticas, los hombres optan por carreras no
humanísticas”; aquí ya están expresadas las categorías de ambas variables: carrera
universitaria (humanística / no humanística) y sexo (hombre / mujer).
Con respecto a esta última variable –y aunque se tengan que reiterar algunas
consideraciones–, dos comentarios (que están referidos a la conceptualización y a los
objetivos de la investigación): a) en la actualidad suele diferenciarse entre sexo y
género porque mientras el primero aludiría a características exclusivamente

65
biológicas o anatómicas (hombre / mujer) el segundo se referiría a “diferencias
psicológicas, sociales y culturales” (masculino / femenino) entre hombres y mujeres
que no son biológicas en su origen (Giddens,1989); al mismo tiempo, habría que
distinguir con la autodefinición que consta en el documento de identidad dado que en
la actualidad es la persona quien legalmente decide el sexo con el que quiere
aparecer en el documento; b) con frecuencia –y especialmente entre los alumnos– , la
variable “sexo” cuando llega el momento de categorizarla suele generar
“comentarios o murmullos” acerca de cuáles son sus alternativas “confundiéndosela”
con la variable “sexualidad”. Si el objetivo tiene que ver con esta última, entonces
habrá que especificar que la variable ya no es “sexo” (o género), que su
conceptualización apunta a la práctica sexual y que lo mismo ocurre con su
categorización (que distinguirá entre heterosexuales / bisexuales / homosexuales /
asexuales).
Por último, las categorías de una variable dependen de su naturaleza; es decir, si es
cualitativa o cuantitativa (ver desarrollo del punto 5). Dicho de otro modo, es
aconsejable categorizar las variables con el máximo nivel de medición posible tal
como a continuación se analizará.

4. Niveles de medición de las variables

Cuando se categoriza una variable se está construyendo una escala; toda escala
es un instrumento de medición. En su acepción más básica y general, medir significa
ordenar a lo largo de un continuo. Existen diferentes niveles de medición que dan lugar
a distintos tipos de escalas:

Nivel de medición o escala nominal: es el más simple de todos, el que menos


información brinda, ya que únicamente clasifica a los elementos estudiados según
semejanzas y diferencias; es decir, que agrupa según equivalencia sin establecer
entre las posiciones de la escala ningún tipo de jerarquización. Por ejemplo: religión
profesada (católico / judío / protestante / etc.); nacionalidad (argentino / chileno /
brasileño / etc.); estado civil (soltero / casado / viudo / etc.). En ningún caso es
posible afirmar que los católicos/argentinos/solteros/etc. son más
felices/inteligentes/pobres/etc. que los protestantes/chilenos/casados/etc. o cualquier
otra relación de inferioridad/superioridad.
Nivel de medición o escala ordinal: como su nombre lo indica –además de clasificar
según diferencias y semejanzas como la nominal–, explicita una jerarquía entre las
distintas posiciones de la escala; con otras palabras, establece una relación de “menor
que” o “mayor que” entre las mismas. Por ejemplo: NSE (bajo / medio / alto); nivel
de instrucción (primario / secundario / terciario / universitario); grados de las Fuerzas
Armadas (soldado / cabo / sargento / coronel / general). La información que esta
escala no brinda es sobre la distancia existente entre las distintas posiciones del
continuo: se sabe que el general tiene más autoridad que el coronel pero no cuánto
más autoridad tiene.

66
Niveles de medición o escalas intervalares y racionales: estas escalas además de
agrupar según semejanzas y diferencias (como la nominal), de establecer un orden
jerárquico (como la ordinal) brindan información sobre la distancia existente entre
una posición y otra de la escala. Dicho de otro modo, no sólo explicitan una relación
de “mayor o menor que” sino además de “cuánto mayor o menor que”. Básicamente
y sin entrar en las cuestiones estadístico-matemáticas, la diferencia entre ambos tipos
de escalas en principio se encuentra en el punto de origen empleado, o sea, en el tipo
de 0 (cero) utilizado. Las escalas intervalares se valen de un 0 (cero) arbitrario
mientras que las racionales emplean un 0 (cero) absoluto. Un cero arbitrario es un
punto de origen convencional que no implica ausencia de lo que se está midiendo:
simplemente constituye una posición más dentro de la escala que tampoco
necesariamente es la primera. Por ejemplo: la escala con que habitualmente se mide
la temperatura ambiente (0º no significa ausencia de temperatura) o los católicos la
historia (nacimiento de Cristo no implica ausencia se historia) o la altura
(considerando como punto de partida el nivel del mar), etc. Por su parte, el 0 (cero)
absoluto es un cero natural, que sí supone ausencia de lo que se está midiendo
(además de ser una posición más dentro de la escala y por lo general la primera). Por
ejemplo: la escala del velocímetro, de la balanza o del sistema métrico decimal.
Con respecto a los diferentes niveles de medición, corresponde hacer algunos
comentarios:
a) El hecho de que las posiciones de la escala estén numeradas no significa que la
misma sea intervalar o racional. La escala de la ruleta (0 a 36) es nominal; el orden
de largada o de llegada de una carrera es ordinal; la escala de calificaciones (0 a 10)
es ordinal, etc.
b) La circunstancia de que en la categorización de una variable no esté explicitado el
cero no significa que no exista (nivel de ingresos: hasta 500 / 501 a 1000 / 1001 a
1500/ etc.).
c) El hecho de que ninguna unidad de análisis asuma o pueda asumir el valor cero, no
implica que este sea arbitrario; en el ejemplo anterior, aunque todos los individuos
tengan algún ingreso (en pesos) el cero es absoluto (porque precisamente niega la
existencia de ingreso) y de hecho están quienes no lo tienen. En esos casos,
convendría agregar la categoría “sin ingresos” o su equivalente “0 ingreso”.
d) Una misma variable –tal como se indicó más arriba– según su naturaleza, puede ser
categorizada con diferentes niveles de medición. Lo correcto es emplear la escala
que brinde mayor información aunque luego se utilice un nivel inferior. Por ejemplo:
cantidad de materias aprobadas, en lugar de: pocas / regular / muchas, lo correcto
sería: de 0 o ninguna / 1 a 10 / 11 a 20 / de 21 a 30 / más de 30.
e) De lo anterior se deduce que cuando las variables son cualitativas corresponde que
sean categorizadas en forma nominal u ordinal; mientras que cuando son
cuantitativas, lo correcto sería categorizarlas en forma intervalar o racional según
corresponda o lo permita la variable.

67
5. Clasificaciones de las variables

Existen diferentes formas de clasificar a las variables; a continuación se


desarrollarán tres: de acuerdo a la naturaleza, según la función que cumple en la
hipótesis y de acuerdo a su grado de complejidad.

5.1. Según su naturaleza

La naturaleza de una variable se refiere a lo que la variable intrínsecamente


mide; es decir, al tipo de propiedad aludido por la variable o a las características de las
unidades de análisis. En tal sentido, se puede distinguir entre:
a) variables cualitativas
b) variables cuantitativas (continuas y discretas)
c) variables cualicuantitativas.
Las variables cualitativas como su nombre lo indica miden cualidades, o sea,
atributos o características no mensurables numéricamente. Por ejemplo: ocupación,
nacionalidad, religión, profesión, estado civil, etc.
Las variables cuantitativas miden cantidades, es decir, magnitudes. De acuerdo
a los valores que puedan asumir, podrán ser continuas o discretas. Las continuas pueden
tomar cualquier valor dentro de su rango o se pueden fraccionar (por ejemplo: nivel de
remuneraciones, densidad poblacional, peso, altura, etc.). Las discretas o discontinuas
sólo asumen valores enteros (cantidad de hijos, número de socios, cantidad de materias
aprobadas, etc.).
Con respecto a lo anterior cabe hacer algunas consideraciones:
 El hecho de que una variable –por razones de habitualidad o comodidad–, sea
medida con una escala en donde sólo aparezcan números enteros no significa
necesariamente que sea discreta. Lo determinante es si puede o no asumir otros
valores intermedios (por ejemplo, la variable edad puede ser medida en cantidad de
años y sin embargo, no por ello deja de ser continua ya que también puede
descomponerse en meses, días, etc. o bien puede expresarse en fracciones: 3 ½
años).
 Todas las variables traducidas a tasas, promedios, índices, porcentajes, etc., en la
medida en que sean cuantitativas aunque se refieran a unidades discretas son
continuas (por ejemplo: promedio de hijos por hogar, tasa de mortalidad infantil,
índice costo de vida, etc.).
 El hecho de que una variable pueda “expresarse o medirse” con una escala numérica
no significa necesariamente que sea cuantitativa, dado que puede tratarse de una
variable cualitativa que ha sido cuantificada (por ejemplo: grado de conocimiento
medido en calificaciones numéricas o coeficiente de inteligencia expresado en
puntajes de un test).
 La definición de la naturaleza de una variable muchas veces depende de su
conceptualización y/u operacionalización (tal como más adelante se tratará). En
efecto, algunas variables que en principio son cualitativas luego de su
“instrumentación” terminan siendo cuantitativas dado que a los efectos de su

68
medición se emplean indicadores cuantitativos (por ejemplo cuando se
operacionaliza nivel de capacitación por la cantidad de cursos realizados o grado de
inteligencia por la cantidad de problemas resueltos en una unidad determinada de
tiempo). En estos casos, habrá que revisar o bien la conceptualización o bien su
operacionalización.
 Existen variables que por su grado de complejidad o por su operacionalización
contienen indicadores continuos y discretos. Para tales casos, esas variables serán
cuantitativas discretas (por ser el menor nivel de medición) o cuantitativas a secas o
bien, cuantitativas continuas si sólo se consideran los valores de índices (por
ejemplo: nivel económico de una persona medido por su nivel de remuneraciones y
cantidad de propiedades).
 Las variables cuantitativas (continuas o discretas) también pueden subdividirse en
agrupadas o no agrupadas, de acuerdo a si a los efectos de su categorización la serie
numérica utilizada es en intervalos simples o agrupados (por ejemplo: cantidad de
hijos 0 / 1 / 2 / 3 / 4 / 5 o más, o 0 / 1 a 3 / 4 a 6 / etc.
Por último, las variables cualicuantitativas son aquellas que por su
conceptualización y/o por su operacionalización, se refieren o contienen aspectos
cualitativos y cuantitativos, es decir, que miden tanto atributos como magnitudes. En
todos los casos, son variables complejas que a los efectos de su tratamiento serán
cuantificadas (por ejemplo: nivel socioeconómico).

5.2. Según la función que cumplen en la hipótesis o en el análisis del problema

Cuando se habla de la función se está haciendo referencia al papel que la


variable desempeña en la hipótesis o a la posición que se le asigna –aunque más no sea
en términos conjeturales–, en el análisis del problema estudiado. Esta decisión depende
de un conjunto de factores:

a) el ordenamiento temporal de las variables;


b) el tipo de hipótesis y la manera de su formulación;
c) el marco teórico;
d) las evidencias que se obtengan de las observaciones previamente realizadas;
e) el posterior análisis de los datos con el uso de los coeficientes estadísticos
pertinentes.

De acuerdo a lo anterior, las variables se clasifican en:

independientes
dependientes
contextuales
antecedentes
intervinientes

Es importante destacar que ninguna de estas funciones es una propiedad


intrínseca de la variable o dicho de otro modo, ninguna variable es a priori

69
independiente, contextual, antecedente, etc. Por otra parte, una misma variable puede
ser independiente en una investigación e interviniente o antecedente en otra o en
distintas hipótesis de una misma investigación. Además siempre se trata de posiciones
relativas ya que pueden variar a lo largo del proceso de investigación o al finalizar la
misma con los resultados a la vista. Por último, corresponde señalar que una misma
hipótesis puede estar constituida por varias de cada una de estas variables, es decir, que
puede haber dos independientes, tres antecedentes, etc. o que no estén todas las
funciones incluidas en la o las hipótesis y sí en cambio, explicitadas en el diseño de
investigación o, directamente, no aparezcan en la investigación.
La variable independiente (que a partir de ahora se simbolizará con la letra “x”)
es aquella que en la hipótesis cumple la función de supuesta causa, factor determinante
o condicionante o elemento explicativo o descriptor. Dicho de otra manera, es aquella a
la que el investigador le asigna el rol protagónico en el análisis del problema.
La variable dependiente (que se identificará con la letra “y”) es aquella que en la
relación actúa como supuesto efecto, factor determinado o condicionado o elemento
explicado o descripto. Por lo general, es la que identifica el problema que se piensa
estudiar. Se denomina dependiente porque varía en función de la independiente; de
manera tal que, a cada valor que asuma la independiente le corresponderá un
determinado valor de la dependiente. Matemáticamente, se lo podría explicar en la
siguiente fórmula: y = fx
Supóngase la siguiente hipótesis: “La opinión de los adolescentes sobre el aborto
varía de acuerdo a su grado de compromiso religioso, siendo más favorable en aquellos
que observan una menor religiosidad”.

Variable independiente (x): Grado de compromiso religioso.

Variable dependiente (y): Opinión sobre el aborto.

Y esta otra: “El nivel salarial incide en el rendimiento de los trabajadores siendo
que a una menor remuneración existe un menor rendimiento”.

X: Nivel salarial

Y: Grado de rendimiento de los trabajadores.

Nótese que la función de la variable no depende del orden de aparición en la


hipótesis. Sin embargo, sí existe ordenamiento temporal entre ambas: la independiente
antecede a la dependiente:

X Y

Supóngase ahora las siguientes dos hipótesis:

“Cuanto mayor es la cantidad de alumnos presentes en el aula menor es la


calidad de la enseñanza”.

X: Cantidad de alumnos presentes en el aula

70
Y: Calidad de la enseñanza

“A medida que aumenta el presupuesto educativo aumenta la cantidad de


alumnos presentes en el aula”.

X: Presupuesto educativo

Y: Cantidad de alumnos presentes en el aula

Como puede observarse, en la primera cantidad de alumnos era X mientras que


en la segunda pasó a cumplir la función de Y.

También puede haber simultaneidad o interdependencia entre ambas variables


como ocurre en las relaciones simétricas: “A medida que aumenta la identificación con
los valores, metas y procedimientos de una organización mayores son las posibilidades
de progreso en la misma y viceversa, a medida que se ocupa un puesto de mayor
jerarquía y responsabilidad mayor es la identificación con la organización”.

Simbólicamente sería:

X Y

En estos casos las variables son coetáneas o contemporáneas y cualquiera de


ellas cumple simultáneamente las funciones de independiente y dependiente. Dicho de
otro modo, no existiría una relación unidireccional sino bidireccional y por tal motivo,
es que algunos autores (Selltiz, 1974 y Mayntz, 1988) dudan en considerarla como nexo
estrictamente causal aunque no caben dudas sobre la influencia recíproca y los vínculos
de interdependencia. En estas situaciones, la definición acerca de cuál es el factor o
variable dependiente corre por cuenta del investigador que en principio le asigna tal rol
–como ya fue dicho– al elemento que se pretende explicar, describir o en términos
generales, estudiar.
Con respecto a los otros tipos de variables (contextuales, antecedentes e
intervinientes) y a modo de breve introducción, habría que efectuar las siguientes
consideraciones:
a) En general, pero especialmente en las ciencias sociales, no es aconsejable –dado la
complejidad de las situaciones que se estudian–, plantear relaciones lineales, directas y
aisladas entre dos fenómenos. No es prudente por ejemplo, hablar de una única causa
que produce un único efecto y menos aún, hacerlo en términos mecanicistas o
deterministas al mejor estilo newtoniano. Por otra parte, ya Weber había planteado la
multicausalidad frente el modelo monocausal que planteaba Marx (Pérez Lalanne,
2010).
b) Por tal motivo, en cualquier problemática que se aborde se encontrará una
multiplicidad de factores que podrán interactuar e influir de diferentes maneras en el
fenómeno sujeto a estudio (que se podría identificar como variable dependiente).
c) Conjeturalmente (de acuerdo a lo afirmado más arriba) se podría establecer cuál es a
entender del investigador el o los elementos determinantes (variables independientes) y
simultáneamente atribuirles otras funciones al resto de los factores involucrados.

71
d) Precisamente esos “otros factores” se los denominan terceras variables y se utilizan
para identificar a todos aquellos elementos que puedan incidir de alguna manera en la
relación entre “X” e “Y”. Ya sea favoreciendo u obstaculizando, condicionando o
especificando, explicando o interpretando, etc., dicha relación (Cfr. Selltiz, 1974;
Hyman, 1984; Mora y Araujo, 1975; Glock, 1973 y Boudon, 1985).
e) Si bien a todos ellos se los considera en términos generales variables intervinientes; a
los efectos de diferenciarlos en cuanto a su posicionamiento y funcionamiento se los
distinguirá y consecuentemente se los denominará variables contextuales, antecedentes
e intervinientes puras o propiamente dichas.
Las variables contextuales (Tc) son aquellas que como su nombre lo indica se
refieren a “campos”, “espacios” o “marcos” para los cuales, se afirman ciertas
relaciones. Estos contextos pueden ser geográficos, históricos, socio-demográficos,
culturales, etc. Dado que existen ciertas “controversias” con respecto a la
especificación de este tipo de variable, se distinguirá entre dos modalidades:

las variables contextuales “convertidas” en constantes o contextuales “únicas”.


las variables contextuales comparativas.

Las primeras se utilizan a los efectos de acotar o de delimitar el campo de


estudio - ya sea por razones económicas, temporales, metodológicas, etc. -, dejando
tácita o explícitamente abierta la posibilidad de trasladar la investigación en cuestión a
otros universos; o la aclaración que en otros escenarios, la relación hipotética afirmada
podría no cumplirse. En definitiva, la variable contextual constante no está negando la
existencia de otros posibles valores (categorías), sino que a lo sumo los mantiene “entre
paréntesis” o “en suspenso”. En última instancia, es una forma de prevenir uno de los
errores de la falacia ecológica (Galtung, 1966, T. 1). Pero además –y nuevamente–, esto
no impide que la misma variable en otra hipótesis o estudio pueda ser contextual
comparativa.
Por su parte, las variables contextuales comparativas son aquellas que establecen
diferentes “campos”, “escenarios” o “colectivos” en los cuales las relaciones o
problemáticas que se estudian pueden (o no) presentar características distintivas. A
diferencia de las anteriores, estas variables –al igual que cualquier otra variable a lo
largo de la investigación–, deben asumir como mínimo dos valores o categorías y
aunque pueda parecer redundante están presentes en la mayoría de los estudios
comparativos (exploratorios, descriptivos o explicativos).
A continuación, algunos ejemplos:

1) “En la localidad de Lomas de Zamora, los hábitos de consumo de bebidas


alcohólicas varían de acuerdo al sexo y la edad, siendo que los jóvenes entre 18 y 21
años beben más que los de otra edad y que las mujeres de cualquier edad”.
Tc (constante): Localidad de Lomas de Zamora
X: Sexo y edad
Y: Hábitos de consumo de bebidas alcohólicas.

72
2) “En las localidades urbanas a diferencia de lo que ocurre en las rurales, los hábitos
de consumo de bebidas alcohólicas varían de acuerdo al sexo y la edad...”
Tc (comparativa): Tipo de localidad (urbanas / rurales)
X: Sexo y edad
Y: Hábitos de consumo de bebidas alcohólicas.

3) “En la Universidad de Buenos Aires, el grado de aceptación del CBC (Ciclo Básico
Común) es más alto en los estudiantes que tienen una mayor participación
sociopolítica, especialmente en aquellos que cursan carreras humanísticas”.
Tc (constante): Universidad de Buenos Aires
Tc (comparativa): Carrera cursada (humanísticas / no humanísticas)
X: Grado de participación sociopolítica
Y: Grado de aceptación del CBC.

Nótese que todas las variables contextuales (constantes y comparativas) –en la


medida en que le sea asignada tal función–, guardan cierto ordenamiento temporal con
respecto a las independientes y dependientes; es decir, las anteceden:

Tc X Y

Sin embargo, no deben ser confundidas con las variables antecedentes (Ta) que
como su nombre lo indica también se posicionan con anterioridad a la variable
independiente, pero se utilizan para hacer referencia a otras propiedades, atributos o
magnitudes de las unidades de análisis que –sin ser áreas contextuales–, también pueden
incidir en la relación entre “X” e “Y”, ya sea actuando sobre alguna de ellas o sobre
ambas.
Veamos algunos ejemplos:

1) “Entre los adolescentes, los gustos musicales suelen variar según su nivel de
instrucción pero también existe cierta afinidad con las preferencias musicales de sus
padres”.
Tc (constante): Población adolescente
Ta: Preferencias musicales de los padres
X: Nivel de instrucción
Y: Gustos musicales de los adolescentes

2) “El proceso de selección de personal administrativo –en las empresas radicadas en


CAP/GBA–, es más estricto en las de mediana envergadura aunque también pueden
apreciarse diferencias significativas de acuerdo a cuál sea el capital de origen de las
mismas”.
Tc (constante): Lugar de radicación; tipo de personal seleccionado
Ta: Origen del capital (nacional / mixto / americano / europeo / otros)
X: Envergadura de la empresa (Chica / mediana / grande)
Y: Proceso de Selección de personal (muy flexible / flexible / estricto / muy estricto)

73
En términos conjeturales puede apreciarse que en el primer ejemplo, la variable
antecedente (preferencias musicales de los padres) estaría incidiendo directamente en la
variable dependiente (gustos musicales de los hijos), mientras que en el segundo, la
variable antecedente (origen del capital) podría tener que ver tanto con la independiente
(envergadura de la empresa) como con la dependiente (proceso de selección de
personal).
Por último, las variables intervinientes (Ti) –también llamadas intermedias– son
aquellas que temporalmente se posicionan entre la independiente y la dependiente
actuando como nexo entre ambas; o sea, haciendo posible u obstaculizando su relación,
especificando o interpretándola:

X Ti Y

Ejemplos:

1) “A medida que transcurren los años las personas son menos predispuestas a los
cambios, actitud que varía en aquéllas que están acostumbradas a realizar
emprendimientos”
X: Edad
Ti: Cantidad de emprendimientos realizados
Y: Grado de predisposición para el cambio.

2) “En las empresas del rubro automotriz, a una mayor capacitación del personal le
corresponde un aumento en su rendimiento, siempre y cuando dicha capacitación
redunde en una mejora en la organización de su desempeño”.
Tc: Empresas rubro automotriz
X: Nivel de capacitación
Ti: Grado de organización en el desempeño
Y: Nivel de rendimiento

Como se desprende de lo anteriormente desarrollado, todas estas variables


guardan entre sí, cierto ordenamiento temporal:

Tc Ta X Ti Y

Y es precisamente este posicionamiento uno de los elementos –no el único–, a


tener en cuenta cuando se analiza la hipótesis o los factores presentes en la situación
estudiada, dado que por una cuestión lógica la supuesta “causa” nunca puede producirse
con posterioridad al supuesto “efecto”, o la variable dependiente presentarse con
anterioridad a las consideradas antecedentes o contextuales.
Sin embargo, también se ha dicho que existen otros elementos de juicio (marco
teórico, comportamiento de la situación, análisis estadístico, etc.) y que por sobre todo,
se trata de posicionamientos relativos a la dinámica y complejidad de la problemática
analizada.
Por otra parte, también se mencionó que una hipótesis puede estar constituida
por varias de estas variables:

74
1) “Observaciones realizadas en los últimos tres años, permiten conjeturar que un
mayor nivel de información sobre el SIDA –en la población drogadependiente–
no redundaría en un aumento del nivel de prevención dado que continuaría
prevaleciendo en dicha población la pulsión de muerte, a menos que se revierta esa
relación pulsional con un adecuado tratamiento terapéutico”.
Tc: Últimos tres años; conurbano bonaerense; población drogadependiente
Ta: Relación pulsional
X: Nivel de información sobre el SIDA
Ti: Tratamiento terapéutico
Y: Nivel de prevención.

2) “A medida que disminuye el nivel socioeconómico de las mujeres en edad fértil,


con pareja estable, que emplean alguna técnica anticonceptiva, disminuye la
eficacia de la técnica habitualmente utilizada, incidiendo en dicha relación el área
cultural de origen y el canal de información (sobre la técnica) empleado”:
Tc (constante): mujeres en edad fértil, situación estable de pareja, empleo habitual de
técnicas anticonceptivas
Tc (comparativa): Área cultural de origen
X: Nivel socioeconómico
Ti: Canal de información
Y: Grado de eficacia de la técnica anticonceptiva.

3) “El interés por la lectura en los niños en edad escolar varía en proporción inversa al
tiempo de exposición frente a los medios audiovisuales, relación que se ve afectada
cuando existen hábitos de lectura en sus padres o cuando se implementan en las
escuelas experiencias con uso de periódicos o talleres afines”.
Tc: Niños en edad escolar
Ta: Hábitos de lectura en los padres
X: Tiempo de exposición frente a los medios audiovisuales
Ti: Implementación en las escuelas de experiencias/talleres de lectura
Y: Grado de interés por la lectura.

Hasta aquí se han desarrollado ejemplos partiendo de la hipótesis ya formulada;


otra alternativa de enfocar el tema de las funciones de las variables, que está relacionada
con el análisis de la situación y que por lo tanto corresponde a la delimitación y
formulación del problema37, es comenzando por la determinación de la variable
dependiente que como ya se ha dicho, es la que identifica el problema que se pretende
estudiar, luego mencionar todos los factores que directa o indirectamente puedan incidir
en ella, después asignarles a cada uno de ellos una función conjetural y por último,
terminar formulando la o las hipótesis correspondientes.

Supóngase que la problemática en cuestión sea la “Opinión sobre la


flexibilización laboral” y que luego (o simultáneamente) de haber mencionado los

37
Ver en este libro los capítulos correspondientes.

75
diferentes factores considerados significativos se los hubiera ordenado de la siguiente
forma:

Tc Ta X Ti Y

Sector de la Sexo NSE Posición Opinión sobre


economía ideológica flexibil. Laboral

Actualidad Edad Cant. Hijos

CAP/GBA Estado civil Estilos de vida

Situación
Laboral

Antigüedad

Nivel de
instrucción

Después se podría formular una única hipótesis que incluyera a todas las
variables o una principal y otras secundarias:

1) Unica: “En la actualidad en CAP/GBA la opinión sobre la Flexibilización laboral es


más desfavorable en los niveles socioeconómicos medios especialmente en el sector
servicios incidiendo también el sexo, la edad, antigüedad, situación laboral, estado
civil, nivel de instrucción, cantidad de hijos, posición ideológica y los estilos de
vida”.

2) Principal: “La opinión sobre la flexibilización laboral se halla fuertemente


condicionada por el nivel socioeconómico siendo los más negativos quienes
pertenecen al estrato medio”.

Secundarias: “La opinión sobre la flexibilización laboral es más desfavorable en el


sector servicios y en especial entre los hombres mayores de 30 años, de menor nivel de
instrucción y con mayor antigüedad laboral”.

“La opinión sobre la flexibilización laboral es más favorable entre las


mujeres solteras sin hijos, menores de 25 años que profesan una ideología de centro
derecha y que poseen un alto nivel de instrucción”.

“Los desocupados de ambos sexos mayores de 40 por su estilo de vida


incierto tienen una opinión más favorable sobre la flexibilización laboral”.

76
Para finalizar con el desarrollo de este tema unas últimas consideraciones:

 Tal como ya se ha dicho, no es necesario que en la o las hipótesis aparezcan todas


estas variables, basta con que estén explicitadas y contempladas en el diseño de la
investigación.
 Existe una distinción entre las variables de base, estructurales o clasificatorias (sexo,
edad, clase social, nivel de educación, etc.) y las variables actitudinales o
ideológicas (predisposiciones, opiniones, percepciones, valoraciones, actitudes,
preferencias, etc.). Cuando en una hipótesis se relacionan ambos tipos de variables,
por lo general son las primeras las que desempeñan el rol de determinantes o
explicativas, especialmente cuando se abordan los problemas desde una perspectiva
macrosocial, mientras que las segundas o bien son “dependientes” o en caso de
hipótesis multivariadas cumplen la función de “intervinientes”. Para ilustrar esto
último, se podría citar un estudio realizado sobre la adhesión (NO / SI) al paro
nacional dispuesto por las diferentes centrales sindicales; el mismo arrojó que dicha
decisión (variable dependiente) variaba en función de la ocupación del entrevistado
(independiente) pero había incidido la percepción que sobre la marcha de la
economía tenían los sujetos abordados (interviniente), siendo que los “optimistas”
habían optado por una menor adhesión mientras que con los “pesimistas” había
ocurrido lo contrario.

5.3. Según su grado de complejidad

El grado de complejidad de una variable remite a las características que asume


su operacionalización o a los procedimientos para su medición. Dicho de otro modo, la
complejidad se relaciona con el grado de abstracción que tenga la variable y de acuerdo
a ello se clasifican en:
 Simples
 Complejas
Las variables simples son aquellas que a los efectos de su medición presentan un
único aspecto y además requieren de un solo indicador. En algunos casos, son variables
que por su proximidad a la realidad o por su nivel de concreción ellas mismas pueden
hacer de referentes empíricos. Sin embargo, en un análisis más estricto todas las
variables requieren de algún tipo de indicador, aunque no esté debidamente explicitado
o forme parte de las mismas.
Un indicador es el referente empírico de la variable; son “observables” en el
sentido amplio del término, es decir, que se “observan” a través de cualquiera de los
sentidos. Son variables concretas que traducen a otras variables abstractas al plano de la
realidad. Con otras palabras, los indicadores son elementos empíricos que permitirán
ubicar a cada unidad de análisis en una determinada categoría de la variable. Como se
verá más adelante, no todos los indicadores son igualmente válidos y confiables.
Un ejemplo de variable simple es “edad”. Habitualmente se la mide en años y
por lo tanto, se la puede categorizar en intervalos etarios. Sin embargo, ¿cuál es en

77
última instancia, el “observable” al que se apela? A veces, es la respuesta (no siempre
confiable) dada a la pregunta directa o indirecta; otras veces, se apela al documento de
identidad o a algún rasgo físico (rogando que no haya lifting mediante).
Otro ejemplo corriente es la variable “sexo” (categorizada en hombre / mujer).
Habrá que convenir que todavía la pregunta no resulta necesaria y hasta puede parecer
ridícula; pero también habrá que convenir, que cada vez resultan menos confiables los
caracteres secundarios (y hasta nos vemos tentados a apelar a los caracteres primarios);
¿y por qué no, al documento?
¿Y la variable “estado civil” (con sus respectivas categorías legales)? ¿Vale la
respuesta como indicador? Si hasta a veces uno mismo duda al contestarla. Del
documento, ni hablar; el anillo (al que todavía se apela) muchas veces brilla por su
ausencia (deliberada o no). ¿Que la famosa pancita del casado?, (pero..., ¿y el que “nace
barrigón”?) o ¿ciertos hábitos de vida?, etc. Como se habrá visto las variables simples –
sin dejar de serlo–, no siempre son tan “simples”.
Por su parte, las variables complejas son aquellas que a los efectos de su
medición, presentan diferentes aspectos o requieren de más de un indicador. Cada uno
de esos aspectos se denomina dimensiones o subvariables y por lo general, aparecen
explicitados en la conceptualización de la variable. De esto último se desprende, que la
complejidad o no de la variable va a depender –en gran medida–, de cómo se la haya
definido. De esta manera, la operacionalización de la variable será acorde a su
conceptualización y ésta, a su vez, responderá al marco teórico de la investigación.
Cuando se está trabajando con una variable compleja, el primer paso consiste en
descomponerla en sus diferentes aspectos o dimensiones. Luego puede ocurrir que
alguna/s de esas dimensiones continúen aun siendo demasiado abstractas y sea
necesario distinguir para ellas subdimensiones. Después, a cada dimensión o
subdimensión se le asignará el o los indicadores correspondientes. A su vez los
indicadores, en tanto que variables –concretas pero variables al fin–, tendrán sus
respectivas categorías.
Una vez que se ha descompuesto a la variable compleja en dimensiones,
subdimensiones indicadores y categorías, ha llegado el momento de reconstruirla. Para
ello se elabora el índice:

78
VARIABLE COMPLEJA

VARIABLECOMPLEJA

Dimensión 1 Dimensión 2 Dimensión 3

Subdimensión Subdimensión
2.1 2.2

Indic. 1.1 Indic. 1.2 Indic. 2.1 Indic. 2.2 Indic. 3.1 Indic. 3.2

A B C A B C A B C A B C A B C A B C

ÍNDICE

Indic. = indicadores INDICE


A B C = categorías de los indicadores

Un índice es un indicador complejo que reconstruye la variable; es lo que


permite hacer la síntesis o el resumen de la variable. Es una medida cuantitativa que
posibilita combinar diferentes dimensiones y/o indicadores asignándole a cada unidad
de análisis un único valor (puntaje de índice) y ubicarla en una determinada categoría de
la variable compleja.
El índice permite además cuantificar aspectos cualitativos de la variable y
como ya se ha señalado, a la propia variable. El índice expresa cuantitativamente el
campo de variación –valga la redundancia– de la variable, o sea, su amplitud. De esta
manera, posibilita su tratamiento con un nivel cuasi-intervalar.
Dicho de otro modo, el índice es el resultante de la sumatoria de los puntajes
otorgados a las categorías de los indicadores de las diferentes dimensiones de la variable
compleja. Estos puntajes se adjudican con el fin de cuantificar el peso relativo o la

79
participación en la variable compleja de cada dimensión, subdimensión, indicador y
categorías.
De acuerdo a como hayan sido construidos, es decir, según el tipo de puntaje que
se utilice y su forma de asignación una forma posible (no la única) de clasificación de
los índices es distinguiendo entre:

 Indices no ponderados
 Indices ponderados

que a su vez, podrán ser:

 Simples
 Porcentuales.

En todos los casos son índices sumatorios: resultantes de la suma de los puntajes
asignados.
Un índice es no ponderado cuando se adjudica a cada dimensión y/o a cada
indicador, el mismo peso relativo o la misma participación en la variable. Esto significa
que cada dimensión tendrá igual cantidad de indicadores y a su vez éstos, el mismo
número de categorías. O en su defecto –si no se puede eliminar algún indicador o
reducir su número de categorías–, habrá que compensar otorgándole un menor puntaje
relativo. De esta manera –y en términos de sumatoria de puntajes–, cada dimensión y
por ende, cada indicador, tendrán iguales puntajes mínimo y máximo (ver ejemplos).
También existe la posibilidad de asignarle a más de una categoría del indicador en
cuestión, el mismo puntaje.
Un índice es ponderado cuando se le asigna –voluntaria o involuntariamente– a
una dimensión, indicador o incluso a una determinada categoría de indicador un mayor
peso relativo, sea en el campo total de la variable o en los campos parciales de las
dimensiones o indicadores.
Por lo general –ya sea por razones teóricas, metodológicas o simplemente por
comodidad operativa–, la mayoría de los índices son ponderados. Lo importante en
estos casos es ser conscientes de la existencia de dicha ponderación; que por otra parte,
muchas veces lleva a descompensar a la propia variable o a distorsionar su medición,
terminando por sesgar –aunque más no sea parcialmente–, la investigación. También es
necesario señalar que además de la justificación metodológica o teórica en algunos
casos la ponderación se efectúa teniendo en cuenta criterios “empíricos” de
representatividad; esto significa que son los propios sujetos estudiados y/o el cliente
para el que se realiza la investigación, quienes “sugerirán el tenor” de la ponderación y
que no necesariamente tiene que coincidir con lo estipulado por la teoría. Por ejemplo,
si se trata de operacionalizar ponderando la variable Grado de Satisfacción de los
clientes de un supermercado, puede ocurrir que en estudios previos (exploratorios -
cualitativos) surja una mayor valoración de la capacidad de la playa de estacionamiento
que de la cantidad de cajas de cobro mientras que para los dueños de dicho

80
establecimiento lo más importante sean aquellos aspectos que puedan modificar y/o
mejorar como la limpieza, la atención, etc.
La segunda distinción entre simples y porcentuales se refiere al sistema de
puntaje que se emplea. Los índices simples utilizan valores absolutos (enteros o con
decimales) –empleando o no el 0 (cero) inicial–, y por lo tanto, la amplitud del índice y
sus puntajes mínimo y máximo varían para cada variable. Además, resulta más difícil
–e incluso hasta arbitraria–, la apreciación y/o distribución de los pesos relativos.
Por su parte, los índices porcentuales se construyen con valores relativos
(enteros o con decimales) –y en todos los casos–, emplean el 0 (cero) inicial.
Básicamente la idea es llevar la amplitud de cualquier variable a 100 puntos. Luego a
cada dimensión e indicador se le asigna su participación o peso relativo (ver ejemplos).
Entre las ventajas que ofrece este sistema, se pueden mencionar las siguientes:
a) Todas las variables se miden con la misma escala numérica (de 0 a 100), lo que hace
posible las comparaciones, su tratamiento en términos de puntajes de índice como si
fuesen cuantitativas y la aplicación de coeficientes estadísticos (análisis de
correlaciones, regresiones, etc.).
b) Una vez familiarizado con su uso, es más sencillo establecer a priori las amplitudes
de las categorías de la variable compleja dado que a igual cantidad de alternativas, el
rango –si se adopta el criterio de división igualitaria–, siempre es el mismo.
c) Se visualiza realmente la participación que cada dimensión y/o indicador tiene en la
variable, apreciándose fácilmente si existe o no ponderación; e incluso facilita su
representación gráfica.
d) Permite intercambiar diferentes indicadores sin modificar la amplitud de la variable o
de la dimensión.
e) Posibilita compensar la desigualdad en el número de categorías por indicador.

5.3.1. Pasos para la construcción de un índice porcentual

A continuación se desarrollarán los pasos genéricos para la construcción de un


índice porcentual:

1. Determinar la importancia de las dimensiones, si fuese la misma asignar la


participación en forma equitativa. En caso contrario, ponderar adjudicando un
mayor peso a la/s dimensión/es correspondiente/s. Supóngase que la variable sea
nivel socioeconómico (bajo / medio / alto) con dos dimensiones: social y
económica. Si se considera que ambas tienen la misma relevancia se llevarán el 50
% cada una o, en su defecto, la dimensión social el 40 % y la económica, el 60 %
(esto obviamente, habrá que justificarlo). Por ejemplo, en el Índice de nivel
socioeconómico estandarizado que propone la Asociación Argentina de Marketing
se le ha dado una mayor participación a la dimensión económica porque –entre otras
cosas–, se privilegia el poder adquisitivo de los clientes y su nivel de consumismo
(AAM, 1998).
2. El paso siguiente es establecer la participación de los distintos indicadores, con el
mismo criterio empleado para las dimensiones. Si a todos los indicadores

81
(supóngase cuatro –dos por dimensión–), se le otorga el mismo peso (25 %) el
índice continúa siendo no ponderado. Continuando con el ejemplo anterior,
supóngase que uno de los indicadores de la dimensión social sea el nivel de
instrucción formal alcanzado y se ha decidido asignarle una participación del 30 %;
en ese caso se lo está ponderando. Entonces, los puntajes mínimo y máximo serán
de 0 y 30, respectivamente. Luego –si se desea que la distribución sea equitativa–, a
los efectos de asignar el resto de los valores se aplica la siguiente fórmula:

Puntaje máximo asignado al indicador


Cantidad de categorías – 1

En nuestro ejemplo: 30 = 3
10

Indicador: nivel de instrucción Puntaje de índice


(30 %)
Sin instrucción 0
Primario incompleto 3
Primario completo 6
Secundario incompleto 9
Secundario completo 12
Terciario (no universitario) incompleto 15
Universitario incompleto 18
Terciario completo 21
Universitario completo 24
Postgrado incompleto 27
Postgrado completo 30

Si bien no es el caso del ejemplo, puede ocurrir que cuando se trabaje con
puntajes redondos (sin decimales) por efecto del mismo redondeo, la distribución de los
mismos no sea proporcional; en ese caso se estaría ponderando (aunque levemente) a
alguna categoría en relación con las restantes. También puede desearse ex profeso
ponderar alguna categoría.
Otra alternativa –que para ciertas variables es la más aconsejable–, es comenzar
ponderando los indicadores en lugar de las dimensiones. Para esos casos, conviene
ordenar los indicadores (independientemente de la dimensión a la que pertenezcan) por
orden de importancia y luego distribuir los puntajes por indicador según el orden
asignado. El mérito de esta alternativa es que permite una ponderación de los
indicadores en forma más acertada ya que se están comparando todos los indicadores
entre sí. De este modo, la participación de cada dimensión se conocerá al final y será el
producto de la suma de los pesos relativos de sus indicadores.

82
3. El tercer paso es construir la versión definitiva del índice estableciendo los límites
numéricos o la amplitud de cada categoría de la variable compleja. A tal efecto, existen
diferentes criterios:
3.1. El criterio matemático que podrá ser o no igualitario, de acuerdo a si la amplitud es
o no la misma para todas las categorías. Básicamente consiste en aplicar la fórmula
siguiente:

Amplitud de categoría = Límite superior – Límite inferior + 1


Nº de categorías de la variable compleja

El límite superior (para los índices porcentuales será siempre 100), está dado por
la sumatoria de los mayores puntajes asignados a cada indicador. El límite inferior (0
para los porcentuales), surge de la sumatoria de los menores puntajes adjudicado a cada
indicador.
La unidad que se agrega (+ 1) es a los efectos de garantizar que se tenga en
cuenta que al límite inferior hay que contarlo como un valor posible; es decir, como una
posición más dentro de la amplitud de la variable. Volviendo al ejemplo del nivel
socioeconómico (bajo / medio / alto) y aplicando la fórmula anterior, se obtendrá:

100 – 0 + 1 = 33,66
3

Bajo: 0 - 32,66
Nivel socioeconómico Medio: 32,67 - 66,33
Alto: 66,34 - 100

Gráficamente, representado en una escala:

0 32,66 / 32,67 66,33 / 66,34 100


NSE bajo medio alto

Redondeando los valores:

0 32 / 33 67 / 68 100
NSE bajo medio alto

Al respecto de esto último, algunas consideraciones:


 No hay que olvidarse de respetar uno de los criterios que rigen la categorización de
cualquier variable: la exclusividad; por tal motivo, los límites de las categorías no
deben superponerse.
 En el ejemplo de la escala con los valores redondeados, se puede apreciar
claramente que la categoría “bajo” tiene una amplitud de 33 si se cuenta también –
como más arriba se indicó– el cero, que es uno de los puntajes/posiciones posibles.

83
 En el mismo ejemplo –y en este caso, en forma arbitraria–, a la categoría “medio”
se le ha asignado una amplitud mayor (35 puntos) si –continuando con la lógica
anterior–, se cuentan los valores 33 y 67. Con otras palabras, se ha ampliado la
amplitud del estrato medio ex profeso en desmedro de los estratos bajo y alto, pero
bien, podría haberse procedido ampliando los extremos en detrimento del centro o
haber repartido los dos puntos sobrantes (101 % 3 = 33 y restan 2) con cualquier
otra combinación.
 Si se suman las tres amplitudes (33, 35 y 33) se obtiene la cifra total (101) que es el
campo cuantitativo de variación (amplitud) de la variable compleja.
3.2. El criterio empírico o estadístico, que a su vez reconoce dos alternativas:
Al igual que el anterior, determinar los rangos a priori, según parámetros
conocidos o estadísticos proporcionados por otras investigaciones.
Establecer los intervalos a posteriori, en función de cómo haya sido la
distribución de los puntajes obtenida en la muestra analizada, tomando por
ejemplo los puntos de “inflexión” o “quiebres” en la distribución de las
frecuencias.
Para terminar con el tema de las variables complejas, unos últimos comentarios:
 En algunos trabajos (por ejemplo el ya citado de la Asociación Argentina de
Marketing) se puede observar que se llama “índice” a lo que aquí se ha denominado
“variable” y, a su vez, “variable” a lo que se ha designado “dimensión o
subvariable”. En principio, la diferencia no es conceptual sino simplemente
terminológica. De hecho las dimensiones también son variables al igual que lo que
ocurre con los indicadores –aunque con diferentes niveles de abstracción–. Y por lo
tanto, cualquiera de ellos puede ser empleado –y en muchos casos es aconsejable
hacerlo–, como variables “sueltas” o “aisladas” de la variable “madre” a la que
pertenecen.
 Con respecto a esto último, es importante señalar que los índices –como ya se dijo–,
sintetizan las variables pero a veces se hace necesario trabajar con sus dimensiones
o indicadores por separado; por ejemplo para detectar puntos fuertes y débiles de las
variables en cuestión o incluso cruzándolos en el análisis con la propia variable
compleja.
 Continuando con lo anterior, hay que acotar que no siempre existe correlación o
asociación positiva entre los distintos indicadores de la variable compleja. Por
ejemplo, no siempre quienes poseen un mayor nivel de instrucción perciben un
mejor salario. De ahí también la importancia de la ponderación.
 Otra cuestión a tener en cuenta es que no necesariamente el índice o mejor dicho los
indicadores, reflejan la situación presente de los sujetos estudiados. Un caso
“paradigmático” y en cierta medida crítico hacia la construcción de este instrumento
de medición es nuevamente la variable nivel socioeconómico. Uno de los
indicadores que se suelen tomar para medir la dimensión económica es la
“composición patrimonial” desglosada a su vez, en la posesión de diferentes bienes
(vivienda, automóvil, freezer, aire acondicionado, etc.). pero estos indicadores bien
pueden reflejar una situación pretérita que no se condiga con la actual, o bien su
estado puede estar “deteriorado”, o bien pude tratarse de bienes en “desuso”.

84
 Otro tema es resolver la falta de respuesta (NS/NC). Si la ausencia o rechazo
excede el aproximadamente 10 % de los casos, lo aconsejable es eliminar o
reemplazar el indicador por otro (a tal fin, bien sirve el pretest). En caso contrario,
dicha ausencia de respuesta puede ser estimada –con los riesgos consabidos–,
“promediando” las respuestas obtenidas para otros indicadores afines.
 Además, la operacionalización (y por ende, los indicadores) debe adaptarse a las
características de la población, al contexto, a los objetivos de la investigación y en
general, debe tener en cuenta la mayoría de los factores mencionados cuando se
analizó la categorización de las variables. Dado que no es lo mismo medir el nivel
socioeconómico en una población urbana que en una población rural y, menos aún,
si la idea es comparar luego ambas mediciones.

6. Validez y confiabilidad de las mediciones

En páginas anteriores cuando se comenzó a analizar la problemática de la


operacionalización se pudo comprobar cómo frente a una misma variable (simple al
principio) existía la posibilidad de usar diferentes indicadores en forma alternativa y en
general, ninguno de ellos lo hacía en forma totalmente satisfactoria. Esto es así porque
ningún indicador garantiza la total y absoluta certeza sino que por el contrario, todo
indicador tiene una determinada probabilidad de medir la variable en cuestión. Sin
embargo, dicha probabilidad varía según cuál sea el o los indicadores que se utilicen.
De esto se desprende, que existen referentes empíricos y/o instrumentos de medición
que son más válidos y más confiables que otros38.
En términos generales, un indicador es válido cuando mide lo que afirma medir;
es decir, cuando cumple con su cometido o con la función que se espera de él. A los
efectos de analizar dicha validez hay que distinguir entre:

Validez interna, teórica o lógica: existe validez interna cuando hay una adecuada
conceptualización y operacionalización de la variable y – obviamente, además–, hay
correspondencia entre ambas. Con otras palabras, cuando la definición operacional
contempla y cubre todos los aspectos mencionados en la definición real o
conceptual.

Gráficamente:

Representación de la conceptualización...

Representación de la operacionalización...

38
Para el desarrollo de este tema se ha seguido parcialmente a Zetterberg, 1981.

85
Representación de la validez perfecta...

Representaciones de invalidez o validez imperfecta...

a) b) c)

a) el o los indicadores miden parcialmente a la variable; la conceptualización es más


amplia que la operacionalización. Supóngase que se pretende medir el nivel
socioeconómico empleando como único indicador el nivel de instrucción.

b) la operacionalización excede a la variable; se incluyen indicadores que no tienen


nada que ver con la variable. Por ejemplo, si se pretende medir el nivel de información
sobre el SIDA, además de indagar sobre formas de contagio se incluye la opinión sobre
las relaciones premaritales.

c) resulta una combinación de las anteriores; la operacionalización cubre parcialmente a


la variable y también mide aspectos ajenos a ella. Supóngase nuevamente que el
propósito es medir el nivel socioeconómico indagando sobre el nivel de instrucción y la
religión profesada.

Ahora bien, ¿cómo se establece si existe o no validez interna? Si bien ningún


procedimiento es infalible, dos ayudas son imprescindibles: revisión bibliográfica y
consulta a especialistas.

Validez externa, empírica o pragmática: se refiere básicamente a la confianza o


veracidad de la fuente de información; especialmente cuando se depende de
respuestas dadas por otros, hasta qué punto las mismas se ajustan a la realidad.
Sin entrar en el tratamiento de la problemática de las mentiras y de los controles
(por no ser el propósito del presente apartado) pero sí teniendo en cuenta la
distinción entre los juicios de valor (o de opinión) que no son verdaderos ni
falsos y en referencia a los juicios fácticos, se podría señalar que existen
distintas estrategias (aunque por cierto algunas son poco operativas): cotejar la
respuesta con los gestos del entrevistado o con el contexto en el que se halla
inserto; dejar pasar un tiempo y volver a interrogarlo; enviar a otro a que realice
las mismas indagaciones; buscar a una tercera persona que corrobore la
veracidad de las respuestas o chequear con otras fuentes alternativas; etc.

86
Por otra parte, un indicador o instrumento de medición es confiable cuando
administrado sucesivamente a una misma muestra o población –ya sea por el mismo
investigador o por investigadores diferentes–, y sin que hayan cambiado las condiciones
iniciales, reproduce los mismos resultados. Un ejemplo típico de instrumento no
confiable es el famoso centímetro de hule dado que con el uso o con el calor se estira
(dilata).
Dicho de otro modo, un indicador es confiable en la medida que provee de datos
o registros no ambiguos. El término confiabilidad involucra por lo menos, cuatro
medidas distintas (Zetterberg, 1981):
1. La congruencia de varios indicadores, es decir, la medida en que varios indicadores
miden la misma cosa.
2. La precisión de un instrumento (confiabilidad intra-personal): el indicador produce
registros consistentes para un observador.
3. La objetividad del instrumento (confiabilidad inter-personal): varios investigadores
obtienen los mismos resultados.
4. La constancia: el objeto medido no varía.
A los efectos de comprobar si hay confiabilidad también existen distintas
estrategias: volver a repetir la medición; administrársela a una muestra similar; utilizar
dos instrumentos en forma paralela, cotejar los resultados obtenidos con otras
estadísticas disponibles; etc.
Por último, hay que señalar que la confiabilidad es una condición para que exista
validez. Difícilmente un instrumento poco confiable resulte ser válido. Pero por otra
parte, de nada sirve que sea confiable si no se mide lo que se pretende medir.

7. Algunos ejemplos simbólicos

Los ejemplos que a continuación se desarrollan pretenden ser o, mejor dicho


son, “formas” (en el doble sentido) de diferentes modalidades de construcción de
índices. En un primer sentido se exponen a modo de ilustración y en un segundo
sentido, porque pueden ser “llenadas” o “completadas” con el contenido referido a
cualquier variable. Son algunas modalidades posibles (no todas) que presentan ventajas
y desventajas que habrá que evaluar en cada caso real.

 Ejemplo simbólico nº 1: se trata de la construcción de un índice simple no


ponderado; como se podrá observar las dimensiones (independientemente de cuál
sea su número) tienen la misma cantidad de indicadores con igual número de
categorías e idéntico puntaje, y por lo tanto no hay ningún tipo de ponderación (o
participación desigual). Al final se ofrecen dos escalas para tres categorías posibles
(podrían ser dos, cuatro, cinco o las necesarias) de la variable compleja: una con
decimales y otra con números enteros. Nótese con respecto a esto último, que los
números enteros no implican que sean un producto del redondeo de los anteriores
sino que –aplicando la fórmula correspondiente–, los puntos sobrantes de la división
se han adjudicado arbitrariamente (en todos los casos) a la categoría intermedia.

87
 Ejemplo simbólico nº 2: es el mismo índice pero en este caso ponderado: a nivel
dimensiones porque como se consigna, las cuatro tienen puntajes diferentes (7, 11, 2
y 4, respectivamente); a nivel indicadores porque a ellos también se les ha asignado
distintos pesos relativos (puntajes máximos) y a nivel categorías porque no sólo ha
aumentado su cantidad sino porque además tienen pesos diferentes. Esto último
puede prestarse a confusión dado que en principio las letras (que identifican a las
categorías) estarían recibiendo el mismo puntaje; sin embargo si se las reemplazara
por dos escalas ordinales iguales (por ejemplo: malo / regular / bueno y muy malo /
malo / regular / bueno / muy bueno), la posición “regular” en un caso recibiría 1
punto (letra B) y en el otro 2 puntos (letra C).

 Ejemplo simbólico nº 3: se trata de un índice porcentual no ponderado a nivel


dimensiones pero sí a nivel indicadores y categorías. Como se puede observar todas
las dimensiones tienen la misma participación (25 %) pero no ocurre lo mismo con
los indicadores que en algunos casos participan con el 8.33 % y en otros, con el 12.5
%. Lo mismo ocurre con las categorías: tómese la identificada con la letra “B” e
imagínese que equivaliera a “SI” en los casos de los indicadores dicotomizados; a
veces tendría una participación del 8.33 y otras, del 12.5.

 Ejemplo simbólico nº 4: es un índice porcentual no ponderado a nivel indicadores


pero sí a nivel dimensiones; en efecto, todos los indicadores tienen la misma
importancia (9.09 %) pero no sucede lo mismo con las dimensiones: en este caso la
D.3 estaría subrepresentada (18,18 contra 27.27 % de las restantes).

 Ejemplo simbólico nº 5: se trata de un índice porcentual ponderado en todo nivel.


Es uno de los casos más típicos dado que refleja especialmente que ni todas las
dimensiones tienen el mismo valor ni todos los indicadores tienen el mismo peso.
Pero al mismo tiempo, es el que requiere un mayor análisis y tal vez, tal como se
apuntó más arriba, para su ponderación sea aconsejable comenzar primero
ordenando los indicadores para luego asignarle la participación de acuerdo a su
importancia y por último y por sumatoria, calcular la participación de las diferentes
dimensiones. Al final se muestra como sería la escala para cinco categorías.

Por último, cabe señalar que a los efectos de simplificar las operaciones, es
recomendable trabajar con números enteros pero no tan sólo para definir los límites de
las categorías de la variable compleja sino también para distribuir los puntajes de las
categorías de los indicadores.

88
Ejemplo simbólico 1: INDICE SIMPLE NO PONDERADO

Dimensiones Indicadores Categorías Puntajes


A 0
1.1 B 1
C 2

A 0
D.1 1.2 B 1
C 2

A 0
1.3 B 1
C 2

A 0
2.1 B 1
C 2

A 0
D.2 2.2 B 1
C 2

A 0
2.3 B 1
C 2

A 0
3.1 B 1
C 2

A 0
D.3 3.2 B 1
C 2

A 0
3.3 B 1
C 2

0 5.33 / 5.34 11.67 / 11.68 18


Variable
Compleja categoría 1 categoría 2 categoría 3

0 5/6 12 / 13 18

Con nº enteros: categoría 1 categoría 2 categoría 3

89
Ejemplo simbólico 2: INDICE SIMPLE PONDERADO
-a nivel dimensiones, indicadores y categorías-

Dimensiones Indicadores Categorías Puntajes


A 0
1.1 B 1
C 2

A 0
D.1 B 1
(7 puntos) 1.2 C 2
D 3
E 4

1.3 A 0
B 1

A 0
2.1 B 1
C 2
D 3

A 0
B 1
D.2 C 2
(11 puntos) 2.2 D 3
E 4
F 5
G 6

A 0
2.3 B 1
C 2

3.1 A 0
B 1
D.3
(2 puntos) 3.2 A 0
B 1

A 0
4.1 B 1
C 2

D.4 4.2 A 0
(4 puntos) B 1

4.3 A 0
B 1

0 7.33 / 7.34 15.67 / 15.68 24


Variable
Compleja categoría 1 categoría 2 categoría 3

0 7/8 16 / 17 24

90
Ejemplo simbólico 3: INDICE PORCENTUAL NO PONDERADO
-a nivel dimensiones, pero sí a nivel indicadores y categorías-

Dimensiones Indicadores Categorías Puntajes


A 0
1.1 B 4.16
C 8.33

A 0
D.1 B 2.08
(25 %) 1.2 C 4.16
D 6.24
E 8.33

1.3 A 0
B 8.33

A 0
2.1 B 2.78
C 5.56
D 8.33

A 0
B 1.39
D.2 C 2.78
(25 %) 2.2 D 4.17
E 5.56
F 6.95
G 8.33

A 0
2.3 B 4.16
C 8.33

3.1 A 0
B 12.5
D.3
(25 %) 3.2 A 0
B 12.5

A 0
4.1 B 4.16
C 8.33

D.4 4.2 A 0
(25 %) B 8.33

4.3 A 0
B 8.33

0 32.66 / 32.67 66.33 / 66.34 100


Variable
Compleja categoría 1 categoría 2 categoría 3

0 32 / 33 67 / 68 100

91
Ejemplo simbólico 4: INDICE PORCENTUAL NO PONDERADO
-a nivel indicadores y categorías, pero sí a nivel dimensiones-

Dimensiones Indicadores Categorías Puntajes


A 0
1.1 B 4.55
(9.09 %) C 9.09

A 0
D.1 B 2.27
1.2 C 4.54
(9.09 %) D 6.81
E 9.09

1.3 A 0
(9.09 %) B 9.09

A 0
2.1 B 3.03
(9.09 %) C 6.06
D 9.09

A 0
B 1.51
D.2 C 3.02
2.2 D 4.54
(9.09 %) E 6.05
F 7.56
G 9.09

A 0
2.3 B 4.55
(9.09 %) C 9.09

3.1 A 0
(9.09 %) B 9.09
D.3
3.2 A 0
(9.09 %) B 9.09

A 0
4.1 B 4.54
(9.09 %) C 9.09

D.4 4.2 A 0
(9.09 %) B 9.09

4.3 A 0
(9.09 %) B 9.09

0 32.66 / 32.67 66.33 / 66.34 100


Variable
Compleja categoría 1 categoría 2 categoría 3

0 32 / 33 67 / 68 100

92
Ejemplo simbólico 5: INDICE PORCENTUAL PONDERADO
-a nivel dimensiones, indicadores y categorías-

Dimensiones Indicadores Categorías Puntajes


A 0
1.1 B 2.5
(5 %) C 5

A 0
D.1 B 5
(40 %) 1.2 C 10
(20 %) D 15
E 20

1.3 A 0
(15 %) B 15

A 0
2.1 B 2
(6 %) C 4
D 6

A 0
B 2
D.2 C 4
(20 %) 2.2 D 6
(12 %) E 8
F 10
G 12

A 0
2.3 B 1
(2 %) C 2

3.1 A 0
(10 %) B 10
D.3
(15 %) 3.2 A 0
(5 %) B 5

A 0
4.1 B 2.5
(5 %) C 5

D.4 4.2 A 0
(25 %) (10 %) B 10

4.3 A 0
(10 %) B 10

0 32 / 33 67 / 68 100
Variable categoría 1 categoría 2 categoría 3
Compleja
0 19/20 39/ 40 60/ 61 80 / 81 100
c.1 c.2 c.3 c.4 c.5

93
CAPÍTULO 6: INFORME SOBRE LA INVESTIGACIÓN
A MODO DE EJEMPLO (1º PARTE)

1. Introducción

El presente trabajo no es un Informe de Investigación sino un “Informe sobre la


Investigación” por medio del cual se pretende ilustrar a través de un ejemplo la
aplicación de la mayoría de los conceptos desarrollados y simultáneamente realizar
algunas reflexiones sobre su lógica y los procedimientos técnico-metodológicos
utilizados.
Se ha creído conveniente desglosarlo en dos partes para evitar que se
acumularan los conceptos y que aquel que haya seguido la lectura de los temas de
acuerdo a su orden de aparición, pueda refrescarlos y madurarlos conforme vaya
leyendo estas páginas.
Se ha seleccionado un “estudio” que el autor realizó finalizando la licenciatura
como parte de un trabajo práctico grupal para un seminario de investigación y se lo ha
escogido por diferentes motivos que se irán precisando a lo largo del desarrollo. Desde
ya vuelve a aclarar que el mismo no pretende ser un ejemplo de investigación científica
sino –y a lo sumo– de algunas “circunstancias y decisiones” propias de un proceso que
se realiza en el marco mencionado pero que bien pueden presentarse en cualquier tipo
de estudio.
Precisamente, la primera razón es que se necesitaba un “caso” que sin herir
“susceptibilidades” ni “intereses” (especialmente los propios) pudiera “mutilar”,
“criticar”, adaptar al análisis, “aggiornar” y “rehacer” sin tapujos de ningún tipo. Por
otra parte, lo he utilizado durante mucho tiempo –y continúo haciéndolo–, en el
ejercicio de la docencia al punto tal, que ya prácticamente no recuerdo cual fue su
versión original o si realmente lo hice como digo haberlo hecho. En segundo lugar,
quiero –con el mismo– hacer un expreso reconocimiento a los docentes que he tenido y
que impulsaron mi formación y a los innumerables alumnos que como yo en ese
entonces se “esfuerzan con placer” para sacar adelante “los trabajos prácticos de
investigación”. Además, hace unos años había estado leyendo un libro –interesante, por
cierto (Wainerman y Sautú, 1998)– en el cual tal vez me haya inspirado para llevar a
cabo el cometido que me propongo; la diferencia –salvando el resto de las distancias–,
es que en él los autores tratan casos reales mientras que en éste, se podría decir que es
“irreal” pero real en la medida en que existe como tal.
Ubiquémonos en los años ’70 del siglo pasado y –aunque parezca extraño, por
no ser ideológica/política–, en la problemática de las “Técnicas anticonceptivas” que
por aquel entonces su uso se hallaba en plena y reciente difusión.

2. La formulación del problema

La pregunta inicial en torno a la cual se fue desarrollando el trabajo era si existía


algún factor que “condicionara” la elección de la técnica, variable que luego se
transformó en “Grado de eficacia de la técnica anticonceptiva” (GETA) utilizada, tal

94
vez por los “temores” e “inseguridades” propios de la época (moderna) y por lo tanto,
de nosotros mismos y también para darle a esta variable una “cobertura teórica mayor”.
Nótese que la elección de la temática se desprendió de un problema general cotidiano en
el que se confrontaba el modelo real de las relaciones sexuales con los imperativos del
modelo normativo que “obligaba a tomar las precauciones del caso”. Pero si bien ese
fue el comienzo de la elección como se verá enseguida, la investigación fue tomando
por otros rumbos. También hay que advertir, que por lo menos en un principio el tema
no surgió desde la teoría sino desde la propia experiencia; sin embargo, las teorías
(porque hubo varias) fueron tomando cartas en el asunto; no obstante, por los menos en
los comienzos (etapa de descubrimiento, si se lo puede llamar así) el camino fue
inductivo y vivencial, dejándonos llevar más por los paradigmas primitivos que por los
técnicos (Lores Arnaiz, 1986), por los prejuicios que por los juicios.
Como “buenos” estudiantes de sociología la respuesta a la pregunta inicial tenía
que pasar por algún condicionamiento social y como no podía ser de otra manera tenía
que corresponder a la estructura social y más precisamente la posición que se ocupara
en ella; respuesta que por otra parte, refrendaban la mayoría de las teorías clásicas. Fue
así que se tomó como factor determinante a la clase social que hoy traducimos en el tan
mentado nivel socioeconómico (NSE). Precisamente, este es otro de los motivos por los
cuales he elegido esta problemática: la inclusión de esta variable que desde luego está
presente en la mayoría de las investigaciones sociológicas y a la que en breve haré
referencia.
De esta forma se delineó el objetivo general: estudiar la relación entre la eficacia
de la técnica anticonceptiva utilizada y el nivel socioeconómico. Por supuesto que
también los hubo particulares: analizar la incidencia del canal de información y del área
cultural de origen (ACO) en la elección de la técnica en cuestión. Debo decir al
respecto, que en aquel entonces en el aprendizaje de las corrientes estructural
funcionalistas argentinas uno de los autores de cabecera era Gino Germani, quien
además de haber sido el promotor de la sociología (carrera, instituto, etc.) en nuestro
país había sido uno sino el primero en realizar estudios empíricos sobre nuestra
estratificación y además del propio autor, circulaba el desarrollo de la dicotomía entre
las sociedades modernas y las tradicionales (Germani, 1977), de donde se dedujeron las
variables citadas en los objetivos particulares a los que se agregó la incidencia de la
edad y la cantidad de hijos. Como puede verse, las teorías “emergían espontáneamente”:
las marxistas con la problemáticas de las clases y las funcionalistas con su énfasis en la
modernización, y como “complemento” porque no se lo podía dejar afuera, estaba
Weber con su dimensión social y sus acciones racionales y tradicionales. En definitiva,
había marco teórico de sobra que ni siquiera hacía falta incluir en la revisión
bibliográfica que básicamente se redujo a la problemática de las diferentes formas de
anticoncepción y las distintas posturas “científicas” y no tan “científicas” al respecto.
Y sin embargo, también estaban los “prejuicios” pero en este caso referidos a las
propias técnicas o mejor dicho, a sus “usuarios efectivos”. Tal vez o casi con seguridad,
cuando se trató de realizar la tarea de “acotamiento” o delimitación, fueron los
prejuicios los que más influyeron. Fue así que se decidió trabajar exclusivamente con
mujeres porque se suponía que las técnicas eran “cosa de mujeres” y también se
“recortó” para evitar los “rechazos” y la incidencia de los “prejuicios” de las

95
involucradas, que éstas fuesen casadas o con parejas estables, las otras condiciones se
caían de maduro: tenían que estar en una “segura edad fértil” y utilizar habitualmente
alguna técnica anticonceptiva. Con respecto a este último requisito, surgieron algunas
“controversias”; básicamente la disyuntiva giraba en torno a la inclusión de las “no
usuarias habituales”, dado que en cualquiera de los casos –para significar la
información–, nos llevaría a discriminar entre “esporádicas y permanentes” y a
especificar los motivos (búsqueda de hijos, inconsciencia, ausencia de relaciones, etc.)
con el consecuente desvío de los objetivos que no apuntaban al “hábito de uso” sino al
tipo de técnica empleada. Por tales razones –discutibles, por cierto–, se decidió recortar
trabajando exclusivamente con las “practicantes” más allá de las dificultades –también
evaluadas–, que pudiesen surgir en la apertura del trabajo de campo.
En definitiva, estas fueron las principales “razones” que se tuvo en cuenta para
delimitar el campo de estudio de la problemática a la cual se le sumó la
contextualización geográfica: Cap/GBA.

3. Las hipótesis y sus variables

Considerando lo establecido por el marco teórico y de acuerdo a los objetivos


antes señalados, se formuló la siguiente hipótesis:
“En Cap/GBA, a medida que disminuye el NSE de las mujeres en edad fértil,
con pareja estable y que practican habitualmente alguna técnica anticonceptiva
disminuye la eficacia de la misma, incidiendo en dicha relación el área cultural de
origen, la edad, la cantidad de hijos y el canal de información utilizado”.
De acuerdo a lo oportunamente desarrollado, se pueden explicitar las siguientes
consideraciones:
Se trata de una hipótesis en principio descriptiva aunque con fuertes pretensiones de
llegar a explicar en términos probabilísticos la elección de la técnica. A este tema se
volverá en la segunda parte cuando se trate el tipo de diseño y el análisis de los datos.
Es una hipótesis multivariada que afirma entre sus términos principales una relación
directamente proporcional y asimétrica (a menor NSE menor grado de eficacia).
Es una hipótesis sustantiva o intermedia que se ha desprendido especialmente de la
proposición incluida y desarrollada en el marco teórico que sostiene que “las pautas de
comportamiento están determinadas por la posición que se ocupa en la estructura social”
o parafraseando a Bourdieu, las tomas de posición (elección de la técnica está
doblemente condicionada: por la disposición (habitus) que a su vez se halla determinada
por las posición que se ocupa en el espacio social.
Dejando a un lado las variables contextuales constantes utilizadas para la
delimitación de la investigación (Cap/GBA, Situación de pareja, edad fértil, práctica de
alguna prevención anticonceptiva), a continuación se presenta un cuadro en el cual se
identifican las diferentes variables con la especificación de sus correspondientes
naturaleza, función asignada y grado de complejidad.

96
Variables Naturaleza Función asignada Grado de
complejidad

ACO Cualitativa Contextual Compleja


comparativa (Tc)

Edad Cuantitativa cont. Antecedente (Ta) Simple

NSE Cualicuantitativa Independiente (X) Compleja

Canal de Cualitativa Interviniente (Ti) Simple


información

Cantidad de hijos Cuantitativa disc. Interviniente (Ti) Simple

GETA Cualitativa Dependiente (Y) Simple

4. La variable Nivel Socioeconómico

Como se apuntó anteriormente, esta es una de las variables que está presente en
la mayoría de los estudios teóricos y/o empíricos que incluyan el enfoque sociológico (e
incluso para aquellos que explícitamente no lo hagan) y cuya incidencia –más allá de
cualquier otra diferencia–, está debidamente avalada por casi todas las teorías sociales
(clásicas y contemporáneas). Desde luego que a los efectos de su conceptualización y
posterior instrumentación habrá que tener en cuenta el marco teórico de referencia. Por
otra parte y como también se ha dicho, su inclusión es otro de los motivos de la elección
de este ejemplo.
En primer lugar, vale para hacer una breve referencia a las dicotomías a las que
nos suelen enfrentar: inductivismo vs. deductivismo, empirismo vs. teoricismo,
subjetivismo vs. objetivismo, estructura vs. acción y otras de similares características.
 La mayoría de las investigaciones sociales “inductivas” (o así autodenominadas)
en la medida que la incorporen lo hacen “deduciéndola” –implícita o explícitamente
(con o sin hipótesis previas) – de algún marco teórico puesto que a esta altura ningún
investigador puede aducir su desconocimiento; incluso aquéllos que nieguen su
influencia actúan de la misma forma.
 Por supuesto, que existen otros estudios sociales (a nivel micro por ejemplo) y
no “tan sociales” (psicológicos, médicos, jurídicos, económicos, arquitectónicos,
epistemológicos, etc.) en donde decididamente no está presente. En tales casos quedaría
por discutir si dicha ausencia está justificada por no considerársela pertinente, porque no
corresponde a los objetivos, etc. En definitiva, y aun a riesgo de que se tilde esta postura
de “sociologista”, habría que discutir cuáles son los límites del objeto de estudio; o

97
dicho de un modo más concluyente, si existen realmente esos límites o se está
mutilando arbitrariamente el fenómeno estudiado.
 Cualquier práctica social (incluyendo las consideradas “individuales”, las
“subjetivas” y las “robinsonianas”) se produce dentro de un determinado contexto
socio-histórico-cultural que la condiciona y determina (y viceversa, pero en menor
medida) acotando los márgenes de “libertad” y “delineando su necesariedad”.
Nuevamente apelando a Bourdieu: los puntos de vistas son vistas tomadas desde algún
punto que a su vez ha sido internalizado socialmente de alguna manera.39
Dado la variedad de los enfoques teóricos (marxista, weberiano, funcionalista,
etc.) cuyas diferencias no serán abordadas por no ser el objeto del presente desarrollo
pero procurando una integración de los mismos, independientemente de cómo haya sido
tratado en la oportunidad del estudio de marras y a los efectos de posibilitar su uso en la
actualidad, se definirá al Nivel Socioeconómico por la posición relativa que el individuo
o el grupo familiar ocupa en el espacio social global. Esta posición representa las
condiciones de existencia reales y potenciales de acuerdo a los volúmenes de capital
(en especial económico, social y cultural) poseídos cuyas coordenadas permiten
estructurar el espacio social. Como su nombre lo indica a los efectos de su
operacionalización reconoce dos grandes dimensiones (por cierto íntimamente
relacionadas): la socio-cultural y la económica. Cuando se trate de estudiar grupos
familiares, cónyuges, hijos adolescentes o cualquier otro integrante a los fines de medir
los indicadores que remitan a atributos personales se tomará como referencia al
Principal Sostén, entendiéndose por tal a aquél (hombre o mujer) que en base a su
ocupación principal realiza el mayor aporte al presupuesto y economía familiar.
Para medir la dimensión socio-cultural se tomarán tres indicadores:
 El nivel de instrucción formal alcanzado.
 El dominio del idioma inglés (lectura, habla y escritura).
 El conocimiento básico de computación (manejo de paquete office).
Estos tres indicadores responden a la subdimensión educación. Si bien existen
otros indicadores (posesión de biblioteca, deporte habitual practicado, concurrencia a
espectáculos, etc.) se considera que son subordinados y/o derivados de la misma. Por
otra parte, la educación continúa conservando el carácter de condición necesaria
aunque no suficiente para acceder a otros tipos de capitales.
Para medir la dimensión económica se tomarán también tres indicadores:
 La ocupación principal
 La posesión de automóvil particular.
 Otros bienes y servicios.
La ocupación pertenece a la esfera productiva, se asocia a un nivel “esperable de
ingresos” y también supone prestigio/desprestigio aunque no en forma “correlativa” a
lo anterior. Por su parte, el automóvil y los otros bienes y servicios (posesión de PC,
aire acondicionado, freezer independiente, etc.) corresponden a la subdimensión
patrimonio. El automóvil para uso particular (no como bien de trabajo) en nuestro país
todavía es símbolo externo de “status”. El resto del patrimonio refleja no sólo el aporte
del principal sostén sino los aportes complementarios de otros miembros del núcleo
familiar. Por su parte, la inclusión de la conexión particular de WI FI permite no sólo
reemplazar a otros indicadores (notebook, netbook, cobertura médica privada, etc.) sino
también cubrir el “intercambio o capital social”. Todos ellos permiten estimar además
el nivel de ingresos, de consumo y de “inversión”. Al igual que para la dimensión
social, existen muchos otros indicadores económicos (vivienda, nivel de ingresos,

39
Bourdieu, Pierre: ver bibliografía general.

98
personal doméstico, lugar de veraneo, etc.) que podrían utilizarse. Algunos, como es el
caso de la vivienda y otras propiedades resulta de difícil categorización por todas las
modalidades que ofrecen (situación legal, metros cuadrados, tipo, categoría, valor de
mercado, lugar/barrio, etc), el nivel de ingresos por los rechazos y “tergiversaciones”
que suele generar y en general, están correlacionados positivamente con los
mencionados anteriormente tal como lo demuestran diferentes estudios realizados
(Asociación Argentina de Marketing, 1998).
Cabe agregar, que más allá de los motivos mencionados existen otros factores
que limitan el número de indicadores:
No se trata de llevar a cabo un estudio sobre la estratificación que requiera la
medición puntillosa de todos los aspectos y referentes.
El nivel socioeconómico no suele ser la única variable compleja y por lo general no
es la más importante en función de los objetivos del estudio.
Cada indicador (independientemente de cuál sea la variable en cuestión) supone una
observación o pregunta (y en algunos casos más de una) y el encuentro con el
observado o entrevistado tiene un límite, un tiempo que debe ser cuidadosamente
racionalizado.
En definitiva y para “recomponer” la variable se construirá un índice porcentual
ponderado. Con respecto a su categorización se han adoptado las clásicas alternativas
ordinales (Bajo / Medio / Alto) definiendo su amplitud de acuerdo al criterio
matemático proporcional. A continuación, se presentan las dimensiones con sus
respectivos indicadores, categorías, puntajes y ponderaciones.

DIMENSION SOCIO-CULTURAL: 40 %

Indicadores Categorías Puntaje


Sin instrucción 0
Primario incompleto 3
Primario completo 6
Secundario incompleto 9
Nivel de Instrucción Secundario completo 12
30 % Terciario incompleto 15
Universitario incompleto 18
Terciario completo 21
Universitario completo 26
Postgrado(Maestría/Doctorado) incompleto 28
Postgrado completo 30

Dominio de Inglés No 0
5% Si 5

Conocimiento computación No 0
5% Si 5

99
DIMENSION ECONOMICA: 60 %

Indicador OCUPACION PRINCIPAL: 40 %

Cuenta propia Puntaje Relación de dependencia Puntaje


No trabaja 0 Empleada doméstica 7
Rentista 20 Trabajador fliar. s/rem. fija 13
Autónomos: Obrero no calificado 9
Changarín 4 Obrero calificado 17
Otros trabajos no especializados 11 Técnico/capataz 23
Comerciante sin personal 18 Empleado público sin jerarquía 12
Técnico/artesano/trabajador esp. 24 Empleado privado sin jerarquía 17
Profesionales independientes 30 Jefe intermedio sector público 19
Otros autónomos 17 Jefe intermedio sector privado 24
Empleadores: Gerencia sector público 26
1 – 5 empleados 30 Gerencia sector privado 30
6 – 20 empleados 36 Alta Dirección sector público 28
21 y más empleados 40 Alta Dirección sector privado 37
Nota: a los desocupados/jubil./pens. se les asigna 2/3 puntaje de su ocupación anterior.

DIMENSION ECONOMICA (CONTINUACION)

Indicador Indicador
Automóvil particular: 12 % Puntaje Otros bienes y servicios: 8 % Puntaje
No tiene 0 Cantidad de bienes:
Hasta 100000 2 Ninguno 0
+100000 / 200000 4 Uno 2
+200000 / 300000 6 Dos 4
+300000 / 500000 8 Tres 6
+500000 / 1000000 10 Cuatro 8
+1000000 12
Nota: se registrará la marca, el modelo y el año Bienes y servicios: Freezer independiente,
y el valor estimado por el dueño. En caso de lavavajillas, conexión particular de WI FI,
dos o más autos registrar y sumar el valor cobertura médica privada.
total, previa consulta listado de precios. Para
autos de uso “semiprofesional” asignar 2/3.

Indice nivel socioeconómico

0 33 / 34 67 / 68 100
Bajo Medio Alto

También existen estas tres posibilidades:

100
0 14 / 15 29 / 30 44 / 45 58 / 59 72 / 73 86 / 87 100
E D C3 C2 C1 B A

0 29 / 30 58 / 59 100
DE C2/C3 ABC1

0 50/51 100
BAJO/MEDIO BAJO MEDIO NETO/ALTO

Para concluir con esta variable, algunos comentarios finales:

 Se ha construido un índice porcentual ponderado a nivel dimensiones,


indicadores y categorías.
 La mayor participación de la dimensión económica (60 %) pretende reflejar la
importancia que la misma tiene en la sociedad actual. Sin embargo, el peso dado a la
ocupación principal (40 %) por los fuertes componentes sociales (prestigio,
conocimientos, etc.) que la misma tiene permite compensar sobradamente lo anterior.
 Tanto la categorización de la variable como sus respectivos indicadores y
ponderaciones se pueden ajustar y/o reemplazar en función de las necesidades del
estudio en cuestión.
 No caben dudas que la misma es perfectible pero al mismo tiempo es necesario
señalar que son escasos los trabajos en donde se explicite la operacionalización de esta
variable en particular y de cualquiera en general. En tal caso, frente a la presentación de
un modelo alternativo habría que efectuar el análisis comparativo correspondiente.
 El índice de nivel socioeconómico elaborado por la Comisión de Investigación
de Mercado de la Asociación Argentina de Marketing que fuera terminado en 1996 y
que ha sido tomado parcialmente como referencia es el producto de varios años de
investigaciones básicas y aplicadas (aproximadamente siete) realizadas en nuestro país y
comparadas con las efectuadas en otros, en la que han participado colegas,
representantes de distintas empresas, agencias y consultoras. Ha tenido como principal
objetivo unificar los criterios metodológicos estandarizando el instrumento de medición
y por lo tanto merece todo mi reconocimiento y respeto.

5. Las otras variables del ejemplo

La variable edad fue categorizada mediante una escala intervalar ( hasta 25 / 26 a


35 / más de 35 años) y por lo general a los efectos de su medición, bastó con algún
observable directo que ni siquiera fue necesario preguntar. De manera similar ocurrió
con la cantidad de hijos –aunque en este caso, se efectivizó la pregunta–, que fue
categorizada en forma racional: ninguno / uno / dos / tres / cuatro o más.
Con respecto al Grado de eficacia de la técnica anticonceptiva (GETA) y al
Canal de información utilizado, también fueron tratados como variables simples. Para
la medición de la primera se agruparon las diferentes técnicas de acuerdo a su eficacia
estadísticamente comprobada, interrogando a la entrevistada por la que habitualmente
utilizaba mientras que para la segunda se le preguntaba por cómo se había informado de
la misma tal como se muestra a continuación:

101
Nivel de
Variables Medición Categorías Indicadores

Grado de Mínima Coito interrumpido, ogino knaus,


Eficacia de la profiláctico, cremas, jaleas, otras
técnica Ordinal caseras.
anticonceptiva
(GETA) Máxima Píldoras, diafragma, Diu (dispositivo
intrauterino).

Informal Consejos de amigos/fliares., revistas


Canal de no especializadas, decisión propia,
Información Nominal etc.
(C de I)
Especializado Consejos de especialistas: médicos,
ginecólogos, farmacéuticos, revistas
especializadas, etc.

La variable Área Cultural de Origen (ACO) fue conceptualizada como compleja.


Como se mencionó anteriormente, se tomó como marco teórico el desarrollado por Gino
Germani en su tipología de sociedades tradicionales y modernas del cual se extrajeron
las dimensiones y los indicadores construyéndose también un índice porcentual
ponderado. Si bien el mismo no será desarrollado, seguidamente se mencionan algunas
de las dimensiones con sus respectivos indicadores:

VARIABLE: AREA CULTURAL DE ORIGEN (Tradicional / Moderna)

Dimensiones Indicadores

Cantidad de hermanos.
FAMILIAR Cantidad de tíos maternos / paternos.
Generaciones integrantes del hogar de infancia (abuelos,
padres, tíos, primos, nietos, etc.).

EDUCACION Primaria (no hizo / escuela religiosa / escuela no religiosa).


Secundaria (ídem)

Bautismo, confirmación, comunión.


RELIGION Práctica religiosa (asistencia periódica a misa, hábito de

102
rezar, confesión, rosarios, etc.)

PENSAMIENTO Mitos.
MAGICO Supersticiones.
Amuletos.

Lugar de nacimiento/infancia (zona rural, pueblo, ciudades


ORIGEN s/nº de habitantes).
SOCIO ECONOMICO Ocupación del padre/madre (activ. primarias, secundarias,
terciarias).
Educación del padre/madre

6. Comentarios finales

Hasta aquí se han presentado las distintas variables con sus correspondientes
especificaciones conceptuales y técnico-metodológicas. He dejado para el final de esta
primer parte –ya conocido el contenido de las variables–, lo que pretende ser la
“lógica” del análisis inicial como intento de “reproducir” el “entramado” de los hechos
y fenómenos sociales que guió la investigación y que luego se reproducirá en el análisis
de los datos, una vez que los mismos hayan sido recogidos. Esta lógica o tal vez,
“racionalidad” excede la simple asignación de funciones a las variables y también
excede al típico “razonamiento lógico formal” (del tipo “todos los hombres son
mortales” o “todos los cisnes son blancos”) al que por supuesto, los hechos sociales no
obedecen ni aun en el caso que ellos mismos intentaran “justificarse”.
El razonamiento inicial transformado en cadena era el siguiente:

NSE bajo GETA mínima

C.I. inf.

Básicamente, el razonamiento señala que a un menor nivel socioeconómico


existiría la tendencia a elegir una técnica anticonceptiva de eficacia mínima Por otra
parte, a un menor NSE el canal de información acerca de qué técnica elegir sería
informal lo que redundaría reforzando la relación anterior, en la “recomendación” de
una técnica de bajo grado de eficacia.
Pero también había una hipótesis rival:

ACO tradicional GETA mínima

C.I. inf.

103
Aunque temporalmente se pueda inferir:

ACO tradicional NSE bajo

En efecto, el Área Cultural de Origen condiciona fuertemente tanto la elección


de la técnica como su “intermediación” el canal de información. Al respecto, cabe
señalar que una de las ventajas de utilizar variables contextuales comparativas es la de
integrar en un mismo concepto una multiplicidad de factores que por supuesto también
pueden actuar en forma “aislada” o “unilateralmente”. Me refiero por ejemplo a los
valores predominantes en las “sociedades tradicionales” (espirituales, religiosos,
supersticiosos, etc.) que si bien –tomados en forma separada–, constituirían per se
variables actitudinales o intervinientes, en este caso pasan a formar parte o a cumplir la
función de variables estructurales. Y son precisamente estas valoraciones tradicionales
las que condicionan la elección de la técnica. Basta mencionar al respecto, que si se
trata de valores religiosos difícilmente se podría optar por técnicas de eficacia máxima a
las que la Iglesia considera “abortivas”.
Por otra parte –y recuérdese que estamos en los años ’70 –, en aquel entonces las
técnicas de mayor eficacia recién comenzaban a difundirse en el interior del país y en
general en las zonas culturales más tradicionales que por su propia naturaleza e inercia
son reticentes a todo lo que supone cambio o “innovación tecnológica” como ser el uso
de píldoras, diafragmas o espirales Si a esto se le suma el escaso número de
profesionales y la dificultad “cultural” para su acceso, etc., entonces “necesariamente”
por “conexión tendencial” los canales tenían que ser informales y las estrategias
anticonceptivas de baja eficacia. La duda se suscitaba con respecto a la relación entre el
ACO y el NSE que tal como se apuntó más arriba, aunque más no sea por una cuestión
de orden temporal debía establecerse de la manera indicada. Pero a ello se le sumaba, el
hecho que las mujeres entrevistadas especialmente aquéllas que provinieran de las zonas
más tradicionales –por estar en su mayoría radicadas en el GBA–, habían migrado en
procura de un mejoramiento de su nivel socioeconómico, de donde se infería el
condicionamiento contextual.
Y todavía quedan dos variables (Edad y cantidad de hijos “CH”) cuya incidencia
fue “controversial” en el momento de especificar hipotéticamente la relación entre sus
categorías. No obstante, y dejando la dilucidación para más adelante, la alternativa
inicial a la que se “apostó” para mantener todas las categorías con el mismo “sentido”
fue:

EDAD menor C.H. menor GETA mínima

De esta manera, quedó hipotéticamente configurada la cadena “lógica” final con


sus múltiples relaciones manteniendo la misma categoría en cada variable:

104
ACO trad. NSE bajo C.I. informal

GETA mínima

EDAD menor C.H. menor

Para el resto, había que esperar la recogida y análisis de los datos. Pero eso es
tema de la segunda parte de este capítulo.

105
CAPÍTULO 7: EL UNIVERSO DE ESTUDIO Y LA SELECCIÓN DE LA
MUESTRA
S. Raquel Miguez

En todo esquema de investigación una vez que hemos resuelto las etapas
concernientes a la selección del tema, el planteo del problema, la definición de los
objetivos, las decisiones conceptuales y operacionales, debemos proceder a la
Determinación de las Unidades de Análisis, es decir, cuál es la población objeto de
estudio, sobre quiénes recae la investigación, para luego decidir con cuántos casos
vamos a trabajar: con la totalidad de esa población o sólo con una parte de la misma.
Este paso reviste especial importancia, dado que de la exactitud con que se
ejecuten las tareas que se especificarán más adelante, dependerán la calidad de la
información obtenida, las posibilidades de análisis de los datos y en definitiva, la
seriedad del estudio.
De hecho, aquellos que utilizan o simplemente analizan los resultados de
investigaciones realizadas por otros, como así también los evaluadores de proyectos de
investigación, de tesis de grado o postgrado, o candidatos a becas de investigación,
prestan especial atención a las decisiones tomadas en esta materia, dada la posibilidad
de cometer serios errores o de introducir sesgos que conducen a estafas científicas.
Dicho de otro modo, esta representa una de las etapas de la investigación donde puede
estar presente la manipulación de los procedimientos a los efectos de obtener ciertos
resultados, como se verá en breve.
Retomando la temática que nos ocupa, diremos que, dada la secuencia de los
pasos que estamos llevando a cabo, a esta altura de la investigación es posible que
algunas de estas cuestiones hayan sido resueltas en parte: concretamente en la
delimitación del tema y en el planteo de los objetivos. Es decir que, seguramente ya
hayamos establecido someramente cuál es nuestra población de estudio. No obstante,
corresponde proceder a la explicitación clara y concreta de una serie de componentes de
la investigación.
Comenzaremos refiriéndonos a los conceptos de Universo o Población.
Hablaremos de universo, para referirnos al total de elementos que se encuentran bajo
estudio. Está compuesto por todos aquellos elementos sobre los cuales puede recaer la
investigación, o sea, aquellos elementos que son alcanzados por variables que se
pretenden medir.
Existen diversas formas de dar cuenta o caracterizar un universo de estudio. Una
de ellas radica en la cantidad de elementos que lo componen. En este caso,
distinguiremos dos tipos:
Universos Finitos: aquellos que contienen hasta 100.000 unidades
Universos Infinitos: los que poseen más de 100.000 unidades

106
Por otra parte, y de acuerdo a las características que compartan o no sus
integrantes, el Universo será Homogéneo o Heterogéneo. Un universo homogéneo será
aquel que no presente diferencias significativas entre sus componentes; caso contrario,
el universo será heterogéneo. No obstante, ningún universo es a priori homogéneo o
heterogéneo. Ello depende de cómo se lo haya definido, de las variables a relevar y de
los objetivos de la investigación.
Probablemente el lector se pregunte por qué se deberían indicar o caracterizar
los universos según los dos criterios anteriores. La respuesta nos llevaría a extendernos
en una temática que no compete a este momento del proceso, pero que sí habrá que
tener en cuenta de modo anticipado, dado que estas descripciones que parecen de poca
importancia, en realidad condicionarán la factibilidad o no de aplicar ciertos análisis
estadísticos o al menos orientarán las decisiones sobre el análisis estadístico de datos.
Para cada investigación habrá que definir puntualmente cuál es el Universo
sobre el que recae y obviamente esta definición estará directamente relacionada con el
problema planteado y los objetivos de la investigación. La misma debe contener
información sobre las características esenciales de la población, así como también su
ubicación temporal y espacial, y posibles factores de exclusión e inclusión.
Por ejemplo:

1. Alumnos regulares de Universidades Públicas de la República


Argentina, sin distinción de carrera, que se encuentren cursando
materias durante el primer cuatrimestre del 2016 y que tengan
un mínimo de 15 materias aprobadas.
2. Abogados de ambos sexos con un mínimo de 5 años de
graduados, que ejercen su profesión sólo en la Capital Federal y
que tramiten causas en el Fuero Comercial.
3. Licenciados en Enfermería que se desempeñan sólo en el sector
público y en áreas críticas como son terapia intensiva y unidad
coronaria.
4. Tapa de los diarios Clarín y Nación publicados entre octubre y
diciembre de 2015.
5. Jóvenes, entre 18 y 30 años, de ambos sexos que asisten al
menos una vez al mes a fiestas electrónicas, en ámbitos
públicos.

Ahora bien, cada uno de los elementos que constituyen el universo o población
de estudio se denominan Unidades de Análisis, las cuales no son necesariamente
individuos; pueden ser grupos, empresas, edificios, hogares, viviendas, elementos
físicos, material publicitario, comercios de determinado rubro, artículos periodísticos,
etc.

U N ID AD E S d e análisis ind ivid uales


colectivas
d e información

107
Si bien la investigación persigue el objetivo de recabar información sobre
determinadas unidades de análisis, en algunas oportunidades ellas no son los elementos
últimos de los cuales se obtiene información. Podría ocurrir que las unidades de análisis
no sean quienes den testimonio de sí mismas, ya sea por tratarse de unidades colectivas
(empresas, sindicatos, escuelas, etc.), o porque por algún motivo no es posible tener
acceso a ellas en forma directa, o porque el objetivo de la investigación plantea la
obtención de información de fuentes indirectas, etc. En estos casos debemos recurrir a
Unidades de Información válidas que puedan manifestarse sobre las unidades de
análisis.
Como veremos en algunos ejemplos, en ocasiones las unidades de análisis y de
información recaen sobre la misma persona o elemento y en otras no. En el caso de los
alumnos regulares de la Universidad de Lomas de Zamora y de los abogados, ambos
roles pueden recaer sobre el mismo elemento.

U nid ad es d e a U nid ad es d e
análisis inform ación
A bogados A bogados

E ntonces: U .A . = U .I.

Es claro que las empresas metalúrgicas como tales no pueden proporcionar


información. Cuando nos encontramos ante este tipo de unidades de análisis, podemos
recurrir a unidades de información tales como el personal de la empresa.

U nid ad es d e U nid ad es d e
análisis inform ación
E m presas
E m pleados
m etalúrgicas

E ntonces: U .A . = U .I.

Una situación similar podría plantearse ante los adolescentes bajo tratamiento
por anorexia y los alumnos ingresantes de la universidad. En el primer caso las
unidades de información podrían ser los padres de dichos adolescentes o los
profesionales que los asisten (toda vez que se haya decidido no trabajar en forma directa
con los adolescentes); mientras que en el segundo podríamos recurrir a los docentes de
dichos alumnos.

108
U nid ad es d e U nid ad es d e U nid ad es d e U nid ad es d e
análisis inform ación análisis inform ación
A dolescentes A dolescentes A dolescentes P adres

E ntonces: U .A . = U .I. E ntonces: U .A . = U .I.

U n id a d es d e U n id a d es d e U n id a d es d e U n id a d es d e
a n á lisis in fo rm a ció n a n á lisis in fo rm a ció n
A lu m n o s A lu m n o s A lu m n o s
D o cen tes
in gresan tes in gresan tes in gresan tes

E n to n ces: U .A . = U .I. E n to n ces: U .A . = U .I.

Tal como se mencionara anteriormente, una vez definido el universo de estudio,


se debe decidir si se trabajará con la totalidad del mismo o si se tomará sólo una
porción.
Cuando se efectúa un relevamiento o medición sobre todos los elementos que
constituyen el Universo, estamos efectuando un CENSO. En cambio cuando sólo
tomamos una parte de dicho universo decimos que se ha tomado una MUESTRA.
Una muestra es un subconjunto del conjunto total o universo, que se presume
representativo, es decir que dicho subconjunto debe reflejar o reproducir lo más
exactamente posible las características del universo, especialmente en los casos donde la
finalidad es inferir los resultados o llegar a conclusiones sobre el comportamiento del
universo.
Pero deberíamos realizar una aclaración: en investigación empírica no siempre
se persigue el objetivo de inferir los resultados más allá de la muestra de la que se ha
tomado, es decir, sacar conclusiones sobre el comportamiento poblacional. Tal sería el
caso, de las investigaciones exploratorias.
Por otra parte, tal vez no esté de más detenernos un momento para aclarar,
aunque resulte obvio, qué entendemos por “muestra representativa”: si la misma se
extrae de un universo que incluye elementos con características peculiares o distintivas
y las mismas son relevantes a los efectos de la investigación, la muestra resultante debe
incluir dichos elementos en la misma proporción. La representatividad, como veremos
más adelante, dependerá entre otras cosas del tamaño de la muestra y de la técnica de
muestreo utilizada para la selección de los casos que formarán parte de la muestra. En
tal sentido, el muestreo probabilístico es el único que permite alcanzar este fin. A
diferencia del muestreo no probabilístico, éste requiere que cada elemento posea a priori
una probabilidad conocida y positiva de selección.
Entonces una muestra será una parte del universo de estudio que será sometida a
observación con la finalidad de alcanzar información respecto del universo del cual ha
sido extraída. Y es justamente la teoría del muestreo, que tomamos de la estadística, la

109
que nos provee de los procedimientos necesarios para efectuar el salto de
generalización, de la muestra al universo, con un determinado margen de error, tal cual
se verá en breve. Entonces, si los procedimientos efectuados para tomar la muestra han
sido correctos, los resultados obtenidos a partir de dicha muestra podrán ser extensivos
o válidos para el universo en cuestión.
Por ello toda vez que se opte por la extracción de una muestra, nos debemos
preguntar hasta qué punto la misma es representativa del universo, o sea hasta qué punto
se está contemplando (sobre todo en el caso de trabajar con universos heterogéneos) la
variedad de elementos que componen el universo o población.

En esta etapa de la investigación resultan fundamentales los aportes provenientes


del campo de la estadística, siendo ésta, una herramienta fundamental a la hora de
recolectar datos cuantificables, analizarlos y arribar a conclusiones.
Si bien no es el objetivo de estas páginas profundizar en esta materia, creemos
conveniente ofrecer una aproximación a los conceptos básicos que ella involucra. Esta
constituye una herramienta imprescindible a lo largo del proceso de investigación,
especialmente en la etapa que estamos atravesando y en la de análisis de datos. La
misma se divide en dos grandes ramas: la Estadística Descriptiva, cuyo propósito es
brindar los instrumentos necesarios para organizar y sintetizar las observaciones
obtenidas (distribución de frecuencias, distribución porcentual, moda, desviación típica,
etc.) y la Estadística Inferencial. Esta última, basándose en la teoría de las
probabilidades, tiene como objetivo fijar los procedimientos a través de los cuales es
posible inferir los resultados o características de una muestra sobre la población de la
cual ha sido extraída.
Supongamos que nuestra investigación tiene por objetivo determinar cuál es la
opinión de los alumnos de esta universidad sobre la enseñanza impartida. Si tomamos
una muestra de alumnos contemplando los preceptos de esta rama de la estadística, los
resultados obtenidos a partir de la muestra podrán hacerse extensivos al total de
alumnos o universo.
Los valores obtenidos a partir de una muestra (medidas resumen), se denominan
indicadores estadísticos o estadísticos y en función de ellos se estimarán los llamados
parámetros poblacionales:

x
donde por ejemplo: (minúscula) representa la media de la muestra y

X
(mayúscula) la Media de la Población

110
1. Ventajas y Desventajas en la Aplicación de los Censos y las Muestras

La principal ventaja de efectuar un censo radica en la confianza y exactitud en


los resultados que “supone” el hecho de trabajar con la totalidad de elementos que
componen el universo. Pese a ello existen casos en los que se ha comprobado una
mayor exactitud en los resultados utilizando una muestra, dado que en estudios
complejos y ante la presencia de universos numerosos entra en juego lo que más
adelante veremos bajo el nombre de “error no aleatorio” o error no muestral, cuya
incidencia no se puede calcular en términos estadísticos o matemáticos.
Censar universos numerosos o infinitos implica enfrentarnos con las siguientes
desventajas:

Es más costoso
Dificulta la realización de estudios profundos
Exige la movilización de muchos recursos (humanos y materiales)
El procesamiento de la información obtenida en el trabajo de campo
es prolongado lo cual lleva a extender los plazos para la presentación
de resultados definitivos (como es el caso de los censos de población
y vivienda).

Por su parte, trabajar con una muestra, implica las siguientes ventajas:

Es menos costosa que efectuar un censo


Permite realizar estudios profundos
Obviamente supone un ahorro de tiempo (ya sea en la etapa de
trabajo de campo como en la de procesamiento) que permite arribar a
resultados mucho más rápido.

Pero paralelamente correremos con la siguiente desventaja: tomar una muestra


y en especial si se pretende que la misma sea representativa, nos llevará a optar por
diseños muestrales muchas veces complejos. La complejidad del diseño muestral puede
llevar a la necesidad de contratar un especialista en la materia. No olvidemos que los
errores cometidos en esta etapa pueden introducir sesgos en la investigación que
afectarán seriamente sus resultados pese a que los pasos restantes hayan sido correctos.
En muchas oportunidades la decisión de efectuar un censo o tomar una muestra
depende del tamaño del universo ya que en universos pequeños lo correcto es trabajar
con la totalidad de los casos. Pero no debemos olvidar que la investigación es un
proceso que contempla una serie de pasos sucesivos e interrelacionados de ejecución,
de modo que las decisiones que tomemos en esta etapa estarán íntimamente
relacionadas con el tipo de investigación que estemos llevando a cabo.

111
2. Diseño de la Muestra

En el caso de no efectuar un censo, debemos proceder al diseño de la muestra.


Dicho diseño incluye:

1. Definir la población de estudio.


2. Obtener, de ser necesario, el marco muestral pertinente.
3. Escoger la técnica de muestreo adecuada o viable para esa investigación,
conforme la cual se seleccionarán los casos de dicha población que
formarán parte de la muestra y resolver todas las cuestiones operativas
relativas a los puntos muestrales, estrategias de sustitución o reemplazo en
caso de no efectivizarse el contacto, etc.
4. Tomar decisiones sobre el error estadístico y el tamaño de la muestra con
el que se trabajará.

2.1. Marco Muestral

El marco muestral o base de la muestra está compuesto por una serie de datos
secundarios o características (que generalmente se presenta en forma de listado) de los
elementos que componen nuestro universo y que permitirán su identificación.
Representa una herramienta fundamental para la aplicación de las técnicas de muestreo
que veremos más adelante, especialmente en el caso de las muestras probabilísticas.
O sea que el marco muestral debe contener la información necesaria para la
identificación de las unidades de análisis y su correcta selección. Si nuestro universo o
población estuviera compuesto por la totalidad de alumnos de una facultad, el marco
muestral podría contener, por ejemplo, la siguiente información: nombre y apellido,
legajo, carrera cursada, año de ingreso en la universidad, edad, sexo, teléfono, etc.
Ahora bien, anteriormente definimos al Universo o población de estudio como al
conjunto de elementos sobre los cuales recae la investigación. En términos del marco
muestral, debemos hacer una nueva distinción: existe un “universo general o teórico”
sobre el cual se desean generalizar los resultados de la investigación y en tal sentido se
trataría de una población abstracta; y un “universo de trabajo o empírico” del cual se
extrae concretamente la muestra (la totalidad de elementos contenidos en el marco
muestral). En tal sentido, el marco muestral es la herramienta que permite la
identificación concreta de las unidades de análisis.
Podría ocurrir que nuestro marco muestral no abarque o no cubra totalmente al
universo teórico (presentándose así un desvío entre el universo teórico y el de trabajo).
Todo listado puede estar sujeto a una serie de inconvenientes, como pueden ser las
omisiones o excesos por falta de actualización denominados “fallos o errores de
cobertura”. Por tal motivo y ateniéndonos al rigor metodológico que una investigación
debe contener, toda vez que se efectúen inferencias a partir de una muestra deberá
indicarse si la misma se efectúa sobre el universo teórico o el de trabajo.

112
Una vez obtenido el marco muestral debemos someterlo a examen previo a su
utilización para detectar las posibles deficiencias y, en caso de ser posible, actualizarlo o
depurarlo.
Si obtuviéramos un listado de los alumnos, en función del cual se tomará una
muestra, deberíamos chequear, en primera instancia, cuántos de esos alumnos realmente
continúan en la facultad, cuántos figuran en el listado habiendo finalizado o
abandonado su carrera, etc.
Lo mismo sucedería si deseáramos administrar una encuesta telefónica en
determinada ciudad. Nuestro primer impulso sería utilizar como marco muestral la guía
telefónica de dicha ciudad, pero este procedimiento suele presentar los siguientes
inconvenientes: existen personas que abonan a las empresas telefónicas para no figurar
en guía; otras nunca han efectuado el cambio de titularidad de la línea, otras poseen más
de un número de teléfono (hecho que aumentaría su probabilidad de selección, etc.

3. Tipos de Muestreo

Para tratar el tema de distintos tipos de muestras seguiremos la siguiente


clasificación, teniendo en cuenta que en el desarrollo de una investigación es posible
combinar distintas técnicas:

113
P R E D IS P U E S T A S /
SESGAD AS

A ccidentales,
N O P R E D IS P U E S T A S N o P rob ab ilísticas casuales o
erráticas
Intencionales,
M razonadas o
dirigidas
C uotas no
U P or C uotas
proporcionales
C uotas
E
proporcionales

S B ola de N ieve

R P rob ab ilísticas A zar S im ple

A A zar S istem ático

A zar
S N o proporcional
E stratificado

P roporcional

A zar por
C onglom erados

M IX T A S

Hablamos de muestras predispuestas toda vez que los resultados de la


investigación son una consecuencia del procedimiento de muestreo. También se las
llama muestras sesgadas, muestras contaminadas o precientíficas. Tal sería el caso
si a la hora de poner a prueba una hipótesis sobre la discriminación de la población
Argentina hacia los homosexuales sólo consultáramos a los miembros de alguna
asociación que los agrupe. Lo mismo ocurriría si al querer recabar información sobre la
opinión de los trabajadores sobre las medidas tomadas por el gobierno respecto al
manejo de los fondos de las obras sociales sólo interrogáramos a los dirigentes
sindicales. O si a la hora de realizar un estudio de opinión pública sobre la Ley de
Muerte Digna, nos limitáramos a consultar sólo a practicantes activos de una
determinada religión. Estas consideraciones nos remiten nuevamente al peligro de
manipulación de los datos, esta vez, producto de los procedimientos muestrales.
Por su parte, las muestras no predispuestas carecen de este sesgo y en función
de la técnica finalmente seleccionada, se obtendrá información con una mayor o menor
exactitud, pero no se condicionarán los resultados a priori.

114
Desarrollaremos las distintas técnicas de muestreo en forma independiente, sin
perder de vista que en algunas ocasiones se presentan diseños muestrales que combinan
distintas técnicas, dando lugar al muestreo mixto o combinado. Dicha combinación
puede efectuarse ya sea entre el mismo tipo de técnicas (por ejemplo utilizando más de
una técnica probabilísticas) o bien utilizando en forma complementaria técnicas
probabilísticas y no probabilísticas desde el inicio de la selección hasta llegar a las
unidades últimas de muestreo.

3.1. Características de las Muestras No Probabilísticas

Dentro de las muestras no predispuestas, las muestras no probabilísticas son las


que utilizan procedimientos más sencillos de selección de los individuos que formarán
parte de la misma. Pero paralelamente, ofrecen escasas posibilidades de generalización.
Es decir, no se podrán estimar parámetros poblacionales. Entre las particularidades
distintivas de estas muestras, podemos mencionar las siguientes:

Son menos costosas.


No se conoce la probabilidad de cada unidad de análisis de participar en la
muestra.
No requieren, salvo en el caso de las muestras por cuotas, el conocimiento
previo de las características del universo.
No requieren tener identificadas previamente a las unidades de análisis
No requieren la existencia de un marco muestral.
Son menos representativas.
Trabajan con un error muestral desconocido.
Los resultados obtenidos a partir de ellas no se pueden inferir a una
población mayor.

3.2 Características de las Muestras Probabilísticas

Basadas en la teoría de las probabilidades, permiten conocer a priori cuál es la


probabilidad que tiene cada elemento de ser incluido en la muestra. Dicha teoría parte
de una formula básica que establece que la probabilidad de ocurrencia de un suceso es
igual al cociente entre el número de casos favorables y el número de casos posibles.

P = casos favorables
casos posibles

115
La probabilidad de ocurrencia de un fenómeno oscilará siempre entre 1 (certeza
absoluta de ocurrencia) y 0 (suceso imposible).
Por ejemplo, si tuviéramos una urna con diez bolillas numeradas del 1 al 10 y
quisiéramos saber qué probabilidad de extracción tiene la bolilla Nº 7, ésta estaría dada
por el siguiente cociente:
P (7) = 1
10

Antes de pasar a establecer cuál sería la probabilidad de extracción de otra


bolilla, se debe haber especificado si el procedimiento de extracción será con reposición
o sin ella. Es decir, si una vez extraída la primera bolilla ésta volverá al bolillero o no.
Si se opta por la segunda alternativa, la probabilidad de extracción de una segunda
bolilla, por ejemplo la Nº 5 será 1 en 9.

P (5) = 1
9

Después de cada extracción (sin reposición) la probabilidad de cada elemento


de ser seleccionado aumentará.
Si tuviéramos un bolillero con 3 bolillas rojas, 2 negras, 1 blanca y 6 azules, la
probabilidad de que la extracción de una bolilla roja estaría dada por:

P (B roja) = 3
12

Continuando con las características de estas muestras diremos que:

Cada de elemento tiene una probabilidad conocida de ser incluida en la


muestra.
Requieren el conocimiento previo del universo y la identificación de las
unidades de análisis, por lo cual es necesario contar con un marco muestral
adecuado.
Son más costosas.
Tienen un basamento estadístico matemático que contribuye a su precisión.
Trabajan con un margen de error conocido, es decir, que se puede calcular
el error (estadístico o aleatorio) con el que se quiere trabajar.
A partir de los resultados obtenidos es posible estimar parámetros
poblacionales.

Es importante tener en cuenta que a la hora de decidir cuál es el tipo de muestra


más apropiada (probabilística o no probabilística) para nuestra investigación existen
una serie de factores a considerar:

El tipo de estudio en el que se encuadra la investigación: como se verá


más adelante, para cada tipo de estudio y debido a sus características y

116
objetivos, existe un tipo de muestreo más apropiado. En los estudios
exploratorios y cualitativos generalmente se utilizan muestras no
probabilísticas, mientras que en los descriptivos, explicativos o en
aquellos en los que se pretende estimar parámetros poblacionales se
recurre al muestreo probabilístico.
La rigurosidad requerida en el estudio.
La posibilidad de contar o no con un marco muestral adecuado.
Los recursos económicos con que se cuenta en relación a la necesidad
de tamaños muestrales elevados.
Los recursos humanos con que se cuenta para efectuar el trabajo de
campo.
El tiempo estipulado para esta etapa de la investigación.

3.3. Técnicas de Muestreo No Probabilístico

Las muestras accidentales, casuales, o erráticas, son de obtención sencilla y


no requieren de personal extremadamente calificado. También se caracterizan por el
bajo costo. No obstante debemos resaltar que son las menos representativas.
El muestreo accidental consiste en seleccionar los primeros casos que tenemos a
la mano, sin que medie ningún criterio para su obtención. Este es el caso de las
encuestas callejeras, donde se detiene a los transeúntes y se les administra un
formulario.
En las muestras intencionales, razonadas, o dirigidas el procedimiento de
selección es establecido según el criterio del investigador, en función de aquellos casos
que se consideren típicos o característicos de la problemática a investigar, o sea que se
recurre a informantes clave. Lo antedicho no nos debe llevar a confundir esta técnica
con las muestras predispuestas. Nuestra investigación podría estar orientada a conocer la
opinión de la población sobre el estado de los servicios ferroviarios. La muestra sería
dirigida si a tal efecto nuestra muestra estuviera conformada por usuarios cotidianos de
tal transporte público. Mientras que la muestra sería predispuesta, por ejemplo, toda vez
que la misma estuviera compuesta únicamente por los usuarios del ramal eléctrico del
Ferrocarril Roca o por los usuarios del Tren de la Costa en busca de una opinión
favorable.
Muestreo de Bola de Nieve: en este caso la muestra se conforma
empíricamente. A partir de un primer contacto con elementos característicos de la
problemática a estudiar, ellos son los que brindan información sobre otros posibles
elementos, siendo una técnica que suma casos por derivación. Es decir que los primeros
entrevistados o encuestados son los que ofrecen información acerca de personas con las
mismas características a quienes se pueden contactar para el mismo estudio.
Cabe aclarar que esta estrategia es más bien recomendable o útil en estudios de
corte cualitativo.
Esta técnica es de suma utilidad, especialmente cuando el objeto de estudio está
constituido por elementos de difícil acceso o identificación, grupos minoritarios,
cerrados o marginales. Supongamos que nuestra población estuviera compuesta por

117
practicantes del Modelismo Ferroviario, quienes se dedican a reproducir en miniatura
trenes y sus ambientes o o adeptos a algún hobby exótico. Para ubicarlos deberíamos
indagar sobre la existencia de alguna sociedad que los nuclee. Una vez efectuado el
contacto (y una vez que dicha unidad de análisis nos ha brindado la información
necesaria según los objetivos de la investigación), le solicitaríamos que nos remita a
otras personas que reúnan sus características y así sucesivamente, hasta alcanzar el
denominado punto de saturación, donde se finaliza la inclusión de nuevos casos, dado
que la información se ha vuelto redundante o reiterativa y se presupone que incluir
nuevos casos ya no aportarían nueva información.
Otros ejemplos a los cuales aplicaría esta modalidad serían las siguientes
poblaciones de estudio: integrantes de algún culto religioso minoritario, portadores de
alguna enfermedad poco frecuente o integrantes de una corriente migratoria poco
habitual. Pero reconoceremos que estas localizaciones se ven facilitadas en la actualidad
con el avance de la tecnología, en el sentido de que las redes sociales, por ejemplo,
agilizan la posibilidad de dar con ciertas poblaciones de estudio que en otro momento
hubiera sido más complejo.
Por último, el muestreo por cuotas, puede considerarse una estrategia previa a
la implementación de las anteriores, que implica una mayor representatividad (dentro
de las técnicas no probabilísticas) especialmente al trabajar con universos heterogéneos.
Ellos se debe a que en una primera etapa de diseño, se apuntará a establecer una serie de
criterios que garanticen la presencia en la muestra de elementos de los diferentes
estratos o subgrupos que componen el universo.
Para seleccionar una muestra por cuotas, el primer paso será establecer en
función de qué variables se van a tomar las cuotas. O sea cuáles son las características
sobresalientes de esa población en términos de la investigación (por ejemplo variables
demográficas). Entonces vamos a clasificar el universo conforme una, dos o más
variables que se consideren significativas dentro del estudio.
Luego se calculará el tamaño de cada cuota, el cual podrá ser no proporcional
(por ejemplo estableciendo cuotas fijas) o proporcional, según si se pretende respetar
el peso que tiene cada cuota dentro del universo.
Una vez establecidas las cuotas, se le asignará a cada persona encargada del
trabajo de campo un determinado cupo a cubrir, especificando qué características deben
reunir los casos (en función de las variables tomadas para la segmentación de la
muestra).
La selección última de los elementos que conformarán la muestra corre por
cuenta del entrevistador o encuestador y podrá ser accidental o intencional, siempre y
cuando respete la cuota que le fue asignada. Pero como la selección de las unidades de
análisis queda finalmente a criterio del encuestador y para evitar los posibles sesgos que
esto podría introducir en la investigación, esta técnica de muestreo suele
complementarse con el llamado “muestreo de rutas aleatorias”. Por medio de él se
preestablece cuál ha de ser el recorrido o itinerario que debe seguir el encuestador y
cuáles serán los puntos muestrales.
Nuestra investigación podría girar en torno a la medición de algún fenómeno
entre el personal de una empresa. Si decidiéramos tomar una muestra por cuotas, el

118
primer paso consistiría en recurrir a la oficina de Recursos Humanos de dicha empresa
para obtener datos secundarios en función de los cuales poder clasificar al personal.
Generalmente las empresas cuentan con información sobre la distribución del personal
por cargo, departamento, etc. Una posibilidad sería clasificar a la población de estudio
por el sector en el que se desempeña. Supongamos que la empresa cuenta con 617
empleados, distribuidos de la siguiente manera:

C antid ad d e
A rea
p ersonal
G erencia 43

A dm inistración y
50
R ecursos H um anos

M aestranza 40

V entas y T esorería 45

S ervicio P ostventa 49

L ogística 40

F ábrica 350

T otal d e E m p lead os 617

Una vez obtenida esta información y si decidiéramos tomar una muestra de 140
casos por cuotas proporcionales, deberíamos establecer qué peso tiene cada Área sobre
el total de empleados, dado que en la muestra se deberá respetar la proporción de cada
una. La muestra quedaría conformada de la siguiente forma:

119
C u otas
C an tid ad d e % sob re el total d e
A rea p rop orcion ales -
p erson al em p lead os
casos a cu b rir
G erencia 43 7 10
A dm inistración y
50 9 11
R ecursos H um anos
M aestranza 40 6 8
V entas y T esorería 45 7 10
S ervicio P ostventa 49 8 11
Logística 40 6 8
F ábrica 350 57 81
T otal d e
617 100 140
E m p lead os

El área Gerencia cuenta con 43 empleados; ellos representan el 7% del personal,


de modo que en una muestra de 140 casos, si respetamos el peso que tiene este área
sobre el total de empleados, 10 de sus empleados integrarán la muestra.
Mientras que de no considerarse relevante para el estudio mantener en la
muestra la importancia de cada cuota, se tomarían cuotas no proporcionales, por
ejemplo 20 empleados por área.

C antid ad d e % sob re el total d e


A rea
p ersonal em p lead os

G erencia 43 20

A dm inistración y
50 20
R ecursos H um anos

M aestranza 40 20

V entas y T esorería 45 20

S ervicio P ostventa 49 20

L ogística 40 20

F ábrica 350 20

T otal d e E m p lead os 617 140

120
Recordemos que el criterio para establecer las cuotas debe relacionarse con los
objetivos de la investigación. Por tal motivo, generalmente se suele clasificar al
universo según todas las variables que resulten necesarias. En el ejemplo anterior,
podría sumarse una nueva variable, como podría ser el sexo de los empleados. Entonces
habría que determinar para cada cuota cómo se distribuye el personal conforme esta
variable.

3.4 Técnicas de Muestreo Probabilístico

Comenzaremos aclarando que la utilización del término azar, debe resignificarse


apartándose del sentido cotidiano que le atribuimos, cuando nos referimos a
“cualquiera”, al “primero que aparezca” o a un accidente. Aquí la palabra azar tiene
una connotación distinta: se emplea en sentido estadístico, el cual por poseer una
basamento matemático, dista de la casualidad o del hecho fortuito.
El Azar Simple requiere en primer lugar la obtención del correspondiente
marco muestral. Luego se procede a la identificación de las unidades de análisis,
asignándoles un número de orden. Posteriormente se recurre a algún procedimiento
aleatorio para seleccionar los casos que formarán parte de la muestra, tales como la
tabla de números aleatorios (ver anexo Nº 1) o el sorteo (para el cual existen en la
actualidad herramientas informáticas que lo facilitan). Entonces, se sortearán tantos
casos como lo requiera el tamaño de la muestra. Si bien existe una cantidad
preestablecida a cubrir (dado por el tamaño de la muestra) en el muestreo probabilístico
siempre es útil seleccionar mediante el mismo procedimiento un determinado número
de casos reservado exclusivamente para aquellas situaciones en las que sea necesario
reponer los elementos de la muestra (reposición o sustitución ante situaciones de
“caída del caso” por no efectivizarse el contacto)
Si nuestro universo está compuesto por los 3.000 trabajadores de una empresa
de telecomunicaciones Universo finito) y habiéndose fijado un margen de error de 3
% y un nivel de confianza de 2 el tamaño de la muestra debería ser de 811 casos (ver
anexo Nº 2). En este caso la probabilidad de extracción dada a cada empleado sería de
0,27, donde:

P = n P = 811 P = 0,27
N 3000

Un vez obtenido el marco muestral deberíamos asignarle un número de


identificación a cada empleado (del 1 al 3.000). A continuación y recurriendo a una
tabla de números aleatorios (ver anexo Nº 1) se tomarán a aquellos empleados que
efectivamente formarán parte de la muestra. En este caso se podría partir de la primer
columna, tomando los 4 últimos dígitos, desde la primera combinación de números y
en sentido descendente. Los empleados identificados con los números 2533, 2529,
0805, 2135, 0200, 0505, etc. hasta cubrir los 811 casos que integrarán la muestra.

121
Obsérvese que algunas celdas de la tabla de números aleatorios no han sido tenidas en
cuenta ya que la combinación resultante supera el número 3.000, que en este caso es el
total del universo (por ejemplo 4805, 8953, 9970, etc.).
La técnica de Azar Sistemático requiere nuevamente que los elementos que
conforman el universo estén identificados previamente y plasmados en un marco
muestral.
Esta técnica consiste en seleccionar los elementos a partir de una determinada
unidad de análisis extraída al azar y respetando un mismo intervalo en lo sucesivo para
las restantes. O sea que el primer elemento de la muestra se seleccionará al azar
(recurriendo al sorteo o a la tabla de números aleatorios).
Para la selección de los casos restantes, una posibilidad sería establecer un
intervalo fijo, por ejemplo un caso cada 20. Otra posibilidad para determinar el
intervalo, aunque en realidad es la más adecuada, sería tomar el cociente entre el total
del universo sobre el tamaño de la muestra o coeficiente de elevación. Entonces a partir
del primer elemento seleccionado por azar simple los restantes serán seleccionados
sumándole al mismo el coeficiente de elevación.
Por ejemplo:
Total del U niverso = 1000 = 10
M uestra 100

Entonces, se tomará un caso cada 10 hasta completar el tamaño de la muestra.

El Azar estratificado se utiliza cuando estamos ante la presencia de un universo


heterogéneo. Para recurrir a esta técnica no sólo debemos tener identificadas a las
unidades de análisis sino que también es necesario conocer sus características (por
ejemplo las sociodemográficas).
En un primer paso, se procederá a estratificar el universo conforme una, dos o
más variables que se suponen relevantes para la investigación y se identificarán las
unidades de análisis pertenecientes a cada estrato. O sea que el universo quedará
dividido en subgrupos (dentro de los cuales las unidades de análisis comparten ciertas
características) que deberán ser respetados en la muestra. Una vez establecidos los
estratos se procederá a la selección de los casos recurriendo nuevamente a la técnica de
azar simple o azar sistemático.
Al igual que en las muestras no probabilísticas por cuotas, dentro del azar
estratificado existen dos modalidades:
Azar estratificado Proporcional:
Azar estratificado No Proporcional

Estas se relacionan con la técnica de afijación muestral utilizada, es decir con el


procedimiento utilizado para distribuir el peso o la importancia de cada estrato en la
muestra. En este sentido hablaremos de afijación simple, cuando se le asigna un mismo

122
peso a cada estrato sin tener en cuenta las diferencias que puedan existir entre ellos; y
afijación proporcional, cuando en la muestra se respeta el peso relativo de cada estrato.
La técnica de Azar por conglomerados se utiliza cuando los casos a relevar se
encuentran distribuidos en áreas geográficas muy extensas. Esta técnica es de gran
utilidad cuando la unidad muestral no son individuos sino conjunto de individuos que
constituyen conglomerados (definidos como tales a los efectos de cada investigación).
Esta técnica lleva implícitas varias etapas a través de las cuales se van seleccionando (al
azar) desde unidades mayores, unidades intermedias, hasta llegar a los casos
específicos.

Por ejemplo, en un estudio sobre establecimientos educativos de la República


Argentina, la selección podría atravesar por las siguientes etapas:

País Provincias Distritos Escolares Escuelas

En un estudio efectuado por el Ministerio de Salud la selección de los


conglomerados, partiendo del país, podría seguir el siguiente camino:

Provincias Regiones Sanitarias Partidos Municipios


Hospitales

Si en otro caso nuestras unidades de análisis estuvieran distribuidas dentro de la


Capital Federal, el recorrido podría ser el siguiente:

Capital Federal Barrios Manzana Hogares

3.5 Muestreo de Rutas Aleatorias

Esta modalidad en realidad no representa una técnica en sí misma, sino un


procedimiento complementario de los muestreos probabilísticos y no probabilísticos.
Una vez establecida la técnica a utilizar, el muestreo de rutas se utilizará en la
selección de los casos efectivos que compondrán la muestra, es decir que se
preestablecerá el itinerario a seguir en el trabajo de campo. Por tal motivo el
prerrequisito primordial para su aplicación es la existencia de mapas o planos de la o las
zonas en las que se hallan distribuidos los casos.
Las rutas a seguir (plasmadas en una hoja de ruta que se entrega al personal
encargado del trabajo de campo) se eligen en forma aleatoria y deben estar
acompañadas de instrucciones precisas sobre los puntos de partida y finalización, tipos
de giros a realizar, tipo de edificios o viviendas que se tomarán, etc.

123
4. Errores Presentes en el Proceso de Investigación

Toda investigación está expuesta a dos fuentes fundamentales de errores. En este


sentido vamos a hablar de:

Error No Aleatorio o No Muestral


Error Aleatorio o Muestral

Dentro de los errores no aleatorios, es conveniente realizar la siguiente


diferenciación. Existen errores metodológicos que pueden originarse en cualquiera de
las etapas de la investigación, ya sea planteando los objetivos e hipótesis
incorrectamente, utilizando un sistema de categorías erróneo, optando por una técnica
de recolección de datos inapropiada, utilizando herramientas estadísticas incompatibles
con el tipo de datos que se desea analizar, etc.
Pero también existen errores operativos o tácticos, relacionados con cada una de
las fases prácticas de la investigación. Estos tienen que ver con fallas (generalmente
involuntarias) efectuadas por los distintos involucrados en la investigación. Entre otros
podemos citar: la mala administración de las preguntas de un formulario, errores a la
hora de plasmar una respuesta, errores en la postcodificación y procesamiento de datos,
etc.
La suma de estas deficiencias conducirá inevitablemente al fracaso de la
investigación, ya que los resultados obtenidos no serán confiables. Es por ello que jamás
habremos insistido suficientemente en los controles y revisiones de cada una de las
tareas que la investigación implica. Cabe resaltar el papel que cumplen en este sentido
la realización del pretest, la correcta capacitación del personal de campo, estrategias
para detectar posibles problemas de validez externa, la supervisión del trabajo de
campo, edición del material previo al procesamiento, etc.
Como ya se ha mencionado, cuando se ha decidido obtener información
tomando una muestra, el equipo de investigadores pretende que los resultados
obtenidos a partir de esa porción del universo reflejen lo más fielmente posible la
realidad del total del universo. El error muestral o aleatorio, refleja el nivel de desvío
entre dichos resultados muestrales y aquellos a los que se hubiera llegado efectuando un
censo. Vamos a definir al error muestral como el desvío o la diferencia que existe entre
los valores obtenidos en la muestra y los valores poblacionales.
En el cálculo del error (ver anexo Nº 4) intervienen los siguientes factores:

1. La técnica de muestreo seleccionada.


2. El tipo de universo: finito o infinito
3. El tamaño de la muestra a tomar: recordemos que el margen de error
disminuye a medida que aumenta el tamaño de la muestra.
4. El intervalo de confianza o nivel de confianza de la estimación muestral,
es decir: ¿qué probabilidad existe en que la estimación concuerde con la
realidad? El aumento en el intervalo de confianza implica un aumento en
el tamaño de la muestra y como consecuencia una disminución en el

124
margen de error Generalmente se trabaja con:
2 (sigma), que implica un 95,5 % de
probabilidad de exactitud en la estimación; o

3 (sigma), que implica un 99,7 % de


probabilidad de exactitud en la estimación.

5. El tipo de universo (homogéneo o heterogéneo): dado que la


heterogeneidad de elementos favorece el incremento del error. Esto
nuevamente disminuye al aumentar el tamaño de la muestra

5. Tamaño de la Muestra

Otra de las tareas inherentes al diseño de la muestra es el cálculo del tamaño de


la misma, es decir, cuántos casos la compondrán.
Entre los factores que intervienen en esta etapa encontramos:

1. La técnica de muestreo a utilizar (probabilístico o no probabilístico)


2. El error muestral con el que se desea trabajar. Cuanto mayor sea el tamaño de
la muestra, menor será el error y mayor será la exactitud a la hora de estimar
parámetros poblacionales
3. Las características del universo, es decir, si estamos ante la presencia de un
universo homogéneo o heterogéneo.
4. El intervalo de confianza o nivel de confianza de la estimación muestral.
5. Los recursos económicos, humanos y materiales disponibles.
6. El tiempo disponible para realizar toda la investigación y en especial el
trabajo de campo
7. El tratamiento que con posterioridad se le dará a los datos, ya que ciertos
análisis estadísticos exigen un mínimo de casos por cada categoría de las
variables relevadas; en este caso cobra importancia la cantidad de categorías
que se le asignaron a las variables; cuanto mayor sea la discriminación de los
sistemas de categorías, mayor deberá ser el tamaño de la muestra.

A ellos sumaremos unos breves comentarios:

Debemos tener en cuenta que cuanto más pequeña es la muestra menores son los
costos de la investigación, pero la probabilidad de error mayor. Lo ideal es
seleccionar una muestra de tamaño mínimo pero que a través de ella se logre un
máximo de precisión en los resultados.
Por otra parte en la muestras no probabilísticas se utilizan muestras más
reducidas que en las probabilísticas dado que no se pretende que la misma sea
representativa ni la estimación de parámetros.
Como se dijo anteriormente, toda muestra debe ser o intenta ser representativa
del universo del cual se extrae. Por eso, cuando el universo es heterogéneo el
tamaño de la muestra será mayor de modo de respetar la variedad de
componentes de dicho universo. Este requisito no será necesario si el universo o

125
población no presenta diferencias significativas entre sus unidades.

En cuanto al cálculo del tamaño de la muestra propiamente dicho una alternativa


sería despejar “n” (tamaño de la muestra) de la respectiva formula del error muestral
(ver anexos Nº 4 y 5) o bien recurrir a tablas indicativas (ver anexos Nº 2 y 3)
construidas en función de el tipo de universo (finito o infinito) y del nivel de confianza
(2 o 3 ).
Como se mencionó anteriormente no toda investigación tiene como objetivo la
generalización de resultados más allá de la muestra. Para estos casos y siguiendo a
Galtung, desarrollaremos una alternativa más sencilla para determinar el tamaño de la
muestra, partiendo de la base que es requisito de la misma (aunque no se pretenda
realizar inferencia alguna) que contenga una cantidad mínima de casos en función de las
relaciones presentes en la hipótesis.
En primer lugar debemos preguntarnos cuántas variables se quieren analizar
conjuntamente (2, 3 , 4 o más) y qué cantidad de categorías le hemos otorgado a cada
una, para luego construir un cuadro que contemple esta información. Supongamos que
las variables a relevar son: nivel de instrucción (con 8 categorías) y lugar de residencia
(con 4 categorías). El cuadro estaría conformado por 32 celdas, las cuales se deben
cubrir con 10 casos cada una. En este ejemplo necesitaremos 320 casos.

L ugar d e resid encia


C apital GBA GBA
N ivel d e Instrucción G B A S ur
F ederal N orte O este
P rim aria incom pleta o m enos 10 10 10 10

P rim aria com pleta 10 10 10 10

S ecundaria incom pleta 10 10 10 10

S ecundaria com pleta 10 10 10 10

T erciario incom pleto 10 10 10 10

U niversitario incom pleto 10 10 10 10

T erciario com pleto 10 10 10 10

U niversitario com pleto o m ás 10 10 10 10

80 80 80 80

Hasta aquí hemos tratado de exponer los conceptos fundamentales que implica
esta etapa de la investigación, sin la pretensión de dar un enfoque exhaustivo al tema.
Esperamos haber brindado las herramientas básicas para la toma de decisiones
en lo concerniente a la selección de las unidades de análisis, dado que cada técnica trae
aparejadas una serie de ventajas y desventajas y distintos niveles de complejidad.

126
También aspiramos a haber resaltado la importancia de este paso en relación a su
inevitable repercusión (favorable o desfavorable) sobre los resultados del estudio.
Por último queremos destacar nuevamente que para cada tipo de investigación
(según sus características y objetivos) habrá una técnica de muestreo más apropiada, sin
olvidar que también influirán los recursos económicos y humanos con que se cuenta,
como así también el tiempo estipulado para esta etapa en particular y para toda la
investigación en general.

127
ANEXO Nº 1 - EJEMPLO DE TABLA DE NUMEROS ALEATORIOS

10 09 73 25 33 76 52 01 35 86
37 54 20 48 04 64 89 47 42 96
08 42 26 89 53 19 64 50 93 03
99 01 90 25 29 09 37 67 07 15
12 80 79 99 70 80 15 73 61 47

66 06 57 47 17 34 07 27 68 50
31 06 01 08 05 45 57 18 24 06
85 26 97 76 02 02 05 16 56 92
63 57 33 21 35 05 32 54 70 48
73 79 64 57 53 03 52 96 47 78

98 52 01 77 67 14 90 56 86 07
11 80 50 54 31 39 80 82 77 32
83 45 29 96 34 06 28 89 80 83
88 68 54 02 00 86 50 75 84 01
99 59 46 73 48 87 51 76 49 69

65 48 11 76 74 17 46 85 09 50
80 12 43 56 35 17 72 70 80 15
74 35 09 98 17 77 40 27 72 14
69 91 62 68 03 66 25 22 91 48
09 89 32 05 05 14 22 56 85 14

91 49 91 45 23 68 47 92 76 86
80 33 69 45 98 26 94 03 08 58
44 10 48 19 49 85 15 74 79 54
12 55 07 37 42 11 10 00 20 40
63 60 64 93 29 16 50 53 44 84

61 19 69 04 46 26 45 74 77 74
15 47 44 52 66 95 27 07 99 53
94 55 72 85 73 67 89 75 43 87
42 48 11 62 13 97 34 40 87 21
23 52 37 83 17 73 20 88 98 37

04 49 35 24 94 75 25 63 38 23
00 54 99 76 54 64 05 18 81 59
35 96 31 53 07 26 89 90 93 54
59 80 80 83 91 43 42 72 68 42
46 05 88 52 36 01 39 09 22 86

32 17 90 05 97 87 37 92 52 41
69 23 46 14 06 20 11 74 52 04
19 56 54 14 30 01 75 87 53 79
45 15 51 49 38 19 47 60 72 46
94 86 43 19 94 36 16 81 08 51

128
ANEXO Nº 2 - EJEMPLO DE TABLA PARA LA DETERMINACION DEL
TAMAÑO DE LA MUESTRA (POBLACION FINITA) PARA
MARGENES DE ERROR DE 1, 2, 3, 4 Y 5 %, EN LA
HIPOTESIS DE p = 50 %

MARGEN DE CONFIANZA DEL 95,5 %

A m plitud de la m uestra según el m argen de error

A m plitud de
+ /- 1 % + /- 2 % + /- 3 % + /- 4 % + /- 5 % + /- 10 %
la població n
500 222 83

1000 385 286 91

1500 638 441 316 94

2000 714 476 333 95

2500 1250 769 500 345 96

3000 1364 811 517 353 97

3500 1458 843 530 359 97

4000 1538 870 541 364 98

4500 1607 891 549 367 98

5000 1667 909 556 370 98

6000 1765 938 566 375 98

7000 1842 949 574 378 99

8000 1905 976 580 381 99

9000 1957 989 584 383 99

10000 5000 2000 1000 588 385 99

15000 6000 2143 1034 600 390 99

20000 6667 2222 1053 606 392 100

25000 7143 2273 1064 610 394 100

50000 8333 2381 1087 617 394 100

100000 9091 2439 1099 621 398 100

> 10000 2500 1111 625 400 100

129
ANEXO Nº 3 - EJEMPLO DE TABLA PARA LA DETERMINACION DEL
TAMAÑO DE LA MUESTRA (POBLACION FINITA) PARA
MARGENES DE ERROR DE 1, 2, 3, 4 Y 5 %, EN LA
HIPOTESIS DE p = 50 %

MARGEN DE CONFIANZA DEL 99,7 %

A m plitud de la m uestra según el m argen de error

A m plitud de la población + /- 1 % + /- 2 % + /- 3 % + /- 4 % + /- 5 %

500

1000 474

1500 726 563

2000 826 621

2500 900 662

3000 1364 958 692

3500 1458 1003 716

4000 1539 1041 735

4500 1607 1071 750

5000 1667 1098 763

6000 2093 1765 1139 783

7000 3119 1842 1171 798

8000 3303 1905 1196 809

9000 3462 1957 1216 818

10000 3600 2000 1233 826

15000 4091 2143 1286 849

20000 4390 2222 1314 861

25000 11842 4592 2273 1331 869

50000 15517 5056 2381 1368 884

100000 18367 5325 2439 1387 892

> 22500 5625 2500 1406 900

130
ANEXO Nº 4 - FORMULAS GENERALES PARA EL CALCULO DEL
ERROR MUESTRAL (para Universos finitos o infinitos y según
se trate de muestras con desviación típica o muestras con
proporciones). 40

40
Fuente: Sierra Bravo, R. (1995). “Técnicas de Investigación Social”. Madrid. Ed. Paraninfo S.A.

131
ANEXO Nº 5 - FORMULAS PARA EL CALCULO DEL TAMAÑO DE LA
MUESTRA41

41
Fuente: Sierra Bravo, R op.cit

132
CAPÍTULO 8: EL DISEÑO DE LA ESTRATEGIA TÉCNICO
METODOLÓGICA42

1. Ejes polares clasificatorios

El trabajo de campo de cualquier investigación social empírica supone –entre


otras decisiones– la elección de la/s herramienta/s y su/s respectiva/s modalidad/es que
se van a utilizar para obtener la información necesaria que posibilite la construcción de
los datos.
Dicha elección va a depender de un conjunto de factores (éticos, ideológicos,
epistemológicos, teóricos) y también de los objetivos que, previamente, se hayan
definidos que –en última instancia– determinarán las observaciones (en un sentido
amplio) que deban realizarse.
En tal sentido, existen distintos pares polares –que admiten posiciones
intermedias– a tener en cuenta cuando llegue el momento de diseñar la estrategia
técnico-metodológica que se va emplear, tal como lo muestra siguiente figura:

Cuantitativa / cualitativa

Estructurada / no estructurada

Iterativa / no iterativa

Intrusiva / no intrusiva

No participante / participante

No encubierta / encubierta

Alienante / no alienante

Sin pretensiones de agotar esta problemática, a continuación se explicitan


algunas reflexiones sobre cada uno de estos ejes polares.

42
Tomado con algunas modificaciones de Pérez Lalanne, 2010.

133
Cuantitativa / cualitativa

Sin entrar en los pormenores que han sido o serán tratados en otros capítulos,
esta distinción obedece al tipo de dato que se piensa construir y al análisis al que,
posteriormente, se lo va a someter. Los dispositivos cuantitativos son aptos para la
producción de datos numéricos que permitan su tratamiento estadístico-matemático
(Zeisel, 1986); datos que terminarán siendo condensados en porcentajes y presentados
en cuadros y gráficos estadísticos. Por su parte, las estrategias cualitativas generan
datos textuales (Schwartz y Jacobs, 1984) –como por ejemplo, ocurre con los
testimonios brindados por los actores– que serán pasibles de ser reinterpretados o
resignificados por el investigador.
En términos generales –aunque, como se tratará en los apartados siguientes, ello
no siempre ocurre–, las herramientas cuantitativas se caracterizan por ser intrusivas, no
encubiertas, estructuradas, no participantes e iterativas mientras que lo contrario sucede
con los procedimientos cualitativos.

Estructurada / no estructurada

Aunque resulte una verdad de perogrullo, esta dicotomía responde al grado de


estructuración que tiene el instrumento con el cual se obtiene la información. De igual
modo, resulta un lugar común el reconocimiento de las técnicas cuantitativas como
estructuradas y lo contrario para las cualitativas. Es indudable que una mayor
estructuración posibilita una mayor sistematización y uniformidad de la información
obtenida que, a su vez, implica más confiabilidad y mejores posibilidades de
cuantificación y replicación.
En ese sentido, la encuesta suele ser reconocida como el paradigma de la
estructuración: preguntas con alternativas fijas de respuestas y formuladas en un orden
preestablecido.
Sin embargo, lo anterior amerita algunas objeciones. En primer lugar, porque la
encuesta admite distintas modalidades (autoadministrada, por ejemplo) donde el
ordenamiento de las preguntas no siempre está garantizado. En segundo lugar, debe
pensarse en la posibilidad de administrarla en forma coloquial, aproximándose a lo que
sería una entrevista estructurada o semiestructurada en la que hasta se alterarían tanto el
orden como las alternativas fijas (y leídas) de respuestas. En tercer lugar, algo similar
ocurre con ciertas “preguntas mixtas” que –aunque cerradas– se formulan como abiertas
para luego e interpretación mediante, optar por encasillar la respuesta en algunas de las
opciones preestablecidas.
Algo parecido aunque, tal vez, en menor medida, podría señalarse de la
entrevista a la que, por naturaleza, se la define como cualitativa. Sin embargo y sin dejar
de serlo, existen entrevistas que se caracterizan por ser estructuradas (como, por
ejemplo, sucede en una entrevista de selección de personal o en una psicotécnica) y
otras, que lisa y llanamente, se utilizan para administrar formularios con fines netamente

134
cuantitativos. Lo mismo podría decirse para la observación y el análisis de contenido
y/o discurso.
En definitiva, que una herramienta sea estructurada no necesariamente implica
que se la esté utilizando en un estudio cuantitativo. Sin embargo, las más de las veces
resulta ser de esa manera.

Iterativa / no iterativa

Se entiende que un instrumento es iterativo cuando admite que simultánea o


sucesivamente, por el mismo o por distintos especialistas, su administración pueda ser
replicada.
Precisamente, este es uno de los requisitos que con insistencia machacona ha
exigido el paradigma positivista y, al mismo tiempo, una de las principales banderas
enarboladas en su lucha contra su homónimo cualitativo en pos de una mayor
objetividad. En tal sentido, debe recordarse que uno de los tantos significados que tiene
el polisémico término “objetividad” es precisamente que se pueda replicar o reproducir
el estudio con el fin de comprobar la veracidad y confiabilidad de los resultados
obtenidos.
Y como no podía ser de otra manera, el ejemplar puesto como estandarte en esta
cruzada ha sido, nuevamente, la encuesta. Sin embargo, numerosos motivos existen para
convertir este manifiesto en un epitafio o, en el mejor de los casos, en una expresión de
deseos.
En términos generales y a muy grosso modo la encuesta (en cualquiera de sus
modalidades: administradas o autoadministradas) se define como un instrumento
intrusivo, altamente estructurado y cuantitativo de recolección de datos (según la
versión positivista) –por lo general aunque no necesariamente, por muestreo– para su
tratamiento estadístico en una situación de interacción verbal (escrita u oral).
Las encuestas sociológicas han sido caracterizadas, entre otras cosas, por la
siguiente perspectiva: se expone a un conjunto de sujetos (que son considerados
unidades de análisis) a estímulos homogéneos (las preguntas de los cuestionarios o
cédulas) en situaciones homogéneas y se registran las diferentes respuestas individuales
que se obtienen.
Uno de los supuestos en el que se funda esta estrategia es que las variaciones de
esas respuestas individuales proceden de los atributos sociales o, más precisamente,
biopsicosociales de los individuos, pues se considera que la situación en la que se
efectúa la medición es la misma para todos.
En un sentido estricto, teórico y abstracto, la metodología de la encuesta
presupone que la utilización del mismo formulario, cumplimentado con procedimientos
homogéneos, garantiza que las respuestas obtenidas son respuestas al mismo estímulo
en la misma situación. Sin embargo, resulta harto evidente que en un sentido algo más
amplio y pragmático, lo anterior difícilmente pueda cumplimentarse. Ello es así, por
múltiples razones que a continuación se expondrán.
En un trabajo anterior (Pérez Lalanne, 2004) se afirmó en primer lugar, que el
procedimiento de aplicación nunca resulta ser totalmente homogéneo dado que en la

135
mayoría de los estudios cuantitativos suelen participar más de un encuestador (con
diferentes actitudes, aptitudes, experiencia, instrucciones, etc.) pero aunque así no
sucediera, igualmente ese único encuestador, por numerosas y obvias razones no se
comporta de la misma manera durante todo el trabajo de campo, ni siquiera de un
contacto a otro y, a veces, ni durante el mismo encuentro.
Sin perjuicio de lo anterior, se podría considerar además, si el trabajo es gratuito
o remunerado, si la remuneración es adecuada, si es por mes, semana, día, hora o a
destajo; si el campo está o no tercerizado, etc. En definitiva, ningún estudio está librado
de lo que podría denominarse el efecto encuestador, más allá que dichos efectos puedan
minimizarse, neutralizarse o compensarse.
Por otra parte, complementando lo anterior y también obedeciendo a diversos
motivos (económicos, temporales, operativos e incluso epistemológicos como es el caso
de la convergencia intrametodológica) la encuesta suele administrarse apelando
simultáneamente a un mix de distintas modalidades (administradas: personal o
telefónicamente; autoadministradas: por correo, on line, telefónicamente, etc.). A ello,
habría que agregarle la duración de la encuesta, el contenido de las preguntas, si la
recolección es domiciliaria o callejera, con o sin rutas aleatorias, con o sin revisitas, con
o sin reposición, con o sin verificación y/o retiro de material, con o sin supervisión
(simultánea o a posteriori), etc.; todas ellas con sus respectivas ventajas y desventajas,
que bien podría denominarse el efecto modalidad de administración del instrumento y
que de hecho, también estaría atentando contra la homogeneidad de aplicación.
En segundo lugar, el procedimiento de administración puede ser absolutamente
homogéneo (eliminando los efectos “encuestador” y “modalidad de administración”) sin
que nada garantice que esta homogeneidad sea sinónimo de igualdad en las situaciones
en las que se realiza la observación. Y ello es así porque, precisamente, la encuesta
implica una situación de interacción o de “pseudoconversación” (Goode y Hatt, 1976)
entre encuestador y encuestado, que a su vez se halla determinada por numerosos
factores “ajenos” al propio “procedimiento”.
En efecto, resulta otra verdad de perogrullo afirmar que diferentes situaciones de
interacción sólo podrían realizarse en condiciones de igualdad en una sociedad que
fuera ella misma homogénea, en donde las distintas posiciones ocupadas por los sujetos
entrevistados y los contextos histórico-espaciales en donde se realizaran los contactos
no introdujeran variables que resultaran incontrolables en la interacción con el
entrevistador (Pizarro, 1998).
Como el lector a esta altura se estará imaginando, son abrumadoras las
evidencias que “apoyan” la afirmación anterior. Sin embargo, convendría repasar
algunas de ellas. Dado que excede los límites de los propósitos del presente apartado,
las cuestiones derivadas de los aspectos estrictamente psicológicos que hacen a la
personalidad de los entrevistados y que, de hecho, existen y tienen su influencia, sólo
serán mencionadas bajo la consideración que su abordaje debería realizarse desde la
psicología y otras disciplinas afines.
No obstante lo anterior, habría que comenzar haciendo para los entrevistados,
consideraciones similares a las realizadas para los encuestadores. Resulta evidente, que
aún antes de participar en la situación de interacción, los encuestados poseen atributos

136
(sexo, edad, nivel de instrucción, etc.) que permiten cifrar a priori expectativas
diferentes en cuanto al posterior desarrollo de la encuesta y obtención de las respuestas.
Es más, se podría reiterar lo dicho para el caso de un mismo encuestador: el mismo
sujeto encuestado durante el tiempo de encuestamiento (por escaso que sea) puede
“madurar” la experiencia y “progresar” de diferentes maneras según sea su pertenencia
en función de dichos atributos.
Pero haciendo referencia, ahora, a la propia dinámica del encuentro, numerosos
autores se han explayado sobre el tema. Bastaría con mencionar que ha sido definido
como una situación de interacción epistemológica y sociológicamente asimétrica (a
favor del encuestador) por las diferencias en los status ocupados y papeles
desempeñados, por conducir la dinámica, por manejar los tiempos, por estar informado
sobre los objetivos del estudio, por formular las preguntas conociéndolas con
anterioridad conjuntamente con sus posibles respuestas, etc.43
Desde una perspectiva mucho más crítica, se ha declarado el carácter alienante y
opresivo de las encuestas: por las preguntas cerradas, por convertirlas en una cuestión
de burócratas y/o tecnócratas, por considerar a los encuestados como meros poseedores
pasivos de información atomizada, etc. (Fals Borda y otros, 1973 y Hall y Le Boterf,
1973).
Frente a las interpretaciones anteriores –y sin entrar en el análisis de las mismas–
la pregunta sería: ¿qué pasaría si cualquiera de ellas –como bien podría ser posible–, le
perteneciera a algunos o a todos los encuestados? ¿Acaso, se comportarían de la misma
manera?
También se ha hecho referencia a la influencia de los contextos: tanto el
restringido (el tiempo y lugar donde se lleva a cabo el encuentro y las condiciones en el
que se realiza: escenario público, semi o privado; local, visitante o neutral, en intimidad
o con presencia de otros actores, de día, tarde o noche, feriado o laborable, etc.) como el
ampliado (las condiciones sociohistóricas y políticas en que los mismos se producen:
períodos democráticos o autoritarios, seguros o inseguros, etc.).
A esta altura del análisis, seguramente al lector le podrá resultar poco creíble y
hasta de mal gusto recordar la caracterización ideal de la técnica en cuestión. Tal vez,
convenga hacer la siguiente reflexión: ¿acaso, no ocurriría algo similar con otros
procedimientos técnicos, por ejemplo, los cualitativos? Seguramente; pero precisamente
por ello, las estrategias cualitativas no se caracterizan por ser dispositivos iterativos.

Intrusiva / no intrusiva

Se consideran intrusivos, reactivos o invasores aquellos procedimientos que


modifican el estado físico y/o mental de los actores o que alteren los escenarios en los
que participen (Schwartz y Jacobs,, 1984).
En términos generales, ninguna estrategia es no reactiva a priori: dependerá de
su modalidad de administración. Suele afirmarse, por ejemplo, que el análisis de
contenido, de discurso o procedimientos similares lo son y, en efecto, intrínsecamente
43
Véase por ejemplo, Galtung, J., (1978); Selltiz, C. y otros (1974); Cea D’Acona, M. A. (1998); García
Ferrando, M., Ibáñez, J. y Alvira, F., 1993; Guber, R., 1991; Germani, Gino, 1966.

137
son herramientas no invasivas. Sin embargo, su grado de intrusividad va a depender de
cómo se haya obtenido el material sujeto a estudio: si el mismo ha sido obtenido a
través de una entrevista, de un test psicotécnico o algún tipo de consigna, la invasividad
se encuentra en el origen de dicho material.
Por otra parte y como ya se afirmó, no hay dudas, que las técnicas cuantitativas
son más intrusivas que las cualitativas. Sin embargo, esta reactividad variará según sea
su forma de administración dado que no es igual una encuesta que, por ejemplo, sea
administrada o autoadministrada. Algo similar podría decirse para las modalidades no
encubiertas, estructuradas e iterativas; mientras que dependerá en los casos de aquellos
instrumentos que admitan la participación, de cuál sea su forma de aplicación.
Asimismo, debe destacarse que la reactividad o no intrusividad alcanza a la
forma de registro de la información que se obtiene: el empleo de grabadores o cámaras
visibles suelen generar cambios significativos en los sujetos estudiados al punto de
provocar la cancelación del estudio.
Para finalizar y retomando la cuestión acerca de los sentidos del término
“objetividad”, hay que destacar que otros de sus significados posibles es equipararlo
“enunciado verdadero”; es decir, que un conocimiento sería objetivo –de acuerdo con
este sentido– cuando refleja la realidad tal cual es. O sea la verdad como copia fiel o
reflejo de lo que sucede. Así la concibió, por ejemplo, Aristóteles. En ese caso,
cualquier herramienta intrusiva dejaría de ser objetiva en la medida en que modifica el
estado del fenómeno estudiado.

No participante / participante

En términos generales, esta bipolaridad se refiere al grado de involucramiento


que asume el investigador: la posición que ocupa y el rol que desempeña, tal como se
verá en el capítulo siguiente. No obstante y más allá de que puedan existir posturas
intermedias, no existe una línea demarcatoria claramente definida y, menos aún, cuando
se trata de determinadas estrategias.
Al igual que se verá para el par encubierta/no encubierta con el que nos ocupa
suele ocurrir algo similar. Habitualmente, la dupla involucramiento-distanciamiento está
direccionada hacia la observación y, en especial, para la clásica observación
participante.
Sin embargo, no menos presente aparece en la entrevista principalmente cuando
es en profundidad con la cuestión de la directividad (Guber, 1991) que estaría a mitad
de camino entre estructuración y participación o que, por lo menos –así se lo entiende–,
involucraría ambos aspectos. Lo mismo podría decirse para las otras modalidades de
entrevista (individuales, grupales, focales, etc.) y hasta para la propia encuesta. No hay
dudas que –sociológicamente hablando– formar parte, tener parte o ser parte de
cualquier intercambio es una forma de participación, por más débil, simbólica, pseudo,
etc. que ésta pueda ser considerada, cuestión que, en general, no ocurre ni con el
entrevistador ni con el encuestador, que participan activamente. En tal caso, donde no
habría participación –con sus ventajas y desventajas– es en la modalidad
autoadministrada.

138
Se podría trasladar el análisis al rol que le compete desempeñar a estos últimos
en comparación con los papeles que puede desarrollar el observador. Sin embargo,
tampoco existen restricciones, especialmente en ciertas entrevistas, para que el
entrevistador pueda dramatizar durante las mismas, otros papeles sociales. Y aunque
pueda parecer ocioso, existen sobradas razones para afirmar que la cantidad y calidad
de la información obtenida depende de la actuación del entrevistador.
Nuevamente y volviendo a los sentidos de la “objetividad”, desde el paradigma
cuantitativista suele considerarse que un conocimiento es objetivo cuando se evita
cualquier interferencia y más aún, si esa influencia proviene del propio investigador. Por
tal motivo, el investigador no debe involucrarse y tomar debida distancia del objeto
estudiado.: el conocimiento entendido ahora como externo y el sujeto cognoscente
desempeñando un rol pasivo. Demás está decir, que habría muchos aspectos de los
fenómenos que no podrían conocerse sino es desde su propio interior e involucrándose.

No encubierta / encubierta

Habitualmente, cuando se plantea la estrategia del encubrimiento se lo hace


pensando en la observación participante. Sin embargo y en relación a ésta última, hay
autores que la distinguen de lo que llaman la “entrevista solapada” para referirse a
aquellas “conversaciones” o “intercambios” que se realizan con el propósito de obtener
información sin que ello suponga un contexto y una relación de entrevistador-
entrevistado pero tampoco una observación participante. Piénsese, por ejemplo, en el
caso de las llamadas incógnitas u ocultas (mystery caller). Indudablemente, la línea
divisoria –en algunos casos– resulta muy delgada.
Independientemente de la disquisición anterior, existen distintos grados y
modalidades de encubrimiento que no necesariamente pasa por el observador o
entrevistador. Por ejemplo, el no revelamiento está presente cuando se oculta la
verdadera finalidad del estudio o el destino (para quién o para qué) del mismo. De
manera tal que aun en una encuesta es posible incluir cierto grado de ocultamiento. De
igual modo y en una entrevista común, el ocultamiento puede aparecer con la existencia
de un grabador o cámara no revelada.
En la medida en que se practica cualquiera de las alternativas anteriores o
similares, automáticamente se plantea la cuestión ética: los sujetos investigados tienen
derecho a saber no sólo que están siendo observados sino también cómo, para qué y
para quién es el estudio.
Frente a este planteo ético inmediatamente se escuchan las réplicas en defensa
de los fines científicos o investigativos. No hay dudas, que ciertas investigaciones
difícilmente podrían realizarse o determinada información podría obtenerse con el
consentimiento de las personas involucradas. Pero y al mismo tiempo, debe reconocerse
que en otras tantas, la cuestión ética debería preservarse aun cuando atentara contra las
mismas prácticas investigativas.

139
Alienante / no alienante

A partir de los años ’60 del siglo pasado comenzaron a vivirse situaciones de
crisis sociopolíticas tanto en América Latina como en otras partes del mundo; y como
ya había ocurrido en otros momentos esta crisis no tardó en trasladarse al campo de las
ciencias sociales. Fue así como comenzó a impugnarse el modelo dominante de
investigación en ese entonces impulsado desde la universidad de Columbia por los
sociólogos norteamericanos Lazarsfeld y Merton: el positivismo cuantitativista (Pérez
Lalanne, 2010). La mayoría de los cuestionamientos giraba en torno a uno de los
estandartes de este paradigma: la encuesta, a la que –entre otras cosas– se le criticaba su
carácter alienante, opresivo y simplificador de la realidad. Tal vez resulte obvio destacar
que los principales protagonistas pertenecían a movimientos sociales e intelectuales de
marcado sesgo marxista –en cualquiera de sus variantes– maoístas, trotskistas, etc. (Hall
y Le Boterf, 1973) obviando que el propio Marx, en su momento, también había
utilizado el mismo instrumento.
No hay dudas que –desde esta perspectiva– la encuesta es una estrategia
alienante y opresiva –formulario de preguntas cerradas que “obliga” a los encuestados a
tener que elegir entre opciones fijas de respuestas en cuya redacción no han participado
como tampoco en la selección de las problemáticas tratadas–; cosificadora, que toma a
los informantes como entes pasivos, meros depositarios de información fragmentada a
los que se les niega la capacidad de investigar los propio problemas que los aquejan y
simplificadora que cultiva el fetichismo de la cifra a la que se le rinde culto perdiendo
de vista la complejidad y –al mismo tiempo– singularidad de los fenómenos sociales.
Parafraseando al pedagogo brasileño Freire, si las técnicas de enseñanza tienen
consecuencias ideológicas lo mismo sucede con las técnicas de investigación: también
tienen consecuencias ideológicas (Freire, 1999).

2. Factores determinantes en la elección de la estrategia de campo

En definitiva y a modo de síntesis de lo desarrollado en apartados anteriores a la


hora de decidir la estrategia técnico-metodológica, habrá que tener en cuenta un
conjunto de factores tal como lo ilustra el esquema siguiente:

140
141
CAPÍTULO 9: LA OBSERVACIÓN Y SUS MODALIDADES

En general, los autores coinciden en destacar que la observación es la primera


técnica que se ha utilizado en una investigación y –tal vez– sea la estrategia que está
siempre presente en la mayoría de estas prácticas: sea porque se la utiliza en forma
excluyente como único instrumento o sea porque se la emplea como complemento de
otros.
Sin embargo, para que pueda ser empleada en una investigación es necesario
tener en claro qué es lo que se piensa observar y cómo se lo va a hacer. La primera
cuestión se responde habiendo formulado adecuadamente el problema de investigación:
objetivos, hipótesis, etc. La segunda optando entre sus diferentes modalidades que se
desarrollarán en el apartado siguiente.

1. Modalidades de la observación

Al momento de diseñar esta estrategia deben tenerse en cuenta distintos criterios,


que no siempre resultan excluyentes entre sí. Uno de ellos es el que tiene en cuenta la
relación entre observador y objeto observado:

Autoobservación: cuando coincide el observador y el objeto observado. Este fue uno de


los aspectos que tuvo en cuenta Weber para justificar la diferencia existente entre las
ciencias naturales y las sociales: la capacidad que tenían los científicos sociales para
conocer su propia subjetividad (Pérez Lalanne, 2010). Demás está decir que existen
múltiples casos –por ejemplo, en el ámbito de la salud– de investigadores que
decidieron experimentar consigo mismos44.
Observación propiamente dicha: cuando el observador es distinto al objeto observado,
ya sea porque el investigador apela a la colaboración de terceros (observación indirecta)
44
Véase Pintos Andrade, E.: “La observación” en Pérez Lalanne, 2010.

142
o cuando es él el que toma contacto directo con el objeto (observación directa). Aquí
aparecería una de las ventajas (o desventajas) de esta estrategia: no siempre se puede
estar presente en el lugar donde ocurren los hechos o, también, los hechos ocurridos en
el pasado no se pueden observar directamente. En ambos casos, necesariamente hay que
apelar a otras fuentes o a otros informantes. Tal como sucede, por ejemplo, en el ámbito
judicial cuando se trata de reconstruir el hecho investigado acudiendo al relato de los
testigos presenciales o de las propias víctimas. En caso contrario, no hay dudas que esta
sería la principal ventaja de este dispositivo: el contacto directo con el fenómeno. Así lo
entendieron, por ejemplo, en la antropología cuando a fines del siglo XIX decidieron
superar la crisis en la que la disciplina se hallaba envuelta, trasladándose directamente al
ámbito donde estaban las poblaciones nativas (investigación in situ) sobre las cuales
muchos hasta ese entonces habían escrito jactándose de no haberlos visto nunca y dando
origen al enfoque etnográfico (Guber, 2001).
Un segundo criterio es de acuerdo al ámbito en el que se realiza la observación:

Laboratorio: la observación se realiza en condiciones artificiales o reproducidas


experimentalmente bajo control del investigador. Si bien esta modalidad es propia de las
ciencias naturales disciplinas de donde proviene, como tantas otras cosas, ha sido
importada o simulada por las ciencias sociales. Con frecuencia se realizan
observaciones en situaciones de prueba o piloto en las diferentes disciplinas: psicología,
sociología, educación, laborales, etc. Bastaría con mencionar a los fines ilustrativos los
estudios que utilizan como estrategia los denominados focus groups o grupos focales.
Natural o ecológica: remite a aquellas experiencias –sin ningún tipo de control ni
alteración del ambiente– que suceden en la vida real, en el ámbito natural donde ocurren
los fenómenos o se encuentran los sujetos que van a ser observados.
Un tercer criterio de clasificación remite a la posición y rol que ocupa y
desempeña el observador:

143
No participante: el observador no se involucra y procura observar sin participar –sea
desde afuera o estando adentro– con los pros y los contras que ello puede tener. No hay
dudas que si el objetivo fuera estimar la cantidad de personas que participan en una
manifestación, la vista aérea o externa permitiría una mejor visualización y cálculo.
Pero si se tratara de conocer el clima y las consignas necesariamente habría que hacerlo
desde adentro con los riesgos de intrusividad que ello puede implicar.
Participante: al involucrarse el observador se ve obligado a asumir algún rol que podrá
desempeñar en sus propios términos o en los términos de los actores observados. Al
respecto, Guber describe un continuo de cuatro alternativas (Guber, 1991) en el que
–como puede apreciarse– el orden de aparición de los términos indica el predominio:

Observador puro: el investigador cumple con su rol de observador (tomar notas,


registrar lo que sucede, etc.) manteniéndose al margen; es decir, sin participar. Sin

144
embargo, ese rol pasivo no significa que sea neutral; por el contrario, puede resultar
altamente intrusivo.
Observador participante: sin ocultar su rol de observador externo participa
ocasionalmente en aquellas actividades que le resulta imposible eludir pero lo hace
siempre en sus propios términos, involucrándose lo menos posible y priorizando el
registro de lo acontecido.
Participante observador: no hay dudas que en este caso el énfasis está puesto en la
participación –en lo posible, en los términos de los actores– aun en desmedro de su rol
de observador pero procurando vivenciar lo más posible los papeles desempeñados.
Participante pleno: en este caso, lisa y llanamente se abandona la tarea de investigador
con la intención de mimetizarse con los demás. El involucramiento al ser total se
convierte –prácticamente– en un camino sin retorno dado que no podría encontrar un
lugar alternativo, especialmente, si no ha revelado su rol de observador.
Precisamente y en íntima relación con el anterior, hay un cuarto criterio que
remite al grado de encubrimiento del rol de observador:

No encubierta: el investigador no sólo se da a conocer como tal sino que también revela
la verdadera finalidad del estudio con las implicancias que ello pueda tener:
impedimento de practicar la observación ante la negativa de los actores, alto grado de
intrusividad, etc.
Encubierta: el investigador oculta su identidad o dándose a conocer como tal, disfraza
sus verdaderas intenciones con las consecuencias que ello pueda provocar al punto de
poner en riesgo el estudio cuando no su propia integridad. Sin perjuicio de lo anterior,
habría que sumarle las implicancias éticas que ya fueron tratadas en el capítulo anterior.
En relación al observador encubierto se podría –a su vez– discriminar según la
condición del mismo entre el miembro natural y el artificial, lo cual nos lleva a la
distinción entre las figuras del traidor y del espía.
Un quinto criterio se refiere al grado de estructuración con el que se administra
la herramienta:

145
No estructurada: la observación es libre y abierta adoptándose la lógica del turista o del
forastero en el todo le llama la atención y se es proclive a registrar cuanto sucede.
Semiestructurada: a mitad de camino y en tren de garantizar cierta homogeneidad y
seguridad en el registro, la observación se realiza conforme a una lista de ítems
previamente establecida.
Estructurada: con la finalidad de sistematizar –y seguramente, cuantificar– la
observación de administra de acuerdo a una guía o planilla debidamente detallada con el
riesgo que por sujetarse a la misma se pierdan aspectos que por no figurar en la grilla
queden sin registrar.
Un último criterio alude al número de observadores:

No hay dudas que la participación de varios observadores supone varias


ventajas. Entre ellas:

146
Compensar o neutralizar los sesgos individuales convirtiendo esa subjetividad en
una subjetividad compartida, con la que se alcanzaría otro de los sentidos
posibles de la objetividad.
Al mismo tiempo, ello posibilitaría combinar diferentes modalidades de esta
estrategia.

2. El análisis multisensorial y el registro de lo observado

Nacidos dentro del enfoque etnográfico, los estudios multisensoriales ha ido


ganando terreno en los últimos años en distintas disciplinas sociales. Al igual que se
señaló en el tratamiento de los indicadores, debe recordarse que todos los sentidos están
al servicio a la observación. Así nos lo recuerda Laplantine: “La descripción etnográfica
[…] moviliza la totalidad de la inteligencia y de la sensibilidad del investigador, más
aún, de su sensualidad, y le conduce a través de la vista, el oído, el olfato, el tacto y el
gusto a detenerse sobre las diferentes sensaciones encontradas, y a detallarlas
minuciosamente”45. Por eso es que resulta necesario como advierte Ameigeiras
distinguir entre “la capacidad de ‘ver’ y la disposición a ‘mirar’ […] Donde la
diferencia entre el ‘ver’ y el ‘mirar’ se traduce en la existencia de una actitud ‘sensible’
y ‘atenta’ a la realidad, capaz de posarse sobre las cosas más que de pasar sobre ellas, de
descubrir lo que las singulariza, más que contabilizar lo que las uniformiza” (Vasilachis
de Gialdino, 2007: 119).
Visto desde otra perspectiva, la relación existente entre sensaciones y lenguaje
natural estaría contradiciendo –aunque más no sea parcialmente– la hipótesis sobre el
relativismo lingüístico de Sapir-Whorf46.
Al respecto, Candau afirma que: “No existen sensaciones aisladas. Sólo hay
actos multisensoriales. En las experiencias sobre el mundo intervienen siempre varios
sentidos. Pero no tenemos un lenguaje multisensorial […] la elaboración de las
informaciones sensoriales precede al lenguaje…” (Candau, 2003).
Pero…entonces ¿cómo comunicar las sensaciones? Sin entrar en las cuestiones
filosóficas, una alternativa es apelar al análisis multisensorial, procurando identificar y
registrar cada una de las sensaciones provistas por los distintos sentidos involucrados:
tacto, olfato, gusto oído, visión. Pero se trata de efectuar un doble registro: en los
términos del investigador y en los términos de los actores; pero, aún así y todo, no
basta… es necesario apelar a la sensibilidad e imaginación de los actores para que desde
esa introspección nos traduzcan sus propios términos. Después vendrá la interpretación
por parte del investigador quien podrá valerse de otros recursos –entre ellos, los
teóricos–. Del mismo modo, es posible recorrer el camino inverso: comenzar por lo
imaginario –lo no verbalizable–, continuar con las sensaciones y terminar plasmándolo
en el lenguaje natural o en algún hecho concreto (un objeto, un lugar, etc.).
45
Citado en Ameigeiras, A.: “El abordaje etnográfico en la investigación social” (Vasilachis de Giardino
coord., 2007: 119).
46
Esta hipótesis formulada en 1956 por Edward Sapir y Benjamin Whorf, antropólogos-lingüistas-
estructuralistas norteamericanos, afirma que la percepción y conceptualización de la realidad por parte de
las personas depende en gran medida del idioma que utilizan.

147
Por otra parte y de acuerdo al análisis que hiciera Hanson a fines de los años ’50
del siglo pasado, debe recordarse que las observaciones no son neutrales o ascéticas
como tampoco lo es el lenguaje que se utilice para registrarlas: no existen enunciados
observacionales puros tal como lo daba por hecho el positivismo lógico (Pérez Lalanne,
2010).
Por tales motivos y retomando el enfoque etnográfico lo anterior implicaría
registrar lo acontecido contemplando tres niveles de realización consecutiva –o más
bien, simultánea–: el nivel primario o reporte descriptivo que informa sobre lo que ha
ocurrido (el “qué”), es decir, que presenta los comportamientos como acciones físicas
sin un sentido, como “cerrar un ojo manteniendo el otro abierto”, pero al mismo tiempo
comprometiendo todos los sentidos en el registro.
El nivel secundario o comprensión propiamente dicha que se ocupa de lo que
ocurrió para los actores (el “cómo es” para ellos), o sea, el significado que le atribuyen,
el “marco interpretativo” dentro del cual los actores clasifican el comportamiento y le
atribuyen sentido, como cuando a aquel movimiento ocular se lo llama "guiño" y se lo
interpreta como gesto de complicidad, aproximación sexual o seña en un juego de
naipes. Un investigador social difícilmente entienda una acción sin comprender los
términos en que la caracterizan sus protagonistas. En este sentido los agentes son
informantes privilegiados pues sólo ellos pueden dar cuenta de lo que piensan, sienten,
dicen y hacen con respecto a los eventos que los involucran. Mientras que el reporte
depende de su ajuste a los hechos, la comprensión depende de su ajuste a la perspectiva
de los agentes. Una adecuada comprensión es aquella que no los malinterpreta, es decir,
que no incurre en interpretaciones etnocéntricas o sociocéntricas, sustituyendo los
puntos de vista, valores, motivos, etc. de los actores, por el punto de vista, valores y
razones del investigador.
Por último, el nivel terciario o interpretativo que realiza el investigador a modo
de conclusión– articulando su marco teórico con la perspectiva de los actores.
Precisamente, a esto último se refiere Giddens cuando plantea la doble hermenéutica:
“La sociología , no obstante, se ocupa de un universo que ya está constituido dentro de
marcos de sentido por los actores sociales mismos, y reinterpreta esos marcos dentro de
sus propios esquemas teóricos, mediante el lenguaje corriente y el técnico. Esta
hermenéutica doble es de una considerable complejidad, porque la conexión no
establece una circulación de sentido único; hay un continuo ‘deslizamiento’ de los
conceptos construidos en sociología, por el cual se apropian de ellos aquellos individuos
para el análisis de cuya conducta fueron originalmente acuñados, y así tienden a
convertirse en rasgos integrales de esa conducta (lo que de hecho compromete
potencialmente su acepción original en el vocabulario técnico de la ciencia social”
(Giddens, 1997: 194). A lo anterior habría que agregarle, que con esta devolución o
deslizamiento, los actores reinterpretan y modifican su propio mundo, caracterizando la
dinámica de los procesos sociales. Dicho de otro modo, una cosa era el mundo antes de
Freud o Marx, y otra cosa lo fue después de ellos.
En definitiva, en este tipo de descripción-comprensión-interpretación, adoptar un
enfoque etnográfico es elaborar una representación coherente de lo que hacen, piensan,
sienten y dicen los nativos, de modo que esa "descripción" no es ni el mundo de los

148
nativos, ni cómo es el mundo para ellos, sino una conclusión interpretativa que elabora
el investigador. En suma, las etnografías no sólo reportan el objeto empírico de
investigación –un pueblo, una cultura, una comunidad– sino que constituyen la
interpretación sobre lo que el investigador vio y escuchó. Parafraseando a Guber, la
observación etnográfica presenta la interpretación problematizada del autor acerca de
algún aspecto de la "realidad de la acción humana".

149
CAPÍTULO 10: LA ENTREVISTA

1. Caracterización de la herramienta

La mayoría de los autores –palabras más palabras menos– coinciden en definir la


entrevista como una situación de interacción comunicacional que tiene como principal
soporte –no el único– a la palabra. Precisamente, éste es otro de los elementos que
desde Weber en adelante las corrientes interpretativistas se encargaron de remarcar
como factor diferenciador entre las ciencias naturales y sociales: la posibilidad de la
comunicación con el otro –básicamente, a través del lenguaje– sin que ello vaya en
desmedro de quienes consideran que esta comunicación también sería posible con
algunos animales e incluso, vegetales. Bastaría recordar a quienes sostienen que “a las
plantas hay que hablarles” o que la naturaleza “también nos habla, aunque sea en su
idioma”.
Simultáneamente, están quienes –refiriéndose a esta supuesta ventaja de la
comunicación– afirman que una de las “maldiciones” que tienen las ciencias sociales es
que trabajan con un objeto de estudio que habla y que incluso hablan en el mismo
idioma. Lo cual significa que permanentemente se corre el riesgo de caer en la tentación
de creer que de la boca de los sujetos estudiados va a salir la verdad científica
(Bourdieu, 1975).
Retomando el párrafo inicial, se trata de una interacción como mínimo entre dos
partes –entrevistador y entrevistado–. Pero no es una relación igualitaria sino más bien
es asimétrica –en términos psicológicos, sociológicos y epistemológicos– a favor del
entrevistador. Y lo es porque es el entrevistador quien –en última instancia y entre otras
cuestiones– conduce la entrevista, realiza las preguntas y el que conoce la verdadera
finalidad del estudio. De manera que debe procurarse revertir esa asimetría inicial en
una asimetría parlante a favor del entrevistado (Guber, 1991) y ello sin perder de vista
que se trata de una estrategia que está siendo utilizada como técnica de investigación.
De ahí que algunos autores, también la definen como una pseudo conversación porque
si bien la entrevista debe desarrollarse en el clima un cordial y amable intercambio
logrando el clima, el feedback, el rapport de aquélla no debe olvidarse la finalidad de la
herramienta: la obtención de determinada información (Goode y Hatt, 1979).
En tal sentido, son numerosos los autores que han sugerido diversas estrategias
y/o recomendaciones –que en su mayoría– están pensadas en la entrevista en
profundidad o no estructurada:
1. “El arte de no ir al grano” (Guber, 1991). Debe tenerse en cuenta que hay preguntas
que son “pianta votos”, que en lugar de acercar, ahuyentan. Por eso, más importante
que saber lo que hay que preguntar es saber lo que no se debe preguntar –por lo menos,
de entrada–.
2. “La estrategia de la fruta madura”. Ir acercándose al tratamiento de ciertas temáticas
de manera gradual hasta que se detecten las primeras resistencias y luego retroceder,
abordando otras cuestiones para luego volver: “la táctica de dos pasos adelante y uno
atrás” (Castro en Pérez Lalanne, 2010: 225).

150
3. Comenzar la entrevista en los términos del entrevistador para –lo antes posible,
familiarización mediante– pasar a los términos de los entrevistados (Guber, 1991).
4. Por tales motivos, Bruyn menciona como otros de los índices de adecuación subjetiva
el conocimiento del lenguaje, la “jerga”, los códigos que manejan los actores, en la
hipótesis que a un mayor conocimiento del lenguaje de los sujetos estudiados
aumentaba la probabilidad de obtener una mejor comunicación con los mismos (Bruyn,
1978).
5. “Atención flotante, asociación libre y categorización diferida” (Guber, 1991). La
atención flotante –por parte del entrevistador– es un modo de escuchar que consiste en
no privilegiar de antemano ningún punto del discurso del entrevistado. Debe tenerse en
cuenta que cuando el entrevistador plantea la pregunta está –al mismo tiempo–
estableciendo el marco interpretativo de las respuestas, es decir, el contexto donde lo
verbalizado por los informantes tendrá sentido para la investigación. Por lo tanto, debe
poner entre paréntesis su propio marco referencial absteniéndose de interpretar las
respuestas –en forma apresurada y sociocéntricamente– asumiendo que sus pautas de
categorización no son las únicas posibles y quedando a la espera –en actitud de escucha
activa, atenta e interesada– hasta comenzar a conocer la propia perspectiva del actor
desde la cual se pueda interpretar sus respuestas. Para ello, la asociación libre –por
parte del entrevistado– resulta la táctica más adecuada. Esto es: utilizar los mismos
términos del actor para continuar el diálogo dado pie y promoviendo que sea él mismo
quien vaya asociando y proponiendo el sendero por el cual irá transitando la
comunicación en el convencimiento que sólo los lugareños o baqueanos están en
condiciones de indicar el rumbo por donde irá floreciendo el universo interpretativo del
informante que le permita descubrir el sentido de sus palabras. Después habrá tiempo
para la focalización y profundización repreguntando sobre los temas más significativos
tras la categorización diferida –por parte del entrevistador– pero ahora, desde el marco
interpretativo de los actores47.
6. De lo anterior se desprende que –por lo menos al principio–, el análisis debe realizar
en forma simultánea a la realización del trabajo de campo y muchas veces, durante la
propia entrevista. Esto no lleva al tratamiento del tema objeto del próximo apartado.

2. El manejo de los tiempos de la entrevista, los encuentros y los contextos de


realización

Si bien es cierto que –según Bruyn– el tiempo es otro de los factores que
contribuye a la adecuación subjetiva, entendiendo que cuanto mayor sea el tiempo que
pasemos con los actores mayor será el conocimiento que se logre tener sobre los
mismos (Bruyn, 1978), no por ello es necesario agotarlo en único encuentro. De la
misma manera que tampoco lo es para la entrevista.
Debe tenerse en cuenta que el tiempo de los informantes no es el mismo tiempo
del investigador y sus plazos para realizar el estudio o finalizar el trabajo de campo; del
mismo modo como no suelen coincidir los tiempos internos y los externos.
47
Véase Castro, A.: “La entrevista en profundidad…” en Pérez Lalanne, 2010.

151
Precisamente, una de las premisas es no cansar al entrevistado ni abusar de su paciencia
y disposición: no son máquinas que puedan “vomitar” información a voluntad del
investigador. Por ello –ante la mínima sospecha de cansancio o que el interrogado está
percibiendo que es ametrallado con preguntas, sin tregua– es aconsejable revertir esa
asimetría parlante, intercalando alguna experiencia o comentario acerca de alguna
vivencia del entrevistador para no sólo simetrizar los términos verbales de la relación
sino para que el investigador –como una forma de retribución y muestra de intimidad–
comience a “mostrar su intimidad” que –por otra parte– es otro de los índices de Bruyn:
lograr la empatía recíproca como factor que contribuya a la práctica investigativa. Por
tales razones, por los motivos expuestos en el apartado anterior (categorización diferida,
focalización y profundización, etc.) y por los que se agregarán, no es conveniente agotar
la entrevista en un único encuentro. En definitiva, el ritmo de la entrevista, los tiempos,
los encuentros e incluso las temáticas abordadas y su profundidad se “negocian y
construyen recíprocamente, en la reflexividad de la relación de campo (Guber, 1991:
243).
A lo anterior habría que sumarle la cuestión de los contextos y su influencia
–directa e indirecta– en la dinámica de la relación informante-investigador. En tal
sentido, se podría distinguir entre los contextos ampliado y restringido. El primero
remite al conjunto de relaciones –política, económica, cultural, etc.– que engloban tanto
al entrevistado como al entrevistador sin perder de vista que ambos son productos
históricos y, por lo tanto, están sujetos a los mismos condicionamientos. Por ejemplo,
trabajo de campo bajo gobiernos dictatoriales, períodos electorales, épocas festivas,
pertenencia a diferentes clases, etc. No hay dudas que el contexto ampliado puede
promover tanto la autocensura como la locuacidad, modificando hasta la propia
interpretación no sólo de las problemáticas tratadas sino el relato de las mismas.
Por su parte, el contexto restringido refiere al ámbito en el que se realiza en
encuentro: lugar, personas presentes, privacidad, actividades que se realizan en el
mismo, etc. A ello debe sumarse que no es igual –especialmente para el entrevistado
pero también para el entrevistador– “jugar” de local, de visitante o en cancha neutral.
Incluso, a veces, para el informante puede ser beneficioso renunciar a la localía. De ahí
que, ante la menor sospecha de una posible incidencia del ámbito y en la medida que
exista la posibilidad de la realización de varios encuentros, es aconsejable rotar de
contexto y de condición, negociación mediante entrevistador-entrevistado.

3. El análisis simultáneo

Teniendo en cuenta los aportes realizados tanto por el análisis de contenido


como de discurso (Pérez Lalanne, 2010) y más allá de lo que vaya a realizarse a
posteriori –una vez finalizado el trabajo de campo– tal como, se verá en el capítulo
correspondiente e, independientemente, que las entrevistas se realicen en un único
encuentro o en varios, resulta necesario que el entrevistador tenga en cuenta durante el
desarrollo de cada una de ellas, numerosos aspectos y cuestiones que a continuación se
tratarán.

152
3.1. Hermenéuticas: en términos generales, las respuestas suelen enmarcarse en una
determinada visión del mundo, de la cultura, de los otros y de sí mismo que conforman
el universo simbólico interpretativo y que –como se dijo– el investigador deberá
identificar y reconstruir. Kuhn lo llamó paradigma y –mucho antes– Fleck estilo de
pensamiento (Pérez Lalanne, 2010). En función de ese estilo, el informante elabora su
relato al tiempo que construye su identidad narrativa que dará sentido a los relatos de
acciones o eventos que, en realidad poseen una existencia en el fondo desconocida,
enigmática, fantasmal, sujeta a contradicciones, parcialidades, contradicciones,
inestabilidades en relación a los hechos evocados y que el investigador deberá
desentrañar (Bourdieu, 1986).
3.2. Existenciales: cuando se hace referencia a acontecimientos ocurridos que
involucran la propia existencia de nuestro interlocutor, habrá que prestar atención a si el
entrevistado se ubica “fuera” o “dentro” de ellos. Por ejemplo, si se asume como activo
participante o como ajeno a los hechos. Si se trata de hechos acontecidos en un pasado
distante, se debería estar atento al relato que hace de los mismos: por ejemplo, si brinda
una versión ascética o interesada y tergiversada; y en cualquiera de los casos, procurar
identificar las razones justificadoras.
3.3. Dialécticas: por lo general, en toda entrevista existe cierta lógica controversial o
confrontacional entre el entrevistado y el entrevistador atravesada por cuestiones
emotivas, ideológicas, etc. que nutren los estilos de pensamiento y que el investigador
deberá controlar y neutralizar para evitar que contamine y/o haga fracasar el diálogo.
3.4. De controles y mentiras: en relación a lo anterior, no debe perderse de vista que las
verbalizaciones suelen ser una fuente siempre latente de distorsión y subjetividad, la
cortina de humo de la hipotética verdad. Dicho de otra manera: el dominio de las
prácticas es diferente al dominio de las nociones y representaciones. Con otras palabras,
el campo de lo ideológico tiene su especificidad no reductible ni predeterminado por
otras instancias de lo social. Sólo suponiéndolos idénticos se podría exigir una
congruencia total entre lo que la gente dice y lo que hace. El hecho que un padre declare
que a los hijos hay que comprenderlos y explicarles, y que el castigo corporal es
innecesario y contraproducente no impide que ante la primera travesura, saque su cinto
y los castigue. Sostener un valor no significa practicarlo: ambas cosas –aunque
contradictorias– son verdaderas. En tal caso, se podrá problematizar la incongruencia,
distinguiendo entre verbalizaciones que se corresponden con los hechos y otras que no
(Guber, 1991). Habría que recordar nuevamente, lo dicho por Bourdieu: de la boca de
los informantes no puede esperarse la verdad científica (Bourdieu, 1975).
3.5. Gramaticales y sintácticas: en el análisis de cualquier relato siempre es
conveniente distinguir entre lo que se dice (o no se dice) y el cómo se lo dice. En
relación a esto último, habrá que prestar atención los tiempos, los modos y las personas
verbales que se utilizan. Una cosa es afirmarlo en tiempo pasado que presente, futuro o
potencial. No es lo mismo hablar en primera persona del singular que del plural,
despersonalizar o personalizar el relato. También se debería estar atento en el análisis a
qué personajes dirige el discurso el informante: ¿le está hablando al entrevistador, a la
gente en general, a alguien en particular? ¿Lo hace en tono de reproche, conciliador o

153
imperativo? ¿Sus frases son coherentes, taxativas y completas o son dubitativas,
incoherentes e incompletas? (Delgado y Gutiérrez, 1998). Del mismo modo, se deberá
prestar atención a los recursos literarios que el informante utiliza y sus respectivos
significados: analogías, metáforas, alegorías; especialmente, si se los piensa utilizar
luego en el análisis –a los efectos ilustrativos o como “códigos en vivo”– o en la
redacción del texto monográfico.

4. El registro de la entrevista

En términos generales, el registro de la conversación debe ser lo más fidedigna


posible, especialmente cuando luego se piensa aplicar algún tipo de análisis
semiológico, de contenido o de discurso o se piensa utilizar algún programa informático
de análisis del material cualitativo. Lo mismo para los casos en que se pretenda
presentar los testimonios como datos textuales o “códigos en vivo”.
Por tales motivos, y aún cuando existan “contraindicaciones” (intrusividad,
inhibición, negación, etc.) es aconsejable el empleo de la tecnología (particularmente, el
clásico grabador) y –en la medida de lo posible– en forma visible y con la anuencia de
los informantes aun cuando se lo disimule procurando que pase desapercibido sin que
ello –repito– suponga ocultamiento. Lógicamente, con la expectativa que con el
transcurso del tiempo habrá cierto acostumbramiento por parte del entrevistado,
convirtiéndose en parte del decorado.
En caso contrario, deberá apelarse al cuaderno de notas y a la memoria del
investigador aun cuando en ambos casos también existan desventajas como el olvido, la
imposibilidad de observar al entrevistado o prestarle la debida atención, etc.
Debe comenzarse por registrar la identificación del informante (aunque sea por
su nombre de pila) y sus principales datos de clasificación: sexo, edad, ocupación, etc.)
continuando con una breve descripción de sus otras características (vestimenta, rasgos
físicos, modismos, etc.). Asimismo, todo lo que tenga que ver con el lenguaje no verbal
(gestos, ademanes, miradas, etc.).
Luego se consignarán las características de la situación (personas presentes,
ambiente, actividades, privacidad, etc.), fecha y hora, número del encuentro y tiempo
de duración.
A modo de control y –en especial– para los casos de uso de grabador se debería
continuar la conversación una vez apagado el mismo procurando aprovechar el
denominado off the record.

5. La finalización de la entrevista

Aunque la cita resulte algo extensa haré mías las palabras del colega y amigo
Alfredo Castro:
Esta cuestión es crucial, ya que está en juego el manejo de las
expectativas y frustraciones que se pueda generar en el entrevistado.

154
El tipo de relación o de cercanía psicológica que se produce entre ambas
partes, puede provocar, especialmente en el entrevistado, sentimientos de
frustración y abatimiento, en particular cuando se trata de personas que se
encuentran habitualmente en soledad, que no suelen ser escuchadas o que
encontraron en el investigador una vía para volcar sus emociones
contenidas o reprimidas.
Deben, por lo tanto, tenerse en cuenta recaudos que apunten a la salud
psicológica de los sujetos, evitando crear de entrada, falsas expectativas o
una situación de dependencia.
Hay que recordar que los entrevistados no son “objetos” de estudio, que
solo importan a los fines del investigador, sino que como personas merecen
todo nuestro respeto, cuidado y consideración (Castro en Pérez Lalanne,
2010: 230).

6. Tipos de entrevista

Por ser la modalidad que mejor representa el espíritu interpretativista de una


investigación cualitativa en el tratamiento que se realizó en los apartados anteriores el
énfasis ha sido puesto en la entrevista no estructurada, en profundidad, antropológica,
no dirigida.
Sin embargo y de acuerdo al grado de estructuración es posible distinguir la
entrevista semiestructurada y estructurada.
Si bien no existe plena concordancia entre los autores, en general, la mayoría
coincide en caracterizar la entrevista semiestructurada como aquella interacción verbal
que se realiza conforme a una guía de pautas o tópicos previamente diseñada por el
investigador. Desde luego, se trata de un esquema lo suficientemente flexible como para
permitir la incorporación de nuevas temáticas o alterar el orden de acuerdo a como se
desarrolle la conversación. La principal ventaja que ofrece esta modalidad es que
garantiza la existencia de un mínimo común denominador entre los entrevistados y la
seguridad que se han barrido todos los temas previstos.
Por su parte, la entrevista estructurada es aquella que se efectúa conforme a un
formulario de preguntas abiertas y cerradas. Es la que más se asemeja a la encuesta –en
especial, cuando ésta es administrada en forma coloquial, procurando aminorar el grado
de intrusividad–. No obstante y más allá de la semejanza en el formato, continúan
existiendo otras diferencias importantes en la caracterización de ambos procedimientos,
tal como se especificarán en el próximo capítulo.
Si bien este tipo de entrevista es el menos frecuente en los estudios cualitativos,
no obstante, suele utilizarse –por ejemplo– en los relevamientos psicotécnicos, médicos
o de selección de personal.
Una segunda clasificación permite distinguir entre las entrevistas individuales y
grupales. Si bien las primeras son las más usuales, no obstante debe señalarse que para
ciertas ocasiones el grupo ofrece algunas ventajas comparativas como –por ejemplo–
facilitar la desinhibición y potenciar la participación de los integrantes. Sin embargo, no

155
debe confundirse a las entrevistas grupales con los focus groups aún cuando puedan ser
considerados como una variación de las primeras. En los grupos focales el foco de
interés está puesto en el metamensaje al que arriba el grupo producto de su dinámica;
esto es, que se priorizan las conclusiones que han captado mayor adhesión entre los
participantes –sea por mayoría o desagregado en mitad-mitad o mayoría y minoría)48.
En cambio, en la grupal se conserva la individualización de los integrantes registrándose
la participación de cada uno.
Una modalidad particular de la grupal es el denominado método Delphi. Esta
técnica –desarrollada en los años ’60 del siglo pasado, cuando todavía no existían las
comunicaciones virtuales– se utilizaba a los efectos de entrevistar expertos a la distancia
que por razones diversas no podían debatir en forma presencial. El procedimiento
consiste en la realización de una serie de entrevistas individuales, a partir de las cuales
se elabora un informe que permite identificar las principales opiniones de los
especialistas. Estos resultados luego son distribuidos entre los participantes que tienen
la posibilidad en función de las respuestas de sus pares, de ratificar o modificar sus
propios puntos de vista. De este modo, es posible generar información colectiva,
clarificando posiciones y delineando diferencias entre los actores involucrados,
manteniendo la confidencialidad de las opiniones. Demás está decir que, en la
actualidad esta estrategia ha sido reemplazada, por ejemplo, por las videoconferencias.
De lo anterior se desprende la posibilidad de clasificación de acuerdo a la
modalidad de administración. En tal sentido, las entrevistas pueden ser presenciales,
telefónicas o virtuales. Con relación a las telefónicas está la modalidad de las
denominadas entrevistas solapadas (o mystery called) –similares a la observación
encubierta o mystery shopper – que –más allá de las objeciones éticas– también son
cuestionadas por algunos autores aduciendo que no existiría una situación de entrevista
propiamente dicha. En tal sentido, debe aclararse que no deberían confundirse con
entrevistas a aquellas conversaciones que se mantienen en la aplicación de otras
estrategias como, por ejemplo, la observación participante.

48
Véase Miguez, R.: “Los grupos focales” en Pérez Lalanne, 2010.

156
CAPÍTULO 11: LA ENCUESTA

1. Diferencias con la entrevista

A los fines de comenzar el perfilamiento de la encuesta, es importante comenzar


marcando algunas diferencias con la entrevista:
1. La entrevista es una técnica cualitativa apta para generar datos textuales mientras que
la encuesta es cuantitativa, adecuada para generar datos numéricos.
2. La entrevista es personalizada: en todo momento importa el entrevistado y su
caracterización debe ser tenida en cuenta llegado el momento del análisis e
interpretación de sus testimonios. En cambio la encuesta es despersonalizada, esto
significa que cada encuestado termina convirtiéndose en un código, un número, uno
más entre tantos.
3. Se suele decir que la encuesta es anónima. Sin embargo, en cierto sentido las
entrevistas también lo son; en la medida que el investigador en todos los casos se
reserva el derecho del secreto estadístico: la no obligación de revelar la fuente de
información.
4. En la encuesta sólo interesa el resultado final, en cambio en la entrevista importa todo
el proceso: el entrevistado, sus gestos y sus modismos, el contexto en el que se realiza.
5. Las entrevistas suelen ser más profundas mientras que las encuestas son superficiales.
6. En las entrevistas tienden a ser no estructuradas, las encuestas son altamente
estructuradas.
7. La encuesta es una herramienta que tiene un alto grado de intrusividad mientras que
la entrevista lo tiene en mucha menor medida.
8. En la entrevista prevalecen las preguntas abiertas, en la encuesta las cerradas.
9. La encuesta es un instrumento altamente alienante y opresivo; la entrevista procura
ser lo menos posible.
10. En la encuesta se sacrifica la complejidad de la singularidad en aras de la
generalidad; lo contario sucede en la entrevista.

2. Caracterización de la encuesta

El uso de la encuesta fue definitivamente profesionalizado terminando por


imponerse en las ciencias sociales a partir del sociólogo norteamericano Paul Lazarsfeld
en los años ’40 del siglo pasado desde la Universidad de Columbia quien, a su vez, la
importara desde Inglaterra. Fue así como nacen los estudios de las encuestas sociales
imitando la lógica de los estudios explicativos experimentales propios de las ciencias
naturales a través de la manipulación estadística de las variables y los datos (Pérez
Lalanne, 2010).
En términos generales, la encuesta se define como una técnica de recolección de
información que se administra en forma masiva –por lo general aunque no
necesariamente, por muestreo probabilístico–, conforme a un formulario estructurado de
preguntas mayoritariamente cerradas administrado en una situación de interacción

157
verbal (escrita u oral) a los fines que los resultados del procesamiento sean analizados e
interpretados estadísticamente desde una perspectiva cuantitativa.
Las encuestas sociológicas han sido caracterizadas, entre otras cosas, por la
siguiente perspectiva: se expone a un conjunto de sujetos (que son considerados
unidades de análisis) a estímulos homogéneos (las preguntas de los cuestionarios o
cédulas) en situaciones homogéneas y se registran las diferentes respuestas individuales
que se obtienen.
Uno de los supuestos en el que se funda esta estrategia es que las variaciones de
esas respuestas individuales proceden de los atributos sociales o, más precisamente,
biopsicosociales de los individuos, pues se considera que la situación en la que se
efectúa la medición es la misma para todos.
En un sentido estricto, teórico y abstracto, la metodología de la encuesta
presupone que la utilización del mismo formulario, cumplimentado con procedimientos
homogéneos, garantiza que las respuestas obtenidas son respuestas al mismo estímulo
en la misma situación (Pizarro, 1998). Sin embargo, resulta harto evidente que en un
sentido algo más amplio y pragmático, lo anterior difícilmente pueda cumplimentarse,
tal como fue expuesto en el capítulo 7 de este libro.

3. Modalidades de la encuesta

Básicamente, la encuesta ofrece dos grandes modalidades de administración:


autoadministrada y administrada por el encuestador.
En la encuesta autoadministrada el formulario es completado por el propio
encuestado –por lo general, sin la presencia del encuestador–, sea porque luego es
devuelto en mano, depositado en una urna, remitido por correo postal o electrónico, en
forma telefónica u on line. Por su parte, en la modalidad que es administrada por el
encuestador el protocolo de preguntas lo completa el mismo administrador, sea en
forma presencial, telefónica o virtual. Técnicamente hablando cuando el formulario es
completado por el encuestado se lo denomina cuestionario mientras que cuando lo
completa el encuestador, se llama cédula.
En ambos casos, existen ventajas y desventajas. Entre las primeras y a favor de
la modalidad autoadministrada:
1. Es evidente que esta modalidad permite abaratar los costos tanto económicos, como
temporales y humanos. Posibilita abarcar una mayor población (nacional y/o
internacional) en un menor tiempo prescindiendo de los encuestadores e incluso
garantizando no sólo la carga de las repuestas en forma automática sino el cumplimiento
del orden de las preguntas –salvo cuando es administrada en papel–. En la actualidad el
propio Google pone a disposición de sus usuarios una herramienta con la cual se puede
diseñar el formulario para ser utilizado en forma virtual.
2. Garantiza mejor el anonimato de los encuestados impidiendo que las personas se
inhiban con la presencia del encuestador.

158
3. En la mayoría de los casos, facilita el posterior procesamiento de la información
prescindiendo de la contratación de data entry pudiéndose conocer los resultados al
instante.
Por su parte y como desventajas:
1. Muchos formularios no son devueltos, se extravían, llegan tarde o de manera
incompleta.
2. Nunca se sabe a ciencia cierta quien completó el protocolo y en qué condiciones lo
hizo (acompañado o consultando, prestando atención a la respuesta, etc.). Tampoco hay
forma de controlar la veracidad de las respuestas. Al mismo tiempo no hay forma de
saber quiénes no contestaron y los motivos por lo que no lo hicieron.
3. Resulta más engorroso cumplimentar el tamaño de las cuotas muestrales o la
proporcionalidad de los estratos.
4. Si el encuestado no entiende la pregunta o alguna alternativa de respuesta no hay
quién se las pueda explicar.
5. Hay personas que tienen limitaciones tanto para leer o escribir o para acceder a las
nuevas tecnologías de información.
6. Lo anterior afecta directamente la representatividad, confiabilidad y validez de los
resultados aun cuando para contrarrestarlas se pueda ampliar el tamaño de la muestra.
Por último y eventualmente, se podría optar por una combinación de ambas
modalidades.

4. Tipos de pregunta

Existen diferentes criterios para clasificar las preguntas. Uno de ellos –tal vez,
en términos operativos, el principal– es el formato. En efecto, de acuerdo a la forma las
preguntas podrán ser abiertas, cerradas o mixtas.

Preguntas abiertas: como su nombre lo indica son aquellas que permiten que el
encuestado (o entrevistado) respondan con sus propias palabras y con la extensión que
consideren pertinente.
Preguntas cerradas: son las que ofrecen alternativas fijas de respuesta entre las que se
deberá optar.

En ambos casos, existen ventajas y desventajas. No hay dudas que las preguntas
abiertas permiten obtener una mejor y mayor cantidad de información, una mayor
diversidad y heterogeneidad de las respuestas. Al mismo tiempo, no condicionan al
entrevistado ni limitan o censuran su capacidad y libertad de expresión. Pero y como
desventajas, las preguntas abiertas presentan mayores dificultades llegado el momento
de su procesamiento y análisis dado que –y especialmente cuando los estudios son
cuantitativos– a esas preguntas abiertas hay que cerrarlas, lo cual supone un trabajo
previo hasta que se adopte algún criterio de categorización. También no serían
apropiadas para aquellos procedimientos on line que incluyen la carga automática de la
información. Demás está decir que lo contrario ocurre con las preguntas cerradas.

159
A su vez, las preguntas cerradas podrán ser: dicotómicas o de elección múltiple.
Las dicotómicas ofrecen dos alternativas de respuesta, generalmente por SI/NO,
ACUERDO/DESACUERDO, A FAVOR/EN CONTRA, VERDADERO/FALSO, etc.
Por su parte, las de elección múltiple ofrecen más opciones (en abanico, de estimación u
opinión). Para el caso de las respuestas en abanico es importante la decisión entre que
esas categorías sean o no excluyentes entre sí. Cuando son excluyentes el encuestado
podrá elegir sólo una; para las no excluyentes, se le permite elegir más de una. La
dificultad de esta última opción se presenta al momento de la carga de datos dado que
los programas informáticos de procesamiento de datos no permiten que en una misma
celda se pueda cargar más de una respuesta, lo que implica que a esas preguntas habrá
que hacerle un tratamiento especial49.
Supóngase que la pregunta fuera: ¿Podría indicar los motivos por los que
decidió votar al candidato que eligió? Y que las opciones en abanico fueran:
HONESTIDAD/TRAYECTORIA/AFINIDAD IDEOLÓGICA/CARISMA/PERTENENCIA
PARTIDARIA/ETC./OTROS MOTIVOS/NS-NC. Si las respuestas fueran no excluyentes
el encuestado podría optar por varias con las dificultades en la posterior carga. Para
evitarlas, se podría incluir una categoría de: VARIOS MOTIVOS lo que provocaría la
pérdida de información al desconocer cuáles fueron los motivos; se podrían abrir
combinaciones a medida de vayan siendo mencionados: HONESTIDAD/CARISMA lo
que aumentaría considerablemente el número de categorías; o tal vez, lo más
conveniente –para forzar la exclusividad– sería modificar la pregunta solicitando que
indique el principal motivo o que los mencione en orden de importancia: en primer
lugar, en segundo lugar, etc.

Preguntas mixtas: en pocas palabras resultan una combinación de las dos anteriores.
Básicamente, ofrecen tres modalidades:
1. La pregunta está y se formula como cerrada –mostrando o leyendo las opciones de
respuesta– y una vez que el encuestado ha elegido se le pide que justifique o que
explique la elección: tal como sucede con los múltiples choise con justificación o
volviendo al ejemplo anterior, solicitándole al interrogado que explique por qué eligió
ese motivo como principal. Es decir, que hay una parte cerrada y la otra abierta.
2. La pregunta está cerrada y se la formula como tal pero se le permite al encuestado
que pueda agregar otra respuesta que él considere no ha sido prevista. Por ejemplo, la
alternativa de OTROS MOTIVOS (¿cuál?):…………………………
3. La pregunta está cerrada pero se formula como abierta –sin lectura de las opciones–
para que el encuestado responda con sus propias palabras, pero el encuestador sobre la
marcha interpreta y marca entre las categorías preestablecidas. Esta alternativa de
pregunta mixta –que no sería posible para la modalidad autoadministrada– pretende
evitar el cierre posterior al tiempo que no condicionaría al informante pero requiere que
el encuestador esté atento y se asegure de haber comprendido e interpretado
adecuadamente la respuesta.

49
Véase el capítulo referido al análisis de los datos.

160
En definitiva, es aconsejable que la mayoría de las preguntas sean cerradas y
cuando son de elección múltiple que al mismo tiempo las respuestas sean excluyentes
entre sí. Por otra parte, debe tenerse en cuenta que la encuesta traduce en preguntas a las
variables e indicadores cuyas categorías se transforman en alternativas de respuestas. De
manera que si –como oportunamente se desarrolló– las variables e indicadores ya están
categorizados es lógico que las preguntas estén cerradas y si –además– se trata de
cumplir con el principio de la exclusividad, lo mismo debería ocurrir con las respuestas
que deberían ser mutuamente excluyentes.

5. El diseño del formulario (cuestionario o cédula)

Algunas de las recomendaciones que a continuación se mencionan deberán


adaptarse a la modalidad de administración: si es autoadministrada la mayoría de ellas
tendrán que ir por escrito mientras que si fuese administrada por el encuestador se
podrán transmitir oralmente.
A los fines analíticos se podrían agrupar en tres categorías: presentación,
instrucciones, preguntas, datos de clasificación y observaciones. Partiendo de la base
que si la encuesta fuese callejera o en cualquier otro escenario público, no se trata de
parar gente y comenzar con la batería de preguntas, o si fuese autoadministrada pensar
que bastaría con enviarle a la gente el cuestionario y esperar que sin más lo responda, se
hace necesario iniciar con la presentación. Esta suerte de introducción remite a varios
aspectos:
1. En primer lugar, poner en conocimiento del encuestado sobre quién/nes están
realizando el estudio, para quién se lo está haciendo y lo que puede resultar
determinante del convencimiento es sobre qué trata la investigación o cuál es la
finalidad de la misma. Y es en este último punto que habrá que evaluar el impacto
positivo o negativo que pueda tener el conocimiento del verdadero objetivo del estudio
y, en consecuencia, decidir la mejor manera de hacerlo sin perder de vista la cuestión
ética del posible encubrimiento o que cuando lleguen las preguntas cruciales las mismas
sean motivo para discontinuar el encuentro. En tal sentido, una buena forma de entrar
es presentándose como estudiante (de tal carrera y universidad) o
trabajando/becado/haciendo una pasantía para alguna reconocida institución y para
cualquiera de los casos informar que se trata de una investigación académica sobre...
Por lo general, esto suele generar respeto, seriedad y hasta, cierta simpatía e interés por
parte del encuestado.
2. En segundo lugar y para fortalecer el diálogo brindando tranquilidad, corresponde
aclarar que la información que pueda proporcionar no lo compromete personalmente
porque la encuesta es anónima y será tratada a los fines estadísticos.
3. En tercero y con el propósito de obtener un mayor compromiso en las respuestas,
habría que comunicar que el encuestado ha sido elegido y va a contestar en
representación de muchos otros; de manera que, si no está dispuesto a colaborar es el
momento de manifestarlo.

161
4. En cuarto, adelantarle el tiempo aproximado –que no debería exceder los quince o
veinte minutos– que la va a demandar su participación.
5. Por último, agradecerle su colaboración.
Con respecto a las instrucciones y si no ha sido puesto al principio del
formulario, habría que comenzar explicitando claramente quienes no pueden
contestarlo. Suele ocurrir en toda investigación que de acuerdo a como se haya hecho el
recorte o contextualización temporal, geográfica y sociodemográfica, están quienes han
quedado afuera de la investigación. Por ejemplo, si no ha nacido en cierta década, no
vive en el gran buenos aires y no es jubilado no está habilitado para participar.
En segundo términos, estarán las indicaciones –que valen tanto para el
encuestador como para el encuestado– acerca de cómo completar el protocolo, en
especial, como registrar las respuestas (marque con una cruz donde corresponda o
subraye la respuesta elegida, tache lo que no corresponda, etc.). En este caso, el
propósito es homogeneizar y facilitar la posterior carga si la misma fuera manual.
En tercer lugar y especialmente para la modalidad autoadministrada habrá
recomendaciones para que conteste solo (sin consultar) o que lo haga según su primera
impresión, respetando el orden de las preguntas, etc. Por último, están las instrucciones
particulares: por ejemplo, si contestó SI pase a la pregunta Nº tal o no conteste la
pregunta siguiente.
Con relación a la tercera cuestión sobre las preguntas también existen numerosas
decisiones a tomar:
1. La primera es con respecto al orden de las preguntas; se aconseja seguir la técnica del
embudo: comenzar por aquéllas más generales, menos conflictivas, más inespecíficas
para luego avanzar con las más intimas, más conflictivas o más urticantes. Claro está
que, a veces y por una cuestión de cuota muestral, necesariamente hay que arrancar con
alguna de índole más privada; dado que si se está buscando madres solteras no se puede
esperar al final para notificarnos que es casada y sin hijos.
2. En segundo lugar, es recomendable que las preguntas estén agrupadas por área
temática a los efectos de no marear al encuestado. Salvo aquellos casos en que se ha
decidido –a modo de control– intercalar alguna con otras que no tienen nada que ver.
3. En tercer lugar y siguiendo la misma lógica, las preguntas deberían estar numeradas
en forma correlativa, de manera tal que esa numeración indique el orden en que deben
ser formuladas y/o respondidas.
4. En cuarto lugar, deben estar formuladas en términos y claros y precisos, ajustándose a
la mención de las distintas variables o indicadores y evitando la inclusión en una misma
pregunta de dos de ellos diferentes.
5. En quinto y dado que en su mayoría –sino en todas– van a estar cerradas, habrá que
determinar el criterio de precodificación. Debe diferenciarse entre la pre y la
poscodificación. Cuando las preguntas son cerradas corresponde que ya estén
precodificadas mientras que la poscodificación estaría reservada para las preguntas
abiertas o mixtas. En todos los casos, es aconsejable que el código sea numérico y de un
solo dígito; no alfanumérico (A1, A2, A3) ni tampoco desagregado (3.1, 3.2, 3.3). Al
mismo tiempo y para cuando son cerradas, el código debe acompañar –por lo general,
iniciando– el texto de cada respuesta. Además, se recomienda que respuestas similares o

162
iguales tengan el mismo código: todos los SI, todos los NO o los NS/NC. De esta
manera, bastará con redondear el código para registrar la respuesta.
6. Por una cuestión que se verá más adelante –cuando se llegue a la carga de datos y el
posterior armado de los cuadros y gráficos y se tenga pensado procesar con Excel–, en
las preguntas categorizadas con niveles ordinales, intervalares o racionales, las
respuestas tendrían que ser presentadas y precodificadas de menor a mayor: 1. Mala / 2.
Regular / 3. Buena. Lo mismo para el nivel nominal, cuando se pretenda que luego en el
cuadro alguna categoría aparezca en primer lugar: 1. Soltero / 2. Casado / 3. Separado /
4. Divorciado / etc.
7. Una última mención es para las variables complejas y la forma de su resolución. Se
entiende que resolver una variable compleja remite a la decisión de definir para cada
caso la categoría que le corresponde. Supóngase que la variable compleja fuese NSE
con sus categorías BAJO / MEDIO / ALTO; resolverla significa determinar qué nivel
tiene cada unidad de análisis. En tal sentido, hay dos alternativas de resolución: manual
y electrónica. Imaginemos que la encuesta está siendo administrada en forma presencial.
La resolución manual supone que –efectivizada la cédula y con todas las preguntas
respondidas– será el encuestador o quien corresponda que –en función de las respuestas
emitidas para cada uno de los indicadores de esta variable y de acuerdo a como se hayan
distribuidos los puntajes del índice– registrará en donde corresponda el nivel de ese
encuestado. Para facilitar la tarea y dado que está siendo administrada –en el caso de las
autoadministradas puede condicionar al encuestado–, se sugiere que al lado de cada
respuesta –por ejemplo, entre paréntesis– aparezca el puntaje. De esta forma, bastaría
con sumar esos puntajes. Luego al final de estas preguntas y en un recuadro aparte
estará el NSE con sus respectivas categorías; en alguna de ellas irá la marca del
codificador. Si la resolución fuera electrónica –por ejemplo, con el Excel– llegado el
momento de la carga de los datos en la matriz, en las preguntas de los indicadores de
cada variable compleja habría que cargar los puntajes de índice correspondientes. Luego
se le pediría que los sume (función de autosuma) y aplicando la fórmula condicional
necesaria, sería el programa informático quien indicaría en la columna correspondiente
la categoría –para cada variable compleja– a la que pertenece cada unidad de análisis.
Llegando casi a la finalización del formulario, quedan los datos de clasificación.
Esta “sección” se refiere a las variables, indicadores o preguntas que permitirán
caracterizar las unidades de análisis. En términos generales, son las variables
sociodemográficas: SEXO, EDAD, ESTADO CIVIL, NIVEL DE ESTUDIOS,
OCUPACIÓN, etc. que habitualmente se reservan para el final. Aun cuando –por una
razón de cuota muestral y tal como se adelantó– puedan ser formuladas al inicio.
Por último y en la medida que quedara espacio en blanco en el formulario, se
aconseja dejar un último recuadro para las observaciones y/o comentarios que desearan
hacer y registrar tanto el encuestador como el encuestado.

6. El pretest

Finalizado el diseño del formulario y antes de proceder a su impresión y/o envío


se recomienda la realización del pretest, que no es otra cosa que la puesta a prueba del

163
instrumento. Esta tarea supone su administración a una submuestra –con las mismas
características– de lo que va a ser la muestra en un porcentaje no mayor al 10%.
El propósito es testearlo: si las preguntas están bien formuladas y cerradas; si
faltan alternativas; si se entienden; si hubieran dudas acerca de su cierre, se las podría
dejar abiertas y cerrarlas luego en función de lo que hayan respondido las personas; si el
orden es el correcto; identificar las que generen rechazos; etc.
Lo anterior permitiría hacer los ajustes pertinentes y continuar con el proceso. Si
no hubiera necesidad de cambios o los mismos fueran poco significativos, esa
submuestra pasa a formar parte de la muestra; en caso contrario, se perdería.

164
CAPÍTULO 12: EL DIFERENCIAL SEMÁNTICO

1. Introducción

Esta técnica cuantitativa fue diseñada por Charles Osgood y colaboradores con
el propósito de observar y medir los significados psicológicos que para los individuos
tienen las cosas representadas por los conceptos.50 Fue concebida como un medio y no
un fin en sí mismo, un instrumento para estudiar la variable significado en el
comportamiento humano. Ampliando su finalidad, el objetivo de esta técnica es analizar
y construir la imagen y las actitudes que los individuos tienen sobre determinados
estímulos o cómo ellos se hayan instalados en el Imaginario Social (Díaz, 1998).
En tal sentido, Osgood imaginó un espacio semántico multidimensional de
naturaleza geométrica en cual ubicar tanto a los estímulos como a los individuos en
función de sus reacciones o respuestas. Dicho autor consideraba que en toda cultura o
subcultura existen elementos simbólicos comunes a partir de los cuales los individuos
organizan su experiencia y que son pasibles de ser segmentados en función de un
conjunto de variables, incluso aun en aquellas culturas que en apariencia resultaran ser
homogéneas.

2. Metodología para la construcción

2.1. Selección de los conceptos

Los conceptos son estímulos respecto a los cuales la operación de registro


realizada por el investigador constituye un dato. Pueden ser verbales (escritos u orales)
o no verbales. Por ejemplo: nombres propios de candidatos, instituciones, marcas,
dibujos, packaging, colores, etc. Su selección dependerá de la naturaleza del problema
pero por lo general los estímulos elegidos constituyen una muestra intencional “librada
al buen sentido del investigador” de un universo posible de conceptos.
Los conceptos elegidos - salvo algunas excepciones -, tienen que cumplir con
un conjunto de requisitos:
 Tener “poder discriminatorio”, es decir, se debe esperar de ellos que sus significados
señalen diferencias significativas entre los individuos.
 Tener “significado unitario” para cada sujeto de manera de no prestarse a diferentes
interpretaciones por el mismo individuo.
 Ser “familiares a todos” los integrantes de la población para evitar que por
desconocimiento se produzca una regresión espuria hacia el punto medio de la
escala.

50
Osgood, Charles y otros: “El diferencial semántico como instrumento de medida”, en Wainerman, C. y
otros (1976).

165
2.2. Construcción del espacio semántico

Si bien inicialmente el espacio para Osgood era multidimensional luego de


sucesivas pruebas llegó a la conclusión que dicho espacio podía resumirse en tres
dimensiones semánticas o “factores dominantes”:
1. Valoración: juicio o calificación que los individuos hacen de cada estímulo.
2. Actividad: dinámica o movimiento que los sujetos perciben en cada concepto.
3. Potencia: poder o fuerza que los individuos le asignan a cada objeto.
El autor consideraba que se trataba de dimensiones genéricas; es decir,
aplicables para cualquier concepto. Para cada una de estas dimensiones se aconseja
trabajar con un mínimo de tres escalas bipolares en cuyos extremos se ubiquen adjetivos
o atributos opuestos. Estos adjetivos tienen que enfatizar o estar “cargados” de una de
esas dimensiones. A su vez cada escala debe tener siete o a lo sumo cinco posiciones
con un punto intermedio de “neutralidad o indiferencia” o punto de origen común a
todas las escalas. De esta manera, es posible no sólo medir el sentido de la reacción
(positiva o negativa) sino también su intensidad (más o menos positiva, más o menos
negativa).
De cada conjunto de tres escalas por dimensión, se obtiene un puntaje promedio
producto de las medias de cada escala, ese promedio por cada dimensión o factor se
denomina “puntaje factorial” y lógicamente se supone más representativo, más
confiable y válido que los valores escalares. Dicho de otro modo, cada escala cumple la
función de indicador con sus categorías bipolares para la operacionalización de la
variable significado. El puntaje final (o valor de índice) es el resultante del promedio de
los tres puntajes factoriales obtenidos para cada dimensión. Dicho puntaje es el que
posibilita ubicar el significado del estímulo en el espacio semántico teniendo en cuenta
dos características o coordenadas: a) dirección desde el origen y b) distancia desde el
origen. O sea tipo (positivo o negativo, aceptación o rechazo) e intensidad (mayor o
menor, débil o fuerte) del significado.
Los atributos o adjetivos que constituyen los polos opuestos de las escalas son
–al igual que los estímulos aunque algo más estructurada–, una muestra intencional por
cuotas extraída de un universo posible de escalas. Esto significa que existe un número
muy amplio de atributos bipolares con los que se pueda trabajar para cada dimensión:
a) Valoración: bueno-malo; placentero-displacentero; honesto-deshonesto; sincero-
falso; caro-barato; creíble-increíble; valioso-disvalioso; limpio-sucio; agradable-
desagradable; sabroso-desabrido; útil-inútil; etc.
b) Actividad: lento-rápido; excitado-calmo; apresurado-cauteloso; aburrido-divertido;
activo-pasivo; dinámico-estático; frío-caliente; serio-humorístico; conservador-
revolucionario; etc.
c) Potencia: fuerte-débil; blando-duro; clase alta-clase baja, popular-elitista; violento-
calmo; carismático-no carismático; masculino-femenino; importante-trivial; con poder
de decisión-sin poder de decisión; con respaldo popular-sin respaldo popular; etc.
Existen un conjunto de criterios (adecuados para cualquier concepto) para la
selección de las escalas:

166
 Su “composición factorial” dado que como fue señalado son tres las dimensiones
del espacio semántico o factores dominantes (valoración, actividad y potencia).
 Su “relevancia para los conceptos evaluados”, su pertinencia aunque sea en términos
metafísicos. Por ejemplo, si se trata de analizar el posicionamiento de varias
universidades en el imaginario social, no es relevante la escala sabrosa-desabrida y
sí en cambio aunque pueda resultar metafísico: templo del saber-templo de la
ignorancia.
 Su “estabilidad semántica” con respecto a los sujetos y estímulos de una
investigación específica. Esto significa que los atributos no deben prestarse a
distintas interpretaciones. Por ejemplo, una escala bipolar que no tiene estabilidad es
grande-chico, dado que el adjetivo grande puede significar: grande en edad, grande
en tamaño, grande como elogio (¡Grande, Pa!), etc.
 Su “representatividad” de los sujetos a los cuales se les va a administrar la escala, es
decir, que es importante que los atributos reflejen el “estado de ánimo”, la
“sensación térmica”, el interés de los individuos. Y esto es sumamente importante,
dado que a veces el éxito de la escala no está en los resultados generales obtenidos
sino en el “testeo” de determinados atributos/adjetivos/slogans/etc. A veces,
determinadas “cualidades” o incluso “gafe o errores involuntarios” han servido de
“leit motiv” para montar una campaña de “prestigio o desprestigio”, o “a favor o en
contra”. Por ejemplo, “dicen que soy aburrido” (De la Rua), “conmigo o sinmigo”
(H. Iglesias), etc.
Si bien esta técnica se utiliza con mayor frecuencia en los estudios descriptivos –
cuantitativos; a veces, y con el propósito de garantizar el cumplimiento de estos criterios
–en especial, el último–, se suele realizar una etapa previa exploratoria-cualitativa. En
tal sentido, la técnica más adecuada son los focus groups o grupos de discusión (o
motivacionales) en donde se pueden testear y/o extraer los atributos necesarios que
cumplan con los requisitos antes mencionados. Sin embargo, en el momento de
seleccionar los atributos es recomendable no dejarse llevar por las primeras impresiones
y evaluar sus posibles usos o significados dado que muchos de ellos tienen la
“particularidad” de adquirir contenidos semánticos impensados o de convertirse en un
“boomerang” o tener “efecto rebote” que se vuelve “en contra” de quienes lo están
usando por “recreación o elaboración propia” del imaginario social.

3. Diseño y administración del instrumento

Una vez que ha sido construido el espacio semántico con las tres escalas para
cada dimensión el paso siguiente es la elaboración del formulario. Básicamente, la idea
es que cada estímulo sea acompañado con la batería de nueve escalas. Es aconsejable
que dichas escalas estén intercaladas (una por cada dimensión) y sus atributos rotados
de manera de evitar la tendencia a “contestar en automático” marcando siempre en el
mismo lado para los casos en que sea autoadministrado o contestando por la última o
primer alternativa de respuesta mencionada. Complementando las escalas del diferencial
a la cédula se le agregarán todas aquellas otras variables y/o indicadores que

167
intervengan en la investigación comenzando por los datos de clasificación (sexo, edad,
NSE, etc.).

 Ejemplo: Supóngase que el objetivo es medir la imagen de distintos candidatos


políticos en período de campaña preelectoral. En este caso, el nombre de los
mismos serían los conceptos a testear. Supóngase también que uno de ellos es el
“cliente” que ha encargado el estudio. Tal vez, no sea necesario compararlo con
todos los otros sino tan sólo con aquellos considerados “rivales” o postulantes a
vencer. Imaginemos entonces que los nombres definitivos son tres (cada uno con el
suficiente poder discriminatorio). Como se señaló anteriormente, de un universo
posible se selecciona una muestra intencional de estímulos-candidatos. Supóngase
también que los tres ya estén instalados en el escenario electoral, es decir, que
resulten conocidos por los potenciales votantes.

A los efectos de construir el diferencial se realizan algunos focus groups con el


propósito de indagar por los atributos más preciados testeando en forma espontánea y
dirigida posibles atributos (honestidad, capacidad, decisión, coraje, carisma,
experiencia, trayectoria, respaldo, etc.). Luego en función de los resultados obtenidos
se diseña el formulario con las siguientes escalas:

a. Valoración: honesto-deshonesto / izquierda-derecha / democrático-autoritario.


b. Actividad: con trayectoria-sin trayectoria / revolucionario-conservador / aburrido-
divertido.
c. Potencia: carismático-no carismático / con poder de decisión-sin poder de decisión /
con anestesia-sin anestesia.

Como se puede advertir es posible que con algunos atributos se susciten dudas
acerca de su pertenencia a la dimensión en la que fue ubicado. En tal caso, es más
importante su pertinencia y representatividad. Del mismo modo, algunos pares de
adjetivos no ofrecerán dudas en lo referido a la identificación del polo positivo (por
ejemplo, honesto-deshonesto) mientras que en otros la cosa no será sencilla (por
ejemplo, izquierda-derecha). Sin embargo, hay que tener en cuenta que lo “positivo” o
“negativo” no tiene que pasar necesariamente por los extremos. He incluido también
aprovechando nuestras experiencias pasadas (aburrido-divertido / con anestesia-sin
anestesia). Dicho sea de paso, una escala que se me había ocurrido para configurar el
ejemplo y que luego descarté por “falta de estabilidad semántica” y porque puede
generar controversias en torno a la discriminación de género fue el par “masculino-
femenino”. De esta forma la disposición de las escalas sería:

168
CANDIDATO ZZ

Honesto Deshonesto
/ / / / / / / /
No carismático Carismático
/ / / / / / / /
Con trayectoria Sin trayectoria
/ / / / / / / /

Y así, sucesivamente, con el resto de las escalas hasta completar las nueve o las
que fuesen necesarias dado que lo aconsejable es un mínimo de tres por dimensión, pero
bien pueden ser menos o más según la demanda del problema de investigación. Nótese,
que las escalas están intercaladas y los adjetivos rotados. La misma disposición se
respetará para el resto de los candidatos.
Básicamente, la instrucción para completarla es marcar con una cruz dejándose
llevar o no –esto también queda sujeto a decisión–, por la primera impresión en el
casillero o espacio correspondiente:

/ / X / / / / / /

4. Análisis de los datos

A los efectos del procesamiento de los datos se ponderan (cuantifican) las


posiciones de las escala asignándoles un puntaje, existiendo distintas alternativas:

Atributo negativo Atributo positivo


/ / / / / / / /
0 1 2 3 4 5 6

/ / / / / / / /
1 2 3 4 5 6 7

/ / / / / / / /
-3 -2 -1 0 1 2 3

El paso siguiente es calcular el promedio por escala, por factor o general


(promedio de los tres factores) para cada estímulo tanto para el total de la muestra o
para cada caso en forma individual. También es posible el empleo de otras medidas
estadísticas como la mediana, las dispersiones, etc.
De esta manera, el significado de un concepto para un sujeto particular se define
operacionalmente como el conjunto de puntajes factoriales en la columna de la matriz

169
que representa a ese concepto. El significado de un concepto o estímulo dentro de una
cultura, grupo o muestra se define operacionalmente como el conjunto total de puntajes
factoriales promedios obtenidos por ese concepto. Es posible comparar los conceptos
según las posiciones que ocupen por escala, por factor o a nivel general (los tres
factores). En esta representación se puede observar la proximidad o distancia existente
entre los distintos estímulos en términos de cada uno de los factores. También se puede
analizar la consistencia del significado cultural o de la imagen global del estímulo
representada por la dispersión de los puntajes individuales con respecto a la medida de
tendencia central empleada, esto es graficando una nube de concentración variada en el
espacio semántico; en tal sentido, a mayor concentración en la nube de las elecciones
individuales habrá una mayor consistencia y viceversa. Una de las ventajas que ofrece
esta técnica es que transforma las diferencias y similitudes relativas entre los distintos
estímulos en distancias cuantitativas. Todos estos procedimientos a su vez se replican
discriminando el análisis de los resultados en función de las variables que caracterizan a
la muestra (por sexo, edad, NSE, etc.).

 Continuando con el ejemplo iniciado, supóngase que ya se ha recogido la reacción


de los individuos estudiados con respecto a los tres candidatos y que además –algo
que se realiza con frecuencia–, se ha incluido entre los objetivos del estudio la
construcción de la imagen ideal de un candidato y para ello se ha agregado un cuarto
estímulo “el candidato ideal” para que los entrevistados lo posicionen en cada una
de las nueve escalas.

Una de las formas más simples de presentar los resultados y que permite una
mejor visualización de los mismos, es elaborando un gráfico de perfil con las nueve
escalas:

H I D C/T R D C CPD CA

6 IDEAL

5 ZZ

4
WW
3
YY
2

0
D D A S/T C A N/C SPD SA

170
El gráfico permite visualizar claramente el perfil de los tres candidatos y su
posicionamiento absoluto –en sí mismo–, relativo comparado con los otros y con
respecto al “candidato ideal”. Asimismo se observan los puntos fuertes y débiles de
cada uno de ellos. Si se analiza en particular el caso de nuestro cliente (ZZ) la debilidad
mayor radica en la percepción de su “falta de trayectoria” que puede obedecer a una
deficiente difusión de sus antecedentes y en mucho menor medida su “postura de
izquierda” que habrá que moderar levemente.
Como se señaló anteriormente este mismo gráfico se debe complementar con el
de los tres puntajes factoriales y el general y a su vez todos ellos, “abiertos o
discriminados” por las variables que caracterizan a la muestra. Por ejemplo, un gráfico
para los hombres y otro para las mujeres; o para los jóvenes, adultos y ancianos, etc.
Supóngase, que se trate de participar en un acto con predominio de público femenino
joven de nivel socioeconómico medio y que la intención sea captar dicho voto;
entonces, habrá que orientar el discurso de nuestro candidato adecuándolo al perfil
“ideal” de dicho electorado teniendo en cuenta el gráfico y los cuadros resultantes de
dicho análisis multivariado.
Posteriormente y a los efectos de simplificar su diseño y administración, el
diferencial semántico dio lugar a la “escala de puntos” en donde bastaba con
seleccionar los atributos sin necesidad de encontrar el opuesto y para utilizar una escala
que resultara más familiar a los informantes, se optó por la clásica de 0 a 10. De esta
manera a los encuestados se les solicitaba que a cada candidato (incluido el ideal) le
asignaran según su parecer un puntaje en relación a cada uno de los atributos: ¿“Qué
puntaje le asigna a ZZ en términos de Honestidad?, ¿y a WW?, etc. De esta forma se
eliminaban las escalas y dejaba de ser necesario que las personas marcaran con una cruz
en el casillero que consideraban pertinente. Ahora bastaba con que el encuestador
registrara en una grilla los puntajes asignados. Para el análisis y presentación de los
resultados se procedía de manera similar a lo ya descripto.

171
CAPÍTULO 13: EL ANÁLISIS CUANTITATIVO DE LOS DATOS

En un libro anterior (Pérez Lalanne, 2010) se trataron diferentes concepciones


sobre el dato; entre ellas se mencionaron los progresos que había experimentado la
concepción positivista cuantitativa a partir de los aportes que realizara Lazarsfeld desde
la Universidad de Columbia a fines de los años ’30 del siglo pasado y de otros que
siguieron ese mismo derrotero. Uno de ellos fue la socióloga alemana Mayntz con su
definición del dato como “registro conceptualmente estructurado de alguna propiedad
manifiesta de la unidad de análisis” reconociendo expresamente la tesis de Hanson
sobre “la carga teórica de la observación”. Otro aporte importante lo realizó el sociólogo
y matemático noruego con su presentación de “la estructura tripartita invariable del
dato”; esto es que todo dato está compuesto por tres elementos: variable (pregunta,
estímulo o indicador), categoría (respuesta, reacción o valor) y unidad de análisis (o de
observación).
Precisamente, en función de estas dos ideas básicas –registro y estructura
tripartita– se fue desarrollando la noción de “la matriz de datos” que con el correr de los
años se fue convirtiendo en el recurso central en el registro y posterior procesamiento de
datos ya sea en forma manual, mecánica o electrónica.

1. La matriz de datos

En términos generales, la matriz de datos es una planilla de doble entrada en la


que se vuelcan o registran los datos obtenidos. Con otras palabras, es la representación
gráfica de la estructura tripartita del dato. Es una hoja de cálculo que posibilita el
procesamiento y análisis de los datos. La matriz –en su formato clásico– es lo que
aparece en la pantalla del monitor cuando se abre cualquier programa informático de
procesamiento de datos. Tal como ocurre con el Excel y muestra la figura siguiente:

172
Como puede observarse, la matriz tiene columnas –identificadas con letras en
mayúsculas–, tiene filas o hileras –numeradas correlativamente– y tiene celdas –
producto de la combinación de las dos anteriores–: en las columnas se ubican las
variables, indicadores, preguntas o estímulos –en este caso, como si fueran sinónimos y
que en realidad responden a distintos lenguajes que hacen referencia diferentes
tratamientos sobre el mismo tema–. En las filas van las unidades de análisis o de
observación mientras que en las celdas se cargan los valores, categorías, respuestas o
reacciones –nuevamente, como si fuesen sinónimos–. De esta manera, se plasma la
estructura tripartita del dato: frente a la variable cuál es el valor que le corresponde a la
unidad de análisis; ante el indicador en qué categoría se ubica la unidad de análisis;
frente a la pregunta cuál es su respuesta o ante el estímulo, su reacción.
En la figura siguiente, se muestra como quedaría la matriz para un conjunto de 6
variables (de la 1 a la n) y 9 unidades de análisis (de la 1 a la n) con sus
correspondientes valores:

A B C D E F G
1 UA º V1 V2 V3 V4 V5 Vn
2 UA 1 V 1.1 V 1.2 V 1.3 V 1.4 V 1.5 V 1.n
3 UA 2 V 2.1 V 2.2 V 2.3 V 2.4 V 2.5 V 2.n
4 UA 3 V 3.1 V 3.2 V 3.3 V 3.4 V 3.5 V 3.n
5 UA 4 V 4.1 V 4.2 V 4.3 V 4.4 V 4.5 V 4.n
6 UA 5 V 5.1 V 5.2 V 5.3 V 5.4 V 5.5 V 5.n
7 UA 6 V 6.1 V 6.2 V 6.3 V 6.4 V 6.5 V 6.n
8 UA 7 V 7.1 V 7.2 V 7.3 V 7.4 V 7.5 V 7.n
9 UA 8 V 8.1 V 8.2 V 8.3 V 8.4 V 8.5 V 8.n
10 UA n V n.1 V n.2 V n.3 V n.4 V n.5 V n.n

173
De lo anterior se desprende, que la primera tarea –para la carga de datos– es
armar el encabezado de la matriz identificando en cada columna y respetando el orden
de aparición en el formulario a las variables (o preguntas). Es aconsejable reservar la
primera columna para registrar a las unidades de análisis. Esto último obedece a dos
razones: la primera es por si fuera necesario supervisar la carga; la segunda y más
importante por si luego se detectaran errores de carga –por ejemplo, respuestas que no
corresponden o celdas vacías– recurrir a la cédula o cuestionario y subsanarlo. Para ello,
los formularios tienen que estar numerados en forma correlativa y un buen momento de
hacerlo es al momento de la carga. Por último, en las celdas se registrarán las respuestas
pertinentes.
Con respecto a la carga de las respuestas hay que tomar –previamente– la
decisión acerca de qué es lo se va a registrar teniendo en cuenta que –básicamente–
habría tres alternativas: cargar códigos, texto o ambas cosas. Si se opta por la primera,
cuando se le pida al Excel los cuadros y/o gráficos estos aparecerán con los códigos; así
no pueden ser analizados y habrá que reemplazarlos. En caso de optarse por la segunda,
eso no implicaría un mayor trabajo porque el Excel apelando a su función predictiva en
cuanto se cargue el primer dígito (letra o número) va a disparar el texto completo que se
haya dispuesto. El problema de esta segunda opción es que –en los cuadros y gráficos–
van a parecer ordenados –por defecto– alfabéticamente. Cuando los niveles de las
categorías son ordinales, intervalares o racionales, una disposición sin orden de las
categorías confunde la lectura. Para los niveles nominales el orden de aparición podría
ser indistinto al menos que se deseara uno ya decidido. Quedaría la tercera opción:
cargar código y texto. Por las razones ya dichas, esto no supone mayor trabajo; aunque
tal vez pueda resultar algo desprolijo. De esta manera en los cuadros, las categorías
aparecerían ordenadas numéricamente pero con sus respectivos nombres. La única
precaución que debe tomarse es asignarle a la categoría que se desee que aparezca en
primer lugar, el código menor y así sucesivamente.
Antes de continuar, debe aclararse que la continua referencia al Excel no indica
que éste sea el único soporte informático para procesar datos. De hecho hay programas
estadísticos mucho más potentes y sofisticados como por ejemplo el SPSS (Statistical
Package for the Social Sciences aunque también se ha referido como "Statistical
Product and Service Solutions). Sin embargo y dado que muchos todavía no lo conocen
o no lo tienen a su disposición, se ha preferido orientar el tratamiento al Excel por la
facilidad de acceso que ofrece al formar parte del office.
Supóngase que en la cédula se tienen las siguientes preguntas con sus
alternativas de respuestas:

P. 1.: Opinión sobre la película: 1. Mala; 2. Regular; 3 Buena


P. 2: Sexo: Hombre; Mujer
P. 3: Edad: 15 a 25; 26 a 50; 51 o +
P. 4: Ideología: 1. Izquierda; 2. Centro: 3 Derecha
P. 5: NSE: 1. Bajo; 2. Medio; 3. Alto

174
Para simplificar el ejemplo, se han salteado las preguntas correspondientes a los
indicadores de NSE porque su resolución ha sido manual en la propia hoja de la cédula
y se tomó la decisión de no registrarlos en la matriz. Como producto de la carga se
tendría la siguiente matriz (para un ejemplo de 9 encuestas):

A B C D E
1 UA Nº Sexo Edad Ideología NSE
2 1 Mujer 15 a 25 años 1 Izquierda 3 Alto
3 2 Mujer 26 a 50 2 Centro 2 Medio
4 3 Hombre 51 o + 2 Centro 1 Bajo
5 4 Mujer 15 a 25 años 1 Izquierda 3 Alto
6 5 Hombre 26 a 50 2 Centro 2 Medio
7 6 Hombre 51 o + 2 Centro 1 Bajo
8 7 Mujer 15 a 25 años 1 Izquierda 3 Alto
9 8 Mujer 26 a 50 2 Centro 2 Medio
10 9 Hombre 51 o + 2 Centro 1 Bajo

Nótese, que para el caso de sexo no se incorporaron los códigos porque se espera
el ordenamiento alfabético: aunque sea algo machista, sería hombre, mujer. Para la edad
tampoco, se espera el ordenamiento numérico. En ideología se decidió que el orden
fuera: izquierda, centro, derecha.

Tres principios

De la matriz se desprenden tres principios que rigen la confección de la matriz:


comparabilidad, clasificación e integridad. El primero señala dos cuestiones:
1. Debe haber correspondencia entre variables y unidades de análisis, de manera que
frente a la variable la unidad pueda ubicarse en alguna categoría o ante la pregunta
pueda optar por alguna respuesta. No la habría si cuando se trata de unidades
individuales se incluyera alguna variable referida a una propiedad colectiva. Por
ejemplo, si nuestros casos fueran alumnos la variable no podría ser tasa de deserción
escolar, porque los alumnos no la tienen; deserción escolar –como cualquier otro índice
o medida estadística de similar naturaleza– corresponde a unidades colectivas: grados,
escuelas, distritos, provincias, etc. Por lo tanto, esa variable no sería pertinente.
2. Todas las unidades deben ser estudiadas, analizadas, comparadas en función de todas
las variables. Supóngase que se está trabajando con una muestra de 200 casos en el
ejemplo de la matriz anterior, no se podría tomar los primero 50 y analizarlos de
acuerdo a la opinión; los 50 siguientes, según el sexo; otros 50 de acuerdo a la edad, etc.
Por el contrario, los 200 según cada una de las variables.
Por su parte, el principio de clasificación afirma que para cada variable y cada
unidad debe hacer uno y sólo un registro; esto significa que no se puede cargar en una
misma celda más de una respuesta. Por tal motivo y tal como oportunamente se sugirió,

175
cuando se está trabajando con preguntas de elección múltiple es aconsejable que sean
excluyentes entre sí. En caso contrario, habrá que dispensarle a esas preguntas un
tratamiento especial, habilitando para cada respuesta una columna diferente con las
implicancias que esto tiene en el posterior procesamiento y análisis.
Por último, el principio de integridad estipula que la matriz tiene que estar
completa en su totalidad, de manera que no queden celdas vacías aun cuando esa
ausencia de registro pueda interpretarse como una respuesta; porque puede provocar
errores involuntarios. De ahí que, si la persona no responde debe preverse un código
(ns/nc). Lo mismo para el caso que no corresponda responder la pregunta.

2. El procesamiento de los datos

Finalizada la carga de la matriz se podría prescindir de los formularios porque a


partir de este momento el tratamiento de los datos se realizará apelando a la matriz.

La lectura de la matriz

La matriz admite tres niveles de lectura: horizontal, vertical y combinada. La


lectura horizontal –en el sentido de las filas– está centrada en las unidades de análisis y
es de naturaleza cualitativa. Se trata de un análisis que permite construir el perfil de
cada unidad en función de todas las variables; asimismo, permite realizar la
comparación entre cada una de ellas, procurando identificar patrones comunes; también
sirve para llevar a cabo el “análisis de pautas” que posibilite la construcción de
tipologías. A esta lectura se volverá en el capítulo siguiente.
La lectura vertical –en el sentido de las columnas– está centrada en las variables
y es de naturaleza cuantitativa. Se utiliza para conocer las frecuencias obtenidas para las
categorías de cada variable: por ejemplo en la matriz anterior, cuántos opinaron que la
película era mala, cuántos buena, cuántos regular. O cómo está compuesta la muestra
según el sexo, la edad, etc. Con otras palabras, esta lectura posibilita realizar la
tabulación simple de los datos y como resultado de ella construir tablas y/o gráficos
univariados tanto en valores absolutos o relativos. Precisamente, el verbo tabular tiene
dos significados básicos: efectuar un recuento de las frecuencias y presentar los
resultados en tablas y gráficos estadísticos. Las imágenes siguientes muestran ejemplos
de dos tablas con sus respectivos gráficos circulares, en porcentajes realizados con
Excel utilizando las tablas dinámicas:

176
Distribución de la muestra según opinión sobre la película

Rótulos de fila Cuenta de Opinión


1 Mala 34%
2 Regular 34%
3 Buena 32%
Total general 100%

Total

1 Mala
2 Regular
3 Buena

Distribución de la muestra según sexo

Rótulos de fila Cuenta de Sexo


Hombre 49%
Mujer 51%
Total general 100%

177
Total

Hombre
Mujer

Por su parte, la lectura combinada –que también es de naturaleza cuantitativa–


está centrada en las celdas combinadas de dos o más variables. Es la que posibilita
realizar la tabulación cruzada de los datos en donde ahora el recuento de las frecuencias
se realiza combinando o cruzando las categorías de dos o más variables. Como resultado
de esta tabulación se obtienen cuadros y/o gráficos bivariados o multivariados.
Dado que cuando la investigación persigue la contrastación de hipótesis o el
análisis de relaciones entre variables, necesariamente hay que apelar a esta lectura, una
de las decisiones previas al procesamiento es elaborar el plan de cuadros; es decir,
pensar en los cruces de variables que se piensan realizar. En tal sentido, en el apartado
siguiente se realizarán algunas recomendaciones para el diseño de un cuadro bivariado.

2.1. El diseño de un cuadro bivariado

El armado de un cuadro bivariado supone la toma de un conjunto de decisiones o


la resolución de varias cuestiones. A los efectos que sea más entendible se partirá del
esqueleto de un cuadro bivariado:

178
Al igual que se ha visto para la matriz, el cuadro también tiene columnas, filas y
celdas. Por lo tanto, la primera decisión a tomar es acerca del posicionamiento de las
variables en el cuadro: cuál es la variable que se ubica en las columnas y cuál la que se
ubique en las filas. Convencionalmente, la variable que temporal y lógicamente
antecede va en las columnas mientras que la otra que resulte posterior, en las filas. La
palabra “convención” no significa obligación; simplemente es por costumbre o lo que se
estila. Sin embargo, dependerá de cuál sea la ubicación el cálculo de los porcentajes y el
posterior análisis que se realice.
La segunda cuestión es acerca del ordenamiento de las categorías de cada
variable en el cuadro. Nuevamente y por convención, se estila respetar el sentido de las
flechas tal como lo muestra la figura anterior; esto es: de menor a mayor. Lógicamente,
esto sería pertinente para los niveles ordinales, intervalares y racionales. Cuando los
niveles son nominales y en principio, el posicionamiento sería indistinto. Sin embargo y
por diferentes razones, muchas veces de decide por un determinado ordenamiento; sería
por ejemplo, el caso de estado civil (legal). Si se deseara respetar el ciclo vital, sería
lógico que fuera el siguiente: SOLTERO, CASADO, DIVORCIADO, VIUDO. Pero
Debe tenerse en cuenta –como ya fue dicho–, que el Excel –por defecto– ordena
alfabética o numéricamente. Entonces y como se advirtió en el momento de la carga de
la matriz y especialmente para las escalas ordinales, habrá que numerar las categorías
para garantizar dicho orden.
Supóngase que se pretenda cruzar Opinión sobre la película y NSE. No hay
dudas que la variable que antecede y por lo tanto, iría en las columnas es NSE mientras
que Opinión se ubicaría en las filas –ambas con sus respectivas categorías–, tal como lo
muestra la figura siguiente:

NSE
Opinión 1 Bajo 2 Medio 3 Alto Total

1 Mala %

2 Regular

3 Buena

Total

Como puede observarse y también por defecto, el Excel nos brindará las
columna y fila correspondiente al total.
La tercera decisión está referida a los resultados en el cuadro; es decir, a las
cifras. Por defecto, el Excel presenta los cuadros en valores absolutos a los que –según
sea la versión que se esté utilizando– denomina de diferentes maneras; en algunas los
llama “normal” y en otras “sin calcular”. Lo cierto es que cuando el estudio es

179
cuantitativo y –nuevamente, por convención–, los cuadros (y gráficos) se presentan en
valores relativos o porcentajes. Pero los porcentajes se pueden calcular de diferentes
maneras según el análisis que se quiera realizar: por columna (en forma vertical); por
fila (en forma horizontal) o contra el total de la muestra (en diagonal), tal como lo
muestran las flechas de la figura anterior. Cuando la finalidad es contrastar hipótesis o
definir acerca de su cumplimiento o cuando se analiza las relaciones entre variables –y
en la medida que se haya respetado el posicionamiento de las mismas– los porcentajes
deben ser calculados por columna y así habrá que indicárselo al Excel, en la ventana del
cuadro de diálogo que ofrecen las tablas dinámicas. Lo mismo, para decidir la cantidad
de decimales; por defecto, el programa los calcula con dos. Dado que en su mayoría las
variables son cualitativas y a los efectos de aportar claridad y mejor visualización de las
cifras– es recomendable presentarlos sin decimales. Calculados de esta manera, las
cifras de cada columna sumarán 100 y así aparecerá en las filas del total.
Una última cuestión, es acerca de cómo se titula un cuadro. Por convención, los
cuadros se titulan comenzando su redacción por la variable ubicada en las filas y
finalizando por la variable que está en las columnas. Tal como se puede apreciar en la
figura siguiente:

Cuadro nº 1: Opinión sobre la película según NSE

NSE
Opinión sobre Total
la película 1 Bajo 2 Medio 3 Alto general
1 Mala 70% 28% 5% 34%
2 Regular 5% 68% 29% 34%
3 Buena 26% 4% 67% 32%
Total general 100% 100% 100% 100%

Con el cuadro en la hoja de Excel a la vista se puede aprovechar y solicitar algún


gráfico; para cuadros bivariados –y más aún para los multivariados– no es aconsejable
el gráfico circular, torta o por sector. Más sencillo es el clásico de columnas verticales y
de una sola dimensión.
En términos generales, los gráficos posibilitan una mejor visualización de los
resultados dinamizando los informes; si se los utiliza como complemento de los
cuadros, deberían mostrar la información de una manera diferente, tal como ocurre con
el que a continuación se presenta:

180
Gráfico nº1: Opinión sobre la película según NSE

80%

70%

60%

50%
1 Bajo
40%
2 Medio
30% 3 Alto

20%

10%

0%
1 Mala 2 Regular 3 Buena

Debe tenerse en cuenta que estas operaciones hay que reiterarlas para cada uno
de los cuadros y/o gráficos que corresponda presentarse. Finalizado el procesamiento –o
por lo menos, su mayor parte– llega el momento del análisis de los resultados.

3. El análisis de los datos

El análisis de todo cuadro supone su lectura e interpretación –tareas que si bien


suelen realizarse en forma simultánea– en este apartado y a por razones analíticas, serán
tratadas por separado.

3.1. La lectura de los datos

En términos generales, leer un cuadro supone ir a las propias cifras o guarismos,


destacando los resultado principales. Hay dos niveles de lectura: el de las cifras
marginales y el de las cifras parciales. Las marginales corresponden a la columna del
total –eventualmente, si los porcentajes hubiesen sido calculados por fila,
correspondería ese total– mientras que las parciales a las celdas del interior del cuadro.
Si se toma el cuadro anterior, la columna del total expresa también el comportamiento
de la muestra o población analizada y –por ende– sirve como referencia para analizar
los resultados parciales. En el caso que nos ocupa, se puede advertir que no hay
predominio de una opinión sobre otra; por el contrario la población se encuentra
dividida prácticamente en tres tercios; es decir, las opiniones están divididas. Sin
embargo, si comienza a recorrerse las columnas de los niveles socioeconómicos se
aprecian sensibles diferencias. Mientras que los encuestados de NSE bajo se inclinaron
mayoritariamente por considerar que la película era mala (70%) los de NSE alto lo

181
hicieron exactamente al revés (67%); mientras que los de NSE medio consideraron en
su mayoría que era regular. Debe destacarse que mientras los porcentajes fueron
calculados verticalmente (por columna sobre el total de cada categoría) en el análisis se
comparan horizontalmente (por filas).
El ejemplo anterior sirve para ilustrar claramente que no necesariamente las
cifras totales reflejan los comportamientos parciales. Y esto es importante por dos
razones:
1. La columna del total equivale a lo que sería una tabla univariada que –como se ha
visto– es producto de la tabulación simple o lectura vertical de la matriz. De manera que
si la información fuera exclusivamente presentada de esa forma se estaría perdiendo
información valiosa. Por eso los cuadros bivariados y multivariados sirven entre otras
cosas– para especificar los datos.
2. Precisamente, una conclusión posible que más bien corresponde a la interpretación,
podría ser que el target o público de la película podría ser –en principio o
provisionalmente– el de NSE alto.

3.2. La interpretación de los datos

En términos generales, interpretar los datos supone asignarles sentido; ir más


allá de las cifras, hacerles decir cosas que no dicen por sí mismas; agregarle valor al
análisis. Los datos no hablan por sí solos, lo hacen en la medida que se los interrogue.
Existen distintas alternativas para hacerlo o de interpretarlos:

1. La primera es interpretar los resultados en términos de la hipótesis formulada


analizando su cumplimiento. De no haberse cumplido, evaluar la posibilidad de
reformularla o de incorporar –con los datos a la vista– una nueva proposición hipotética.
2. Al decir de algunos autores, los datos hablan a la luz de una determinada teoría.
Concretamente, qué dice nuestro marco teórico –que dicho sea de paso– es una de sus
funciones en la investigación. Si se trata de un marco heterodoxo, seguramente desde
algunos de sus nutrientes se escuchará algún aporte. En caso contrario, tal vez a la
imaginación creativa elucubre la generación de una nueva especulación teórica. Al
respecto, no debe perderse de vista, que una de las funciones que se le asigna a la
investigación no pasa tanto por la ratificación de los conocimientos existentes sino por
la generación de nuevos conocimientos (Pérez Lalanne, 2010).
3. Una tercera alternativa de interpretación es hacerlo en función de los comentarios u
observaciones que se hayan registrado durante el trabajo de campo. Recuérdese que
cuando se trató el diseño del formulario de la encuesta se sugirió –en la medida que
hubiera espacio disponible– dejar un recuadro para esos comentarios que,
especialmente, pudieran emitir los propios encuestados o –eventualmente–
observaciones que hubiera advertido el encuestador.
Antes de continuar con las otras posibles interpretaciones, ilustremos lo anterior
con algún ejemplo tomando como referencia el cuadro anterior al que reproducimos:

182
Cuadro nº 1: Opinión sobre la película según NSE

NSE
Opinión sobre Total
la película 1 Bajo 2 Medio 3 Alto general
1 Mala 70% 28% 5% 34%
2 Regular 5% 68% 29% 34%
3 Buena 26% 4% 67% 32%
Total general 100% 100% 100% 100%

Supóngase que se hubiera partido de la hipótesis que conjeturara que el mayor


rechazo de la película se iba a dar en los niveles socioeconómicos más altos. No hay
dudas que los datos la hubieran rechazado: mientras que los pertenecientes a ese nivel la
están aceptando (67%) los del nivel bajo han reaccionado en forma opuesta ((70%). Con
esos resultados a la vista, se podría sugerir alguna hipótesis que pudiera interpretarlos.
Por ejemplo, alguna conjetura que involucrara a los contenidos de la película.
Repasando los lineamientos del marco teórico se sabe –desde la época de
Germani en adelante, pasando por numerosos autores, por ejemplo Bourdieu, quienes
perteneciendo incluso a diferentes corrientes de pensamiento– han caracterizado de
manera diferente –acentuando distintos rasgos– a los estratos sociales bajos y altos:
valores, niveles de estudio, rechazo o aceptación de los cambios que afecten las
tradiciones, etc. Repasando ahora la película –análisis de contenido y/ del discurso,
mediante51– se destacan en el desarrollo del argumento del film, el predominio de los
valores estéticos sobre los éticos, el desapego a las tradiciones, la intelectualización de
las problemáticas, etc. En función de estos aportes ya se estaría en condiciones de
conjeturar una nueva interpretación que asociara el rechazo de la película por parte de
los sectores abajo con determinadas pautas culturales presentes en el tratamiento de la
problemática.
Sin perjuicio de la anterior y releyendo los comentarios registrados en algunos
protocolos, se advierte que unos cuántos encuestados manifestaron su queja por las
condiciones en que se presenció la película: muchos espectadores en la sala, problemas
de sonido, subtitulados deficientes, escasa visibilidad, etc. Identificando la pertenencia
de estos informantes se concluye que la mayoría de ellos provienen de los estratos más
bajos. Esto podría echar por tierra la especulación anterior y ahora, poner el acento en
las malas condiciones en las que ellos vieron la película.
4. Una cuarta alternativa es interpretar el cuadro apelando a algún coeficiente estadístico
que indique cómo es la relación entre las variables y cuán significativa es la misma.
Cuando se habla de relación se está haciendo referencia a, por un lado, la dirección
(directa o inversa) y por el otro, a la intensidad (débil, mediana intensidad, fuerte). Por
su parte y sin entrar en los pormenores, un resultado es estadísticamente
significativo cuando no es probable que haya sido debido al azar.

51
Véase por ejemplo, Núñez, M.: “El análisis de contenido” o Tapia Encinas, C.: “El análisis del
discurso” en Pérez Lalanne, 2010.

183
5. Una última alternativa podría ser especificando la relación o sometiéndola a control
de espureidad introduciendo una tercera variable mediante el análisis multivariado. A
estas dos últimas opciones se volverá en las páginas siguientes.

4. El análisis multivariado

Denominado también modelo Lazarsfeld –por ser el sociólogo norteamericano


quien lo sistematizara– es utilizado tanto en las relaciones descriptivas como
explicativas aun cuando su aplicación obedece a diferentes finalidades. En las
descriptivas se lo emplea básicamente para especificar la relación entre las variables;
por ejemplo, cuando se identifican las condiciones bajo las cuales la misma se fortalece
o se debilita. Por su parte, en el análisis de las relaciones causales el modelo
multivariado se aplica –como alternativa al modelo experimental– para controlar su
posible espureidad. Por tal motivo, también se lo suele denominar modelo relacional
con control de espureidad. En ambos casos la lógica del procedimiento es la misma:
introducir una tercera variable y analizar el comportamiento de las cifras parciales del
cuadro bivariado inicial. Sin embargo, donde mejor se visualiza la utilidad del modelo
es en sometimiento de una supuesta relación causal a la prueba de espureidad. Por tal
motivo, el énfasis del tratamiento estará orientado a la misma. Primero se esclarecerá la
noción de espureidad, luego se realizará un desarrollo simbólico y por último, se lo
ilustrará con un ejemplo.

La noción de espureidad

El hecho que dos variables aparezcan juntas de manera reiterada no significa


necesariamente que una de ellas sea causa de la otra; es decir, que ambas estén
estadísticamente relacionadas no implica que se trate de una relación causal; por el
contrario, en términos de causalidad la relación puede ser espuria.
Una relación espuria es una relación ilusoria, falsa o aparente; no es una relación
genuina o auténtica; existe una tercera variable –no controlada, oculta o extraña– que es
la verdadera causa.

El desarrollo simbólico

Supóngase que se parte de la siguiente hipótesis simbólica:

“Si X entonces Y pero T”.

De donde –y como ya se ha visto–, X es la variable independiente o supuesta


causa; Y la dependiente o supuesto efecto y T una tercera variable (contextual,
antecedente o interviniente.
A los efectos de simplificar el desarrollo, se categorizarán las variables
dicotómicamente o bipolarmente: se asignarán dos categorías por variable (en este caso
por presencia o ausencia):

184
X (X, X); Y (Y, Y); T (T, T)

El primer paso en este modelo es la elaboración del cuadro de la relación


original en el que se cruzan las dos variables principales de la hipótesis (X e Y) y se
analiza:
a) la distribución de los datos (si comprueban o no la hipótesis);
b) la relación: sentido o dirección (directa o inversa) y fuerza o intensidad (débil,
media o fuerte); para ello, se utilizan diferentes coeficientes estadísticos de
asociación o correlación.
El segundo paso es la elaboración del cuadro de las relaciones parciales. En
este paso se pone a prueba la relación original (control de espureidad) introduciendo una
tercera variable o variable de prueba (antecedente, interviniente o contextual
comparativa), realizando el análisis multivariado. Si la relación original se mantiene en
los cuadros parciales, entonces es genuina; si desaparece o disminuye, entonces la
relación es espuria.

Primer paso: Cuadro de la relación original

X _
Y X X T

Y N n
_
Y n N

T M

N = mayores frecuencias o cantidad de datos


n = menores frecuencias o cantidad de datos
T = totales
M = muestra o población

Como se puede observar, la distribución de los datos comprueban la hipótesis: la


mayor cantidad de casos están en la diagonal de la verificación o en las celdas (X / Y;
no X / no Y) mientras que la menor cantidad de casos (o datos) se hallan en la diagonal
de la falsificación de la hipótesis (X / no Y; no X / Y). Seguramente, si se estuviera
utilizando un coeficiente que midiera la relación (asociación o correlación), éste
indicaría que la relación entre las variables es fuerte (directa o inversa) o lo que es igual,
que ambas variables están fuertemente relacionadas.
Hasta aquí el análisis es descriptivo porque si bien existe relación entre las
variables, esta relación puede no ser causal; o dicho con otros términos, la relación
puede ser espuria o falsa y deberse a una tercera variable (interviniente, antecedente o

185
contextual). Por otra parte, no necesariamente las relaciones tienen que ser causales. El
hecho de haber obtenido evidencias suficientes de la existencia de una asociación ya es
todo un hallazgo (en la medida que cumpla con todos los requisitos mencionados
cuando se analizó la validez de los diseños).
Pero vamos a suponer que nuestra pretensión es asignarle a la relación
condiciones de causalidad. Para ello se procede a realizar el paso siguiente.

Segundo paso: Cuadro de las relaciones parciales

En este paso se pone a prueba la relación original, introduciendo una tercera


variable (interviniente, antecedente o contextual) denominada precisamente variable de
prueba (T) con sus respectivas categorías (T y T) Para concretar este paso es necesario
reprocesar la información conforme a las tres variables. De esta manera, se realiza el
análisis multivariado:

T T

X _ X _
Y X X T Y X X T

Y n n Y N n
_ _
Y n n Y N n

T M1 T M2

Nótese que M1 y M2 son las submuestras o subpoblaciones en que ha quedado


dividida la muestra o población inicial. Esto significa que las sumas de las cifras
parciales de ambos cuadros son iguales a las cifras del cuadro original.
Si la relación entre las variables (independiente y dependiente) fuera genuina
frente a la incorporación de otra variable, debería permanecer o continuar sin sufrir
modificaciones. Sin embargo, tal como muestran los cuadros parciales, la distribución
de los datos se ha modificado; a tal punto que la relación ha desaparecido. Si
nuevamente se reiterara el uso de cualquier coeficiente estadístico que midiese
asociación o correlación su resultado sería cero. Este cero se interpreta como
independencia estadística o ausencia de relación. De donde se deduce que la pretendida
relación causal es espuria (falsa o inexistente) dado que no ha soportado (o salido
indemne) del control de espureidad.
En todos los manuales se citan ejemplos clásicos de relaciones espurias: así la
relación entre daños producidos en incendios y número de bomberos o la del número de

186
cigüeñas y tasa de nacimientos. No es que el daño producido en un incendio dependa
del número de bomberos que van a apagarlo, sino que ambos dependen de la magnitud
del incendio; cuanto mayor es éste, seguramente mayores daños se producirán y además
mayor número de bomberos irán a apagarlo. De la misma manera, no es que en las
zonas con mayor número de cigüeñas haya una mayor natalidad, sino que ambas cosas
se dan en zonas rurales (Mora y Araujo, Lazarsfeld y otros, 1971).
Por supuesto, que el modelo de análisis multivariado resulta más complejo52.
Entre otras cosas, porque no termina en el cuadro de las relaciones parciales sino que
continúa con el análisis por separado (cruce) de la variable de prueba con la
independiente y con la dependiente (cuadro de las relaciones marginales). Además, si la
relación original se hubiera manifestado como genuina frente al primer control debería
ser puesta a prueba con la introducción de otras terceras variables y así sucesivamente;
dado que una relación causal es más “segura o firme” cuando más pruebas de
espureidad haya soportado. Para ello, es necesario que las variables de prueba se
prevean antes de la obtención de los datos, debiendo ser aquellas variables sospechadas
de alguna incidencia en la relación original.

Un ejemplo ilustrativo

A los efectos de ilustrar el modelo de análisis multivariado, se desarrollará un


ejemplo –que a simple vista, puede parecer algo absurdo– pero que, sin embargo, se
adapta muy bien a las finalidades de este apartado. En tal sentido, se procurará respetar
el desarrollo simbólico anterior. Supóngase que se parte de la siguiente hipótesis:

“Si los alumnos universitarios utilizan algún tipo de cábala o amuleto entonces
aprueban el examen”.

Ex profeso, se ha omitido –por ahora– una tercera variable. Las categorías


dicotómicas para ambas variables serán:

Utilización de amuleto/cábala (UC): SI / NO

Resultado del examen (RE) Aprobó (A) / No aprobó (A)

52
Cfr.: Boudon, R. y Lazarsfeld, P., 1985; Zetterberg, H., 1981; Glock, C., 1973 y Hyman, H., 1984.

187
Primer paso: Cuadro Relación Original

UC
RE SI NO T
(a) (b)
A 90 5 95
_ (c) (d)
A 10 95 105

T 100 100 200

Como puede observarse, se está trabajando con una muestra de 200 casos. De los
100 alumnos que contestaron usar algún tipo de cábala o amuleto, 90 aprobaron el
examen mientras que 10 reprobaron. Por su parte, de los 100 alumnos que dijeron no
usar ningún tipo de cábala, 95 reprobaron y a sólo 5 les fue bien. No hay dudas que la
distribución de los datos está confirmando la hipótesis.
Si se deseara una mayor precisión, se podría apelar a algún coeficiente
estadístico que indicara el sentido y la intensidad de la relación. El más simple de esos
coeficientes es la Diferencia porcentual. Cuando se afirma que es el más simple
–aunque tal vez no sea el más preciso– es porque como su nombre lo indica el cuadro
tiene que estar en porcentajes calculados por columna y como se afirmó anteriormente,
es la modalidad en que deben presentarse los cuadros. La fórmula de este coeficiente
es:
D%= a – b

Las letras a, b, c y d, identifican las cifras parciales del cuadro, en el orden que
se indica en el cuadro entre paréntesis. De manera que lo único que faltaría sería hacer
la resta:
D%= 90 – 5= 85

Cuando la diferencia de las cifras parciales superiores da positiva, la diferencia


de las inferiores (c – d) da el mismo resultado pero negativo (–85).
El resultado que puede arrojar este coeficiente oscila entre 100 y –100 pasando
por 0 y se interpreta de la siguiente manera:
0 = Independencia estadística (no hay relación entre las variables).
100 = Relación directa total
–100 = Relación inversa total
Luego, entre 0 y 100 o entre 0 y –100, pueden distinguirse diferentes
intensidades; aproximadamente:
Entre 0 y 40: relación directa débil.
Entre 40 y 70: relación directa media.
Entre 70 y 100: relación directa fuerte.

188
Entre 0 y –40: relación inversa débil.
Entre –40 y –70: relación inversa media.
Entre –70 y –100: relación inversa fuerte.
Lógicamente que la interpretación de los signos positivos y negativos se aplica
para los niveles ordinales, intervalares o racionales. En caso contrario, para niveles
nominales sólo puede interpretarse la intensidad. A continuación se lo grafica de la
siguiente manera:

IE
–100 –70 –40 0 40 70 100
____________________________________/__________________________________

RIT RIF RIM RID RDD RDM RDF

Retomando nuestro ejemplo anterior y recordando que para ambas variables el


nivel de medición es nominal: Uso de cábala (SI / NO) y Resultado del examen (Aprobó
/ No aprobó), el resultado de la Diferencia porcentual (85) indica que existe una relación
fuerte (RF) entre las variables.
Ahora bien, los datos pueden comprobar la hipótesis, el coeficiente indicar que
la relación entre las variables es fuerte y, sin embargo, la relación –en términos de
causalidad– puede ser espuria. Con otras palabras y sin negar la importancia que las
cábalas o amuletos puedan llegar a tener –especialmente, como soporte psicológico–
para los alumnos en situación de examen y, en general, para todos los cabuleros en
cualquier situación, difícilmente pueda ser concebida como posible causa. Siguiendo
este razonamiento es que se pensó en una tercera variable que –en términos más
racionales y lógicos, aunque no siempre funcionen– pudiera ser la verdadera causa.
Precisamente, esa tercera variable es Estudio (E) con sus dos categorías: estudió
(E) y no estudió (E). De manera que ahora, la hipótesis afirmaba:

“Si los alumnos universitarios utilizan algún tipo de cábala o amuleto entonces
aprueban el examen pero siempre y cuando además hayan estudiado”.

Lo anterior implica que nuestra breve encuesta –a boca de aula– tenía tres
preguntas: 1. Resultado del examen; 2. Uso de cábala o amuleto; 3. Si había estudiado.
Como se explicó oportunamente, la introducción de una tercera variable supone
reprocesar los datos para elaborar los cuadros parciales, realizando el análisis
multivariado. Continuando con el ejemplo, nuevamente se inventará la distribución de
manera “grosera” de forma tal que los resultados ilustren claramente el concepto de
espureidad. Al mismo tiempo y para que también pueda apreciarse como la sumatoria
de ambos es igual al cuadro original, se presentará los cuadros en valores absolutos y
entre paréntesis los porcentajes:

189
Segundo paso: Cuadro de las relaciones parciales

E
E E

UC UC
RE SI NO T RE SI NO T
(100) (100) (0) (0)
A 90 5 95 A 0 0 0
_ (0) (0) _ (100) (100)
A 0 0 0 A 10 95 105

T 90 5 95 T 10 95 105

D%= 0 D%= 0

Como puede observarse, de los 90 alumnos que habían dicho utilizar alguna
cábala y que habían estudiado, los 90 aprobaron mientras que los 10 que usaban cábala
pero que no habían estudiado, reprobaron. Por su parte, los 5 que no eran cabuleros pero
habían estudiado aprobaron mientras que los 95 no usaban cábala y tampoco estudiaron
todos reprobaron. De la lectura e interpretación de los datos se percibe fácilmente que
las distribuciones cambiaron en relación al cuadro original y que la hipótesis inicial no
se había mantenido. Para mayor seguridad, se volvió a calcular el mismo coeficiente
para cada cuadro parcial y, en ambos casos, se lo comparó con el resultado original que
se recordará había dado 85. Si la relación entre uso de cábala y resultados era genuina
debía mantenerse frente a la tercera variable. Eventualmente, si se hubiera alterado en
uno de los cuadros pero no en el otro, hubiera sido cuasi espuria o, lo parcialmente
genuina. En cambio, si disminuía ostensiblemente en ambos cuadros o desaparecía, eso
era un indicador de espureidad. Como puede observarse, desapareció en ambos
cuadros.
Tal como se adelantó en el apartado anterior, existe la posibilidad de realizar el
tercer paso denominado cuadro de relaciones marginales a los efectos de analizar, ahora
por separado cómo es la relación entre la variable de prueba y la independiente y la
variable de prueba y la dependiente. Bastaría con efectuar los cruces y cuadros
bivariados correspondientes. No hay dudas que en el ejemplo anterior el último cruce
mencionado daría una relación total entre Estudio y Resultado del examen.

5. Segmentación y construcción de perfiles

Segmentar implica estratificar o dividir una población. Se trata de una


herramienta muy utilizada en los análisis –en especial, de marketing político o
comercial– en función de distintas variables y respondiendo a diferentes objetivos.

190
Básicamente, consiste en partir de un universo conocido y heterogéneo y
traducirlo en estratos homogéneos que –por lo menos– compartan algunas propiedades.
Sin embargo, el hecho de haber homogeneizado el estrato no significa que sus
elementos componentes tengan que serlo entre sí. Se trata simplemente de una
herramienta analítica y como tal, de un artificio estadístico o heurístico, útil para los
fines investigativos que se estén persiguiendo. Por el mero hecho de tener uno o más
elementos en común se los concibe como una “unidad social” capaz de comportarse de
similar manera o de “reaccionar” de manera parecida a un determinado estímulo o
situación sin que esto suponga que esas unidades deban conocerse, interactuar entre sí o
estar reunidos físicamente en algún espacio. Se insiste, su existencia es meramente
teórica o conceptual; es decir, en principio estos segmentos existen en la mente del
analista.
Desde sus propios comienzos las ciencias sociales –entre ellas la sociología–
manifestaron cierta tendencia a segmentar las sociedades o comunidades. Y como en
tantas otras cosas se inspiraron en otras ciencias –en este caso, en la Geología– para
elaborar sus conceptualizaciones de la realidad social. De esta manera, así como el
término estrato designaba a las distintas capas de la corteza terrestre que se hallan
superpuestas –connotando incluso, algún tipo de jerarquización– lo mismo hicieron
nuestras disciplinas –aunque no siempre– manteniendo ese ordenamiento jerárquico.
Fue así como nacieron los conocidos estratos sociales o socioeconómicos o clases
sociales, categorías de personas que comparten similares condiciones de existencia.
En tal sentido, estratificar no deja de ser una forma de discriminar –en el sentido
de separar o distinguir– sin que ello suponga dispensar un trato desfavorable
(discriminación negativa) o favorable (discriminación positiva) a quienes forman parte
de ese estrato. Y si de distinguir se trata, se podría también hacerlo entre los planos
objetivos y subjetivos, asumiendo que no necesariamente deben coincidir: una cosa es la
estratificación social medida con indicadores objetivos y otra cosa es la autodefinición
que –según su percepción– realicen los actores involucrados –criterios ambos que
suelen emplearse, aunque con distintos grados de precisión– en cualquier clase de
segmentación que suponga la pertenencia a diferentes segmentos (Merton, 1980).
Pero no sólo las variables sociodemográficas o combinación de ellas
(segmentación multivariada) se utilizan para estratificar. También se puede apelar a
criterios geográficos para distinguir entre diferentes conglomerados humanos como, por
ejemplo, sucede cuando se analiza el comportamiento electoral agrupando a la
población del gran buenos aires, en cordones residenciales. También es posible
discriminar en términos de variables psicológicas –como tipos de personalidad–,
culturales –por estilos de vida– conductuales, etc.

5.1. La construcción de perfiles

Una consecuencia directa de la segmentación es el perfilamiento de la población


estudiada. Los perfiles constituyen el equivalente de las tipologías en el análisis
cualitativo53 –aun cuando ambas herramientas estadísticas podrían utilizarse
53
Véase el capítulo siguiente.

191
indistintamente en ambos tipos de estudio–. Son diferentes formas de presentar y
resumir los resultados, agrupando a la población analizada y caracterizándola de
acuerdo a las principales variables en torno a las cuales se realiza el abordaje.
Básicamente, existen dos formas de construcción:
1. Utilizando las cifras producto de los porcentajes por columnas de cada cuadro
bivariado, lo que supondría otra forma de mostrar los mismos resultados pero ahora
reunidos en cada perfil.
2. Apelando a las cifras producto de los porcentajes por fila; es decir, tomando como
base de cálculo el total del perfil.
3. Apelando a las cifras producto de los porcentajes sobre el total de la muestra
Supóngase que –retomando el ejemplo de la opinión sobre la película– se
quisiera construir el perfil de los favorables y los desfavorables a la película
(segmentación conductual), caracterizándolos en función de las otras variables del
estudio: NSE (como mostró el cuadro presentado), sexo, edad e ideología.
A continuación se presentan dos perfiles de los favorables calculado de acuerdo
a las dos primeras opciones (porcentajes por columna y por fila):

Perfil de los favorables


(con porcentajes por columna)

70%
nse alto

55% Favorables
65%
26 a 50 años izquierda

60%
hombres

192
Perfil de los favorables
(con pocentajes por fila)

55%
nse alto

45% Favorables
60%
26 a 50 años izquierda

58%
hombres

193
CAPÍTULO 14: EL INFORME FINAL

1. Introducción

En cualquier esquema en donde se expliciten los pasos de una investigación el


Informe corresponde al último. Y es de fundamental importancia por diversos motivos:

 Los resultados de los estudios se dan a conocer por su intermedio.


 La investigación será evaluada a través de él.
 Los estudios se “venden” mediante los informes.
 Si el informe no refleja en forma acabada el trabajo realizado malgasta los recursos
empeñados.

Todo informe tiene una estructura que no necesariamente coincide con el


esquema o los pasos que se han seguido en el proceso de investigación. Básicamente
dicha estructura –en sus aspectos sustantivos–, tiene que contemplar los tres
componentes de la investigación:

 El diseño.
 El proyecto.
 El proceso.

Si como se desarrolló oportunamente cada uno de estos componentes tiene su


propia “lógica”, la estructura del Informe tiene que ser solidaria e inclusiva de las
mismas, pero respondiendo en última instancia a la “racionalidad” de la investigación
entendida en un sentido amplio. Por otra parte, su presentación formal (organización,
estilo, redacción, etc.) debe considerar a sus potenciales lectores (incluyendo los
evaluadores) y/o medios de publicación.

2. Estructura del informe

Recogiendo lo estipulado por los diferentes autores54 y a los efectos pedagógicos


y analíticos, a continuación se esquematizará la estructura dividida en tres grandes
secciones, cuyos contenidos (formales y sustantivos) y ordenamiento final se definirá en
función de los aspectos anteriormente mencionados:

1. SECCION PRELIMINAR

1.1. Carátula y/o portada.


1.1.1. Título y subtítulos.
1.1.2. Autores.
1.1.3. Institución patrocinante/editorial.

1.2. Otros datos de clasificación y/o catalogación:


1.2.1. Fecha de edición y/o impresión.
54
Ver bibliografía general.

194
1.2.2. Número de edición/reimpresión.
1.2.3. Lugar de edición.
1.2.4. Reserva de derechos.

1.3. Dedicatorias.
1.4. Agradecimientos.
1.5. Prólogo.
1.6. Índice analítico (puede ir en la tercera sección).

2. CUERPO DEL INFORME

2.1. Introducción:
2.1.1. Planteo del problema.
2.1.2. Origen del proyecto.
2.1.3. Justificación.
2.1.4. Objetivos generales y particulares.
2.1.5. Hipótesis iniciales.
2.1.6. Breve reseña de lo realizado sin adelantar resultados.

2.2. Marco teórico:


2.2.1. Enfoque disciplinario y teórico.
2.2.2. Desarrollo conceptual de las problemáticas abordadas.
2.2.3. Hipótesis de la investigación.
2.2.4. Definición conceptual de las variables.
2.2.5. Entrevistas a especialistas.
2.2.6. Datos secundarios.
2.2.7. Marco histórico.

2.3. Aspectos metodológicos (Ficha técnica):


2.3.1. Tipo de estudio (caracterización de la investigación).
2.3.2. Operacionalización de las variables (categorías, indicadores, índices, etc.).
2.3.3. Universo y unidades de análisis.
2.3.4. Muestreo (técnica, tamaño, error muestral, etc.).
2.3.5. Técnica de recolección.
2.3.6. Tipo de preguntas.
2.3.7. Fecha de realización .

2.4. Presentación de los resultados:


2.4.1. Cuadros, gráficos, segmentaciones, perfiles, tipologías, etc.
2.4.2. Títulos, lecturas e interpretaciones.

2.3. Conclusiones, sugerencias y recomendaciones:


2.3.1. Breve síntesis de los principales resultados.
2.3.2. Reformulación o formulación de nuevas hipótesis.
2.3.3. Sugerencias de nuevas investigaciones

195
3. REFERENCIAS Y ANEXOS

3.1. Matriz o base de datos (en papel o cd).


3.2. Modelo de formulario/grilla/planilla/guía/etc.
3.3. Cualquier otro material (dibujos, mapas, etc.).
3.4. Referencias bibliográficas.
3.5. Índice de cuadros y gráficos.
3.6. Índice analítico (si no se lo incluyó en la primera sección).

196
CAPÍTULO 15: INVESTIGACIONES EXPLORATORIAS, DESCRIPTIVAS Y
EXPLICATIVAS

Como se mencionó en el apartado correspondiente la mayoría de los autores


cuando analizan y clasifican los estudios toman como principal referencia al diseño de
investigación55. Consecuentemente con ello y por distintas razones no siempre
explicitadas (influencias de la epistemología y metodología positivista y neopositivista;
referencia a las ciencias naturales; mayores y mejores evidencias; manipulación de las
variables independientes o estímulos; garantías de un mayor control, etc.) distinguen
entre investigaciones/diseños/tesis experimentales y no experimentales.
Particularmente, se considera que existen numerosas razones por las que dicha
clasificación no resulta ser la más adecuada dado que no refleja la realidad de las
ciencias en general, y menos aún, de las sociales en particular. Se trata de motivos de
distinta naturaleza: algunos son de índole epistemológico y /o metodológico, otros son
más éticos y filosóficos. Dado las características del presente escrito, me limitaré a
esbozar aquellos que a mi entender son los principales, sin que el orden de exposición
signifique jerarquía o importancia:
 Aun a riesgo de ser reiterativo y tal como se analizó anteriormente, se confunde
diseño con investigación y/o se subordina el estudio al diseño.
 Existe una tendencia por parte de los cientistas sociales a identificar a las ciencias
naturales con el laboratorio y por carácter transitivo con el experimento.
Simultáneamente, asocian a las ciencias naturales con la explicación y predicción,
pasando por alto o desestimando la descripción. Sin embargo, cabe aclarar que no
todas las ciencias naturales son experimentales (por ejemplo, la astronomía y la
geología) y aquellas que suelen serlo (la física, la química etc.), cada vez toman con
mayor cautela, los resultados obtenidos mediante tales procedimientos. Asimismo,
también muchas teorías de las ciencias naturales (por ejemplo, la biología) son
exclusiva o predominantemente descriptivas.
 Hasta principios del siglo XX nadie o casi nadie ponía en duda la cosmovisión
legada por Newton de un mundo previsible, simétrico, ordenado, axiomatizado,
matematizado, euclidiano, causal, determinista, etc. Sin embargo, poco a poco dicha
concepción se fue derrumbando: Planck, con su teoría cuántica, Einstein con la
relatividad, Heisemberg y su principio de incertidumbre, Bohr y su principio de
complementariedad, Gödel con su teorema y la crisis de los fundamentos en las
matemáticas, Schrödinger y sus paradojas, etc. (Moledo, 1994) fueron terminando
con las viejas certidumbres.
 Entre los años 70 y 80 y con la ayuda del extraordinario desarrollo de los
ordenadores como herramientas analíticas y de inspiración visual, se fue abriendo
paso un nuevo tipo de síntesis conocido con el nombre de “teoría del caos”.
Nombre engañoso según Hobsbawm porque lo que revelaba no era tanto los
impredecibles resultados de procedimientos científicos perfectamente deterministas,
55
Entre los más recientes: Sierra Bravo (1996); Hernández Sampieri (1994) y Alvira Martín, F. en García
Ferrando, M. y otros (1993).

197
sino la extraordinaria universalidad de formas y modelos de la naturaleza en sus
manifestaciones más dispares y aparentemente inconexas. La teoría del caos rompió
los lazos entre la antigua causalidad y la predicción, sosteniendo que los efectos
provocados por causas específicas no se podían predecir Hobsbawm, 1998).
 Consecuentemente con lo anterior, se reforzó otra cuestión desarrollada por los
paleontólogos y que ya había afirmado el propio Darwin: las cadenas del desarrollo
evolutivo son perfectamente coherentes y explicables después del hecho, pero no
desde el principio, porque si se dan las mismas condiciones otra vez, cualquier
cambio, por insignificante o poco importante que pueda parecer en ese momento,
“hará que la evolución se desarrolle por una vía radicalmente distinta” (Gould,
1989). También en los años 60 con la obtención de nuevos datos astronómicos (no
experimentales) se comprobó que el universo se expandía a una velocidad de
“vértigo”, lo cual aumentó enormemente el papel de la historia en las ciencias
naturales al tiempo que disminuyó la identificación de las ciencias duras con la
experimentación, es decir, con la reproducción de los fenómenos naturales, porque
¿cómo se iban a repetir hechos que por definición eran irrepetibles?
 En 1996 –y como una síntesis de lo anterior–, Ilya Prigogine (hombre proveniente
de las ciencias duras y premio nobel de química) en su libro El Fin de las
Certidumbres (título por cierto significativo) afirma que “... la ciencia clásica
privilegiaba el orden y la estabilidad, mientras que en todos los niveles de
observación reconocemos hoy el papel primordial de las fluctuaciones y la
inestabilidad. Junto a estas nociones aparecen también las opciones múltiples y los
horizontes de previsibilidad limitada (...) La física tradicional vinculaba
conocimiento completo y certidumbre, que en ciertas condiciones iniciales
apropiadas garantizaban la previsibilidad del futuro y la posibilidad de retrodecir el
pasado. Apenas se incorpora la inestabilidad, la significación de las leyes de la
naturaleza cobra un nuevo sentido. En adelante, expresan posibilidades”. Y más
adelante agrega: “...Los sistemas caóticos son un ejemplo extremo de sistema
inestable: en ellos las trayectorias correspondientes a condiciones iniciales divergen
de manera exponencial con el tiempo. Entonces hablamos de ‘sensibilidad a las
condiciones iniciales’, y lo ilustramos con la conocida parábola del ‘efecto
mariposa’, que dice que el aleteo de una mariposa en la cuenca amazónica puede
afectar el clima de Estados Unidos (...) Se habla a menudo de ‘caos determinista’.
En efecto, las ecuaciones de sistemas caóticos son tan deterministas como las leyes
de Newton. ¡Y empero engendran comportamientos de aspecto aleatorio!”. Y
termina diciendo: “Lo que hoy emerge es por lo tanto una descripción mediatriz,
situada entre dos representaciones alienantes: la de un mundo determinista y la de
un mundo arbitrario sometido únicamente al azar. Las leyes no gobiernan el mundo,
pero éste tampoco se rige por el azar. Las leyes físicas corresponden a una nueva
forma de inteligibilidad, expresada en las representaciones probabilísticas
irreductibles. Se asocian con la inestabilidad y, ya sea en el nivel microscópico o en
el macrocroscópico, describen los acontecimientos en cuanto posibles, sin reducirlos
a consecuencias deducibles y previsibles de leyes deterministas” (Prigogine, 1996).

198
 Por su parte, la mayoría de los estudios que se llevan a cabo en las ciencias sociales
son no experimentales. Muchos son descriptivos, pero también los hay explicativos
o causales que se desarrollan siguiendo la misma lógica de cualquier prueba causal.
Sin embargo, la mayoría de los estudios explicativos que se realizan en las ciencias
sociales no son mecanicistas, no se rigen por la relación lineal causa-efecto, no
aceptan la alternativa de una única causa, no manipulan estímulos o variables
independientes, no se llevan a cabo en condiciones de aislamiento, no realizan
explicaciones ex-antes sino ex-post (Guber, 1994), utilizando procedimientos “más
realistas” que el experimento, etc. al igual que lo hacen las ciencias naturales (y en
algunos casos hasta con mayor antelación). De esta manera, si la mayoría de las
investigaciones sociales son no experimentales, poco fructífera es la distinción entre
estudios experimentales y no experimentales dado que casi todos los estudios
(explicativos y no explicativos) terminarían encasillados en la última categoría. Con
lo cual no se cumpliría con uno de los principios básicos que rigen las
clasificaciones, categorizaciones, tipologías, etc.: su valor heurístico, discriminatorio
y analítico.
 Al respecto y recientemente, Passeron señala que las ciencias sociales siguen
“siendo inevitablemente múltiples y competitivas”. Agregando que los datos que se
extraen de las observaciones nunca permiten ni una demostración lógica-matemática
que opere como dentro de un puro sistema formal ni un razonamiento experimental
que pudiera ser desarrollado “suponiendo que todos los demás elementos
permanecen iguales”. Y continúa afirmando que las explicaciones de las ciencias
sociales son “desigualmente concluyentes según la pertinencia de los materiales
empíricos reunidos y según el estilo de prueba que organizan sus métodos de
tratamiento de los datos”. Para finalizar concluyendo que “estamos en una ciencia
donde la prueba es una cuestión de más o menos, no de todo o nada” (Passeron, 00).
 A pesar de su “juventud” han pasado unos cuantos años desde que las ciencias
sociales han dejado de tomar como único modelo válido a las ciencias naturales.
Hasta se podría decir, que en la actualidad el camino es inverso: son las ciencias
naturales las que han comenzado a volver su mirada a sus “hermanas menores” y
muchas veces vituperadas ciencias sociales. Pero lo más preocupante, es que a veces
esta descalificación proviene de los propios cientistas sociales como ocurre cuando
en sus propias conceptualizaciones practican el sociocentrismo pero al revés, es
decir, en desmedro de sus disciplinas de pertenencia.

Con todo lo anterior se pretende justificar –con las limitaciones ya explicitadas–,


la afirmación de que la clasificación de las investigaciones en experimentales y no
experimentales no sólo no es la más adecuada sino que resulta anacrónica e incluso
marcha a contramano de la historia. En consecuencia –y tal como se verá– , los diseños
experimentales se caracterizarán como lo que son: una estrategia particular dentro de los
estudios explicativos.
Considerando que la idea de continuo –al no establecer límites precisos pero
permitir al mismo tiempo la distinción entre posiciones–, es la que mejor refleja la

199
realidad que se analiza, se propone imaginarnos un “continuo investigacional” en el cual
diferenciar los estudios exploratorios, descriptivos y explicativos.

INVESTIGACIONES

1. Investigaciones exploratorias

Los estudios exploratorios pueden constituir una investigación en sí misma o ser


la etapa inicial de otra que se caracterizará luego por ser descriptiva o explicativa. En
ambos casos, presentará características distintivas que le otorgan un peso propio pero al
mismo tiempo cumplirá con los diferentes pasos de cualquier investigación.

1.1. Objetivos genéricos


1.1.1. Familiarizarse con el problema de investigación para deducir (a partir de la
información obtenida) que aspectos requieren un análisis más pormenorizado en
indagaciones posteriores.
1.1.2. Verificar la factibilidad de la investigación y documentar los medios que se
precisan para hacerla viable.
1.1.3. Comprobar qué estrategia (o estrategias) de investigación se adecua más a su
análisis (Cea D’Ancona, 1996).
1.1.4. Identificar áreas o situaciones problemáticas.
1.1.5. Delimitar y convertir problemas en problemas de investigación.
1.1.6. Elaborar un proyecto de investigación.
1.1.7. Indagar sobre razones, motivos, actitudes individuales o grupales.
1.1.8. Testear conceptos, ideas, productos, nombres, etc.
1.1.9. Formular hipótesis de trabajo y probar las condiciones de su contrastación.

200
1.2. Características:
1.2.1. Flexibilidad.
1.2.2. Cualitativo, cuantitativo o cualicuantitativo.
1.2.3. Sincrónico.
1.2.4. Asociado al contexto de descubrimiento.
1.2.5. Predominantemente inductivo.

1.3. Diseños exploratorios


1.3.1. Modalidades:
1.3.1.1. Formulativo
1.3.1.2. Fenomenológico o conceptual/racional (Schmeichel).
1.3.1.3. Laboratorio o de campo

1.3.2. Técnicas de muestreo no probabilísticas:


1.3.2.1. Casuales o accidentales
1.3.2.2. Intencionales o evaluadas
1.3.2.3. Por cuotas
1.3.2.4. Bola de nieve56.

1.3.3. Técnicas de recolección:


1.3.3.1. No estructuradas o semiestructuradas (entrevistas, observaciones, etc.).
1.3.3.2. Focus Groups (de discusión y motivacionales)
1.3.3.3. Análisis de contenido
1.3.3.4. Torbellino o tormenta de ideas
1.3.3.5. Revisión bibliográfica
1.3.3.6. Revisión de experiencias
1.3.3.7. Experiencia de campo
1.3.3.8. Análisis de casos típicos y atípicos

1.3.4. Análisis de datos:


1.3.4.1. Matrices / bases de datos
1.3.4.2. Cuadros uni y bivariados
1.3.4.3. Grillas comparativas
1.3.4.4. Perfiles cualitativos
1.3.4.5. Tipologías
1.3.4.6. Convergencia

Como se puede apreciar los estudios exploratorios presentan una amplia gama de
posibilidades y son tan fértiles como cualquier otra investigación. Si se los compara
con los descriptivos, en la mayoría de los casos existen diferencias de grado en lo que se
refiere a los niveles de análisis y de rigidez o control. Ya en 1960, Selltiz y

56
Para la problemática del muestreo ver en este libro el capítulo sobre muestreo.

201
colaboradores sostenían: “...existe una tendencia a subestimar la importancia de la
indagación exploratoria y considerar solamente el trabajo experimental como
‘científico’...” (Selltiz y otros, 1974). Esta tendencia se ha revertido en los últimos
años, importantes autores (en especial, del paradigma cualitativo) legitiman y
reivindican las investigaciones cualitativas.57

2. Investigaciones descriptivas

La mayoría de los estudios en ciencias sociales son descriptivos y por lo general,


exploratorios – descriptivos. Si volvemos nuestra imaginación al continuo se verá como
se ha adelantado en el mismo. Describir significa realizar un estudio exhaustivo e
intensivo del problema. A diferencia del exploratorio (en donde se partía de un
desconocimiento de la situación) las investigaciones descriptivas se “inician” luego de
haber realizado dicho estudio.

1.4. Objetivos genéricos:


1.4.1. Analizar la distribución de una población o grupo en función de un conjunto de
variables.
1.4.2. Estudiar con qué frecuencia se producen determinados acontecimientos.
1.4.3. Efectuar predicciones en cuanto a la ocurrencia de fenómenos.
1.4.4. Analizar tendencias y realizar proyecciones.
1.4.5. Estudiar posibles relaciones entre variables o contrastar hipótesis descriptivas
(no causales o explicativas) (Selltiz y otros, 1974).
1.4.6. Describir comportamientos o actitudes individuales o grupales.

1.5. Características:
1.5.1. Mayor rigidez.
1.5.2. Cualitativo, cuantitativo o cualicuantitativo.
1.5.3. Sincrónico y diacrónico.
1.5.4. Asociado al contexto de descubrimiento.
1.5.5. Predominantemente inductivo pero también deductivo (Errandonea, 1977).

1.6. Diseños descriptivos


1.6.1. Modalidades:
1.6.1.1 De variables: centrados en analizar el nivel o estado de una o diversas variables.
1.6.1.2 Relacionales (asociacionales o correlacionales): cuando el interés es estudiar
cuál y cómo es la relación entre un conjunto de variables. Son asociacionales cuando
relacionan variables cualitativas mientras que son correlacionales, cuando la relación es
entre variables cuantitativas. Esto significa que los diseños descriptivos contrastan
hipótesis no causales, es decir, que se proponen validar relaciones entre variables sin

57
Schwartz, H. y Jacobs, J, 1984; Valles, M., 1997 y Guber, R., 1994).

202
pretensiones ni atribuciones de causalidad. A su vez, ambos (de variables y relacionales)
según la dimensión temporal pueden ser seccionales, transversales o longitudinales.
1.6.1.3 Seccional o sincrónico: es el diseño más simple y es uno de los más usados en
las ciencias sociales. Se utilizan para estudiar los rasgos, características o relaciones
pero no sus causas o efectos. Consisten en realizar una sola medición de un único
grupo, muestra o población en un único momento o tiempo; sería como tomar una
fotografía de algo que sucede. Por ejemplo: estudio de satisfacción de los clientes de un
banco. Se denominan también “estudio de un caso” (empleado habitualmente en
antropología y en servicio social) o diseño “post test”.
1.6.1.4 Seccional – transversal: tiene lugar cuando la población o muestra investigada
está formada por diferentes grupos de edades con el fin de inferir la evolución con el
paso del tiempo de las/s variable/s o relaciones observadas. En este caso, la variable
edad se la utiliza como contextual comparativa.58 Este modelo “simula” el estudio
longitudinal. Por ejemplo: investigación sobre iniciación sexual en diferentes grupos de
edades. Otra modalidad de este tipo de diseño es el caso de las historias de vida (de un
individuo, grupo, institución etc.) y los estudios holísticos que realiza el paradigma
cualitativo (en especial, en Antropología), (Guber, 1994).
1.6.1.5 Longitudinal o diacrónico59: Comprende dos o más mediciones realizadas al
mismo grupo, muestra o población en tiempos diversos con el fin de analizar la
evolución de las variables o relaciones observadas. Esta modalidad también es muy
empleada en los estudios sociales con múltiples aplicaciones. Por ejemplo, en los
trabajos con datos secundarios que utilizan series anuales de datos estadísticos, o en
estudios donde se realizan diferentes mediciones (por ejemplo: investigación sobre la
evolución del grado de victimización en la provincia de Buenos Aires). Estos estudios a
su vez, pueden ser retrospectivos (cuando se remiten al pasado) o prospectivos (cuando
se refieren al futuro). Se denominan también “diseño de un solo grupo con pretest y
postest”, tal como sucede cuando se miden impactos de campañas publicitarias o de
alguna intervención social, o cuando se realizan tracking o diferentes ondas u olas. Los
diseños longitudinales recolectan datos a través del tiempo en puntos o períodos
especificados, para hacer inferencias respecto al cambio, sus determinantes y
consecuencias. Por tal motivo, constituyen el antecedente y la base de los estudios
explicativos (en especial, los experimentales). Por último, también se suele distinguir
entre:
1.6.1.6 De tendencia (trend): cuando se analiza el cambio a través del tiempo (de
variables o relaciones) dentro de alguna población (mediante censos o diferentes
muestras). La característica distintiva es que la atención se centra en la población.

58
Para la distinción y uso de las variables contextuales (constantes y comparativas), ver en este libro el
capítulo correspondiente.
59
Con frecuencia los estudios diacrónicos suelen ser caracterizados como “históricos”. Sin embargo, este
último concepto presenta algunas dificultades tanto en su significado y connotación como en su
“periodización”, en especial cuando se trata de llevar a cabo estudios comparativos. Por tal motivo, se ha
preferido referir los conceptos de longitudinal o diacrónico a la variable “tiempo”, que por otra parte,
resulta más simple de mensurar o intervalar. Para mayor información véase Bartolini, Stefano: Tiempo e
investigación comparativa en Sartori, G. y Morlino, L. (1999): La comparación en las ciencias sociales,
Alianza, Madrid, 1999.

203
1.6.1.7 De evolución de grupos (cohortes): se examinan cambios a través del tiempo en
subpoblaciones o grupos específicos vinculados de alguna manera o con algo en común
(grupos de edades o egresados de una universidad). Si bien por lo general se trabaja con
muestras, la atención continúa centrándose en el grupo o categoría de individuos. Por
ello, la evaluación del cambio –tanto para los de tendencia como para los de cohortes–,
sigue siendo colectiva.
1.6.1.8 De panel: son similares a los anteriores, sólo que el mismo grupo o muestra de
individuos es medido en todos los tiempos o momentos. La ventaja es que permite
analizar el cambio no sólo grupal sino también individual pero de igual manera presenta
las dificultades que significa trabajar siempre con los mismos individuos (problemas de
contactación, desgranamientos, deserciones o pérdidas, además de las propias
incidencias de las reiteradas mediciones). Por ejemplo, la muestra permanente de
hogares que utiliza el INDEC (Instituto Nacional de Estadísticas y Censos) o ciertos
estudios sobre hábitos frente al televisor.
Los modelos descriptivos también se clasifican según tengan (o no) en cuenta la
“dimensión espacial” en:
1.6.1.9 Comparativos y no comparativos: constituyen una extensión de los seccionales y
longitudinales. Tienen lugar cuando abarcan no solo un grupo sino dos o más muestras
o poblaciones distintas simultáneamente con el propósito de efectuar comparaciones.
Nuevamente en este modelo se percibe la importancia de las variables contextuales. Las
mediciones pueden efectuarse en un solo momento (comparativos seccionales) o en
diferentes tiempos (comparativos longitudinales). Existen importantes corrientes en las
ciencias sociales que reivindican los modelos comparativos sistemáticos como recurso
heurístico y también para la elaboración y fundamentación de teorías60. Asimismo, este
modelo se asemeja –tal como se verá–, a los explicativos con “grupos de control”.
Para finalizar se presenta como síntesis de los modelos descriptivos el siguiente
cuadro:

60
Ver Glaser y Strauss en Schwartz y Jacobs, 1994 y Sartori, G. y Morlino, L., 1999.

204
DISEÑOS DE INVESTIGACIONES DESCRIPTIVAS

De variables Relacionales

Seccionales o sincrónicos

Seccionales – Transversales

Longitudinales o diacrónicos (tendencia, cohorte o panel)

Comparativos No comparativos

1.7 Técnicas de muestreo:


1.7.1 No probabilísticas
1.7.2 Probabilísticas
1.7.3 Mixtas

1.8 Técnicas de recolección:


1.8.1 Observación
1.8.2 Entrevista
1.8.3 Cuestionario
1.8.4 Encuesta
1.8.5 Historia de vida, entrevistas focalizadas
1.8.6 Análisis de contenido
1.8.7 Escalas de medición
1.8.8 Tests

1.9 Análisis de datos:


1.9.1 Matrices / Bases de datos
1.9.2 Cuadros uni, bi y multivariados
1.9.3 Estadística descriptiva e inferencial
1.9.4 Análisis de clusters
1.9.5 Perfiles cuantitativos
1.9.6 Segmentación
1.9.7 Clasificaciones y tipologías

205
3. Investigaciones explicativas

La principal finalidad de toda ciencia es lograr la explicación de los fenómenos


estudiados, ya sea en términos de leyes científicas o de modelos teóricos que encuadren
y avalen dicha explicación. En sus orígenes las ciencias sociales tomaron como modelo
a las ciencias naturales homologando el estudio de lo social al mundo natural. De esta
forma se valieron de las mismas metodologías, técnicas y hasta terminologías que
empleaban las ciencias naturales. Así es como Comte desarrolla lo que inicialmente fue
el positivismo (y el paradigma cuantitativo). El positivismo considera que la principal
finalidad de la ciencia (natural y social) es la explicación y la predicción de los
fenómenos en términos de leyes científicas o inferir proposiciones que permitan
subsumir hechos particulares en leyes universales (Schuster, 1982). Para esta corriente,
en la explicación causal, a determinadas condiciones iniciales y específicas del
fenómeno, bajo determinadas leyes generales suceden consecuencias o efectos también
determinados (explicación nomológica deductiva). Esta explicación puede ser
determinista (mecánica) o probabilística. Y si bien es cierto que existen otros tipos de
explicaciones como la funcionalista (que explica por las consecuencias o funciones
–utilidad– de cada elemento) utilizadas tanto en las ciencias naturales (biología) como
en las sociales (sociología, antropología, etc.) y las teleológicas (que explica por las
intenciones o finalidades) propias de las ciencias sociales, en un sentido estricto (y
restringido), cuando se habla de explicación se lo hace en el primer sentido (señalando
los factores antecedentes/pasados) y no como las restantes (que enfatizan los
consecuentes/futuros).
Por otra parte, dentro del campo de las ciencias sociales también se distingue
entre las explicaciones causales “ex - antes” predictivas y las “ex - post” no predictivas
(que de acuerdo a modelos teóricos que contienen conexiones tendenciales indican el
carácter necesario de los procesos –y no su inexorabilidad o inevitabilidad histórica–,
admitiendo la intervención de otros factores que las modifiquen o neutralicen). De esta
manera las explicaciones de los hechos sociales deberían realizarse luego de haberse
producido y no antes, negando la especificidad de las prácticas sociales (“determinismo
retrospectivo”, según Weber).
Por tal motivo, y sin entrar en la discusión filosófica e incluso epistemológica
sobre qué significa explicar, y dejando a un lado también la distinción entre explicación
y comprensión, en el desarrollo siguiente se adoptará una concepción pragmática y
metodológica61, considerando investigaciones explicativas a aquellas que pretenden
probar relaciones causales entre variables, que den cuenta de por qué ocurre un
fenómeno y cuáles son las condiciones que lo hacen posible. En tal sentido, y
retomando el continuo imaginario inicial, las secuencias serían las siguientes:
a) búsqueda de posibles relaciones entre variables (exploratoria);
b) establecimiento y análisis de dichas regularidades (descriptiva);

61
Goode, W. y Hatt, P., 1976; Bunge, M., 1972 y Mayntz, R., 1988.

206
c) comprobación de hipótesis causal, formulación de leyes o elaboración de modelo
teórico (explicativa).

3.1 Objetivos genéricos:


Considerando que una hipótesis explicativa afirma una relación de causalidad
empírica, asimétrica (no reversible) entre sus variables y que para su puesta a prueba y
comprobación es necesario obtener tres tipos de evidencias (Selltiz, 1974):
3.1.1 Analizar y controlar el orden temporal de las variables (independientes y
dependientes).
3.1.2 Estudiar y controlar la supuesta relación causal (continuidad y permanencia,
dirección e intensidad).
3.1.3 Analizar y controlar otros posibles factores (variables extrañas, perturbadoras,
alternativas, intervinientes, contribuyente, etc.) que puedan incidir en la supuesta
relación causal (control de espureidad).

1.7. Características:
1.7.1. Control
1.7.2. Cuantitativo
1.7.3. Longitudinal o seccional
1.7.4. Asociado al contexto de justificación
1.7.5. Deductivo

1.8. Diseño explicativo


1.8.1. Modalidades:
1.8.1.1 Modelo de análisis multivariado: la causalidad implica relación pero no toda
relación significa causalidad. Una relación entre dos variables siempre admite la
posibilidad de que exista una explicación alternativa, es decir, que puede ser espuria.
Una relación espuria significa que es ilusoria, no real, no genuina; que se debe a una
tercera variable (antecedente o interviniente). Por tal motivo y tal como se desarrolló en
el capítulo correspondiente, este modelo consta de dos pasos:
1.8.1.1.1 Primer paso: Cuadro de la relación original. En este paso se cruzan la variable
independiente (x = supuesta causa) con la variable dependiente (y = supuesto efecto) y
se analiza:
c) la distribución de los datos (si comprueban o no la hipótesis);
d) la relación: sentido o dirección (directa o inversa) y fuerza o intensidad (débil,
media o fuerte); para ello, se utilizan diferentes coeficientes estadísticos de
asociación o correlación.
1.8.1.1.2 Segundo paso: Cuadro de las relaciones parciales. En este paso se pone a
prueba la relación original (control de espureidad) introduciendo una tercer variable o
variable de prueba (antecedente, interviniente o contextual comparativa), realizando el
análisis multivariado. Si la relación original se mantiene en los cuadros parciales,
entonces es genuina; si desaparece o disminuye, entonces la relación es espuria62.

62
Véase el apartado correspondiente en el capítulo el análisis cuantitativo de los datos.

207
1.8.1.2 Modelo experimental: para trabajar con este modelo es necesario cumplir
mínimamente con los siguientes requisitos:
a) Realizar la prueba tantas veces como sea necesario y en circunstancias tan diversas
como fuese posible y la hipótesis lo requiera.
b) Manipular la variable independiente (que en este modelo recibe el nombre de
estímulo). Esto significa que el investigador pueda manejar la variable
independiente, garantizando su ausencia o presencia y según los casos, aumentando
o disminuyendo su intensidad; con otras palabras, someter a un (o varios) grupo a la
exposición del estímulo y simultáneamente mantener aislado a otro grupo (o a
varios).
En las ciencias sociales (pero también en algunas naturales) por lo general no es
posible cumplir con estos requisitos, ya sea porque se trabaja con variables
independientes que no se pueden manipular (género, edad, NSE, estado civil, nivel de
instrucción, etc.) o porque su utilización no resulta “ética”. Por tal motivo, el uso de
este diseño es limitado. No obstante, se realizan experiencias (en el área laboral,
publicitaria, educativa, etc.) en donde se trata de reproducir la lógica de este modelo.
El plan clásico del modelo experimental supone trabajar con dos grupos
(experimental, piloto o grupo de prueba y de control o grupo testigo). La lógica indica
que el grupo experimental será sometido a la exposición de un estímulo mientras que el
grupo de control se mantendrá “aislado” o al margen de dicha influencia para luego
comparar ambos grupos (en términos de la variable dependiente o supuesto efecto) y
asignar cualquier diferencia esperada al accionar del estímulo. Desde luego que los
grupos inicialmente tienen que ser parejos o similares (aun en su heterogeneidad o
diferencias internas) porque si esto así no sucediera, esas diferencias iniciales pueden
hacer fracasar el experimento o neutralizar el accionar del estímulo. Al mismo tiempo
se controlan también las variables extrañas o perturbadoras, cumpliéndose con todas o
casi todas las exigencias de la validez interna. Según los momentos en que se realicen
las mediciones (siempre en términos de la variable dependiente) este modelo podrá ser:
“antes (de introducir el estímulo) y después (de haberlo introducido)” o “sólo después”.
A modo de ilustración, se podría mencionar las clásicas publicidades que ofrecen
tratamientos (estímulos) para adelgazar o contra la caída capilar, en donde se muestra el
estado de la gorda o el pelado (medición antes) y el resultado luego de la aplicación del
tratamiento (medición después).
Los pasos de este modelo se sintetizan en el siguiente cuadro (para un esquema
“antes y después), (Selltiz, 1974):

208
Pasos Grupo Grupo
experimental de control

1. Selección aleatoria y/o con


técnica de contraste SI SI

2. Medición Antes (pretest) SI (Y1) SI (Y2)

_
3. Introducción del estímulo SI (X) NO (X)

4. Exposición de los grupos a


factores no controlados SI SI

5. Medición Después (postest) SI (Y3) SI (Y4)

6. Análisis de los resultados (Y1 – Y3) – (Y2 – Y4)

Cabe agregar que los modelos experimentales se clasifican también –según la


cantidad de grupos que se utilicen: uno, dos, tres, cuatro o más grupos (experimentales
y/o de control) y los momentos de la medición–, en preexperimentales,
cuasiexperimentales y experimentales puros (clásico). También de acuerdo al ámbito en
el que se desarrollan pueden ser de campo o de laboratorio. Dado la escasa utilidad en
las ciencias sociales (por lo que se señaló al comienzo de este capítulo, porque casi
nunca se puede cumplir con los requisitos establecidos, por la cuasi imposibilidad de
trabajar con el esquema clásico, puro o auténtico, que es el que mejor garantiza el
control de hipótesis alternativas y aunque esto fuera posible, igualmente sería poco
representativo), para mayores detalles nos remitimos a la profusa bibliografía
existente63.
Para finalizar, algunos comentarios comparativos: mientras que el modelo
experimental trabaja con una relación temporal presente–futuro (introduce hoy el
estímulo para analizar sus consecuencias en un mañana mediato o inmediato), el modelo
relacional trabaja con una relación presente–pasado (se encuentra hoy con ciertas
consecuencias y trata de indagar sobre sus posibles causas en el pasado cercano o

63
Ver la mayoría de los autores citados en bibliografía general.

209
lejano). Mientras que el modelo experimental ensaya explicaciones ex-antes, el modelo
multivariado las intenta ex–post. Mientras que en el modelo experimental se manipulan
estímulos, en el multivariado se manipulan estadísticamente los datos.

1.8.1.2 1 Técnicas de muestreo:


1.8.1.2.1.1Probabilísticas
1.8.1.2.2. Técnicas de contraste (por pares, por promedios y dispersiones)
1.8.1.2.2 Técnicas de recolección de datos:
1.8.1.2.2.1 Observación estructurada
1.8.1.2.2.1 Entrevista estructurada
1.8.1.2.2.2 Cuestionario
1.8.1.2.2.3 Encuesta

1.8.1.3 Análisis de datos:


1.8.1.3.1 Matrices o bases de datos
1.8.1.3.2 Cuadros bi y multivariados
1.8.1.3.3 Estadística inferencial, paramétrica y no paramétrica

Por último y volviendo al continuo imaginario inicial para hacerle algunos


agregados pero especialmente para recordar que los límites de los niveles de análisis son
relativos o mejor dicho invisibles:

TIPOS DE INVESTIGACIONES

Descriptivas Explicativas
Explora-
torias De Relaciones hipotéticas Experimen-
variables tales
S/control de C/control de
Espureidad Espureidad

210
CAPITULO 16: INFORME SOBRE LA INVESTIGACION
A MODO DE EJEMPLO (2º PARTE)

1. Breve recordatorio

El presente trabajo no es un Informe de Investigación sino un “informe sobre la


investigación” por medio del cual se pretende analizar y comentar la “cocina” y la
“lógica” de “un proceso de investigación”, al tiempo que ilustrar cómo se efectivizaron
cada una de las secuencias y sus procedimientos técnico-metodológicos64.
Como se señaló oportunamente, el informe trata sobre una investigación
realizada en el marco de un trabajo práctico de un seminario de la licenciatura, que ha
sido “adaptada” a las necesidades de la finalidad perseguida y por lo tanto, se ha
sacrificado la posibilidad de su semejanza con el estudio que realmente se llevó a cabo
en beneficio de alcanzar tal cometido.

2. Explicitación de los objetivos e hipótesis

A los efectos de retomar el desarrollo iniciado en la primera parte se explicitarán


los objetivos (tentativos):

Objetivo general:

Clasificar las técnicas anticonceptivas de acuerdo a su grado de eficacia (GETA)


y analizar los factores que inciden en su elección.

Objetivos particulares:

Determinar la influencia del Nivel Socioeconómico (NSE) y del Área Cultural de


Origen (ACO).
Establecer la incidencia del canal de información.
Analizar si la elección de la técnica varía de acuerdo a la edad y a la cantidad de
hijos.
Estudiar las relaciones existentes entre todas las variables mencionadas.

Hipótesis general:

“En cap/GBA, a medida que disminuye el Nivel Socioeconómico de las mujeres


en edad fértil, con pareja estable y que practican habitualmente alguna técnica
anticonceptiva disminuye la eficacia de la misma, incidiendo en dicha relación el área
cultural de origen, la edad, la cantidad de hijos y el canal de información utilizado”.

64
Nuevamente se hace expreso reconocimiento como fuente de inspiración –y salvando las distancias–, al
trabajo de Wainerman y Sautú (1998).

211
Hipótesis derivadas:

1. “La elección de la técnica anticonceptiva (clasificada de acuerdo a su grado de


eficacia) se halla determinado por el nivel socioeconómico y por el área cultural de
origen, siendo que cuando se pertenece a un menor NSE y a un ACO tradicional la
técnica utilizada es de menor eficacia”.
2. “El canal de información incide en la elección de la técnica: cuando la usuaria se ha
informado por medio de un canal informal (no especializado) opta por técnicas de
menor eficacia”.
3. “La elección de la técnica anticonceptiva varía de acuerdo a la edad y a la cantidad de
hijos. A una menor edad y cantidad de hijos existe una tendencia a utilizar técnicas de
menor eficacia”.
3. “Cuando se pertenece a un nivel socioeconómico bajo y cuando se proviene de un
área cultural tradicional se apela a canales de información informales para la elección de
la técnica anticonceptiva”.

Es importante destacar que la explicitación de los objetivos y el sistema de


hipótesis que se acaba de realizar fue posible gracias a lo desarrollado en el capítulo
anterior. O tal vez, sea mejor decir que las dos cosas se fueron elaborando y
reelaborando “simultáneamente”. Precisamente, esta es una de las características de los
estudios exploratorios cuando su diseño pretende ser formulativo: el estar sujeto a
marchas y contramarchas, a ratificaciones y rectificaciones. Pero también lo es
–aunque en menor medida–, para cualquier tipo de diseño que se precie como tal (desde
el comienzo hasta el final).

3. Continuando con el diseño y el proceso de investigación

De los objetivos e hipótesis formulados se desprendía claramente que los datos


que se necesitaban eran datos primarios y su tratamiento tenía que ser cuantitativo dado
que no existen o por lo menos no existían en aquel entonces, estadísticas que
discriminaran por tipo de usuario. Sí en cambio, había estadísticas de laboratorios
(especialmente) aunque no eran muy confiables porque provenían de fuentes interesadas
y sirvieron para agrupar las distintas técnicas de acuerdo a su grado de eficacia. De esta
manera hubo que diseñar la muestra y decidir la técnica de recolección de información
con las correspondientes especificaciones técnico-metodológicas.

Sobre el diseño muestral:

Tanto la población de estudio como las unidades de análisis ya estaban


definidos: mujeres con pareja estable, en edad fértil, que practicaban habitualmente
alguna técnica anticonceptiva, residentes en Cap/GBA.
Por supuesto que no se iba a realizar un censo; entonces tomando como base el
área muestral mencionado, el primer paso fue la decisión de trabajar con puntos
muestrales: sanatorios, clínicas y hospitales (especialmente las áreas ginecológicas y

212
pediátricas). Esto obedeció a la estrategia de considerar a dichas Instituciones como el
lugar más apto para “articularlo” con la problemática investigada (disfrazada como
“terapéuticas de prevención”) y con la Facultad (para darle cierta cobertura institucional
al estudio) de donde proveníamos; de esta manera quedaba delineada la presentación y
primer apertura en donde se indagaba por la situación de pareja y por el uso de alguna
acción preventiva (entre ellas la anticonceptiva).
En definitiva el muestreo terminó siendo mixto: polietápico estratificado por
zonas geográficas (Capital y GBA norte, sur y oeste) y por tipo de establecimiento
(Hospital, Clínica/Sanatorio) con selección “probabilística” de los puntos muestrales
ajustado por cuotas de edades no proporcionales seleccionadas de manera accidental.
Cabe aclarar que el interés fundamental radicaba en poner a prueba las hipótesis
sustantivas independientemente de su poder generalizador; es decir, que en términos de
diseño se priorizó la validez interna en desmedro de la externa. No obstante, y teniendo
en cuenta que la fórmula que sugiere Galtung65 para el cálculo empírico del tamaño
muestral arrojaba un resultado de 300 (que se consideró una cifra algo exigua) mientras
que la tabla para un intervalo de confianza del 95.5 % y margen de error de +/- 5 %
determinaba 400 se decidió trabajar con esta última alternativa aunque luego de la
edición terminaron siendo 390 casos efectivos, según el siguiente detalle:

ZONA GEOGRAFICA
EDADES TOTAL
CAP. GBA Norte GBA Sur GBA oeste

Hasta 25 50 15 30 20 115

26/35 50 30 35 30 145

36 y + 50 25 30 35 130

TOTAL 150 70 95 85 390

65
Galtung, J. (1978). La fórmula que establece este autor para las muestras no probabilísticas resulta de
elegir las dos variables con mayor número de categorías y multiplicar entre sí dichas cantidades para
luego volver a multiplicar el resultado por veinte. Para el caso que se analiza se tomaron las variables
NSE (3 categorías) y Cantidad de Hijos (5 categorías), 3 x 5 = 15 multiplicado por 20 = 300. Véase
también en este libro el capítulo sobre muestreo.

213
Sobre la recolección de información:

Simultáneamente con el diseño de la muestra se fue decidiendo la técnica de


recolección de información. En ese sentido, es difícil separar las cosas; como se señaló
anteriormente, por el tipo de objetivos e hipótesis formulados y ante la ausencia de
datos secundarios, la fuente tenía que ser primaria. De la misma manera, se desprendía
el universo de estudio y la unidad de información coincidía con la unidad de análisis.
La observación como técnica (exclusiva o principal) quedaba descartada; el instrumento
tenía que ser verbal (oral o escrito). El estudio era cuantitativo: la entrevista en
profundidad o semiestructurada no tenía sentido. La técnica adecuada era la encuesta:
la modalidad telefónica no era viable y también se descartó el cuestionario
autoadministrado, a pesar que se evaluó la posibilidad de instrumentarlo –incluso en las
mismas salas de espera de los puntos muestrales o cambiando la estrategia del diseño
muestral–, por algunas ventajas comparativas (el anonimato y la garantía de “no
inhibición” por parte de la entrevistada). Tal vez fueron los propios deseos de ser
“encuestadores” los que llevaron a decidir que la cédula tenía que ser administrada en
forma personal. Sin embargo, se la consideraba “muy fría” teniendo en cuenta los
objetivos o tal vez, “los calientes” con ellos, éramos los interesados. Por tal motivo, se
la “convirtió” en entrevista estructurada (o encuesta administrada coloquialmente)
porque más allá de la cuestión técnico-metodológica se consideró que era el nombre que
mejor conciliaba y representaba lo coloquial con el predominio casi absoluto de las
preguntas cerradas. Por otra parte, la encuesta no deja de ser una combinación de
entrevista y cuestionario; y si bien es cierto, que era anónima y a los efectos meramente
estadísticos para “atenuar” la contradicción se procuró “personalizarla” y muchas
preguntas se formularon “casi de memoria” o al estilo de una guía de pautas y como si
fueran abiertas o del tipo mixta aunque las respuestas ya estuvieran hasta
precodificadas.
Otras dos cuestiones que se plantearon en la etapa previa a la recolección y
originadas también en los prejuicios fueron, por un lado, hasta qué punto la pregunta
(porque en realidad era una sola, pero crucial para la investigación) sobre un tema que
se había considerado como “cosa de mujeres” iba a ser respondida frente a un hombre, y
por otro, si ese rechazo no iba a aumentar con las mujeres provenientes del interior o de
áreas más tradicionales. Demás está decir –y por eso son prejuicios–, que los
“entrevistadores” terminamos más “avergonzados” –y por ende “heridos en el orgullo
machista”– que las interrogadas. Además y considerando que el grupo de trabajo era
mixto tampoco se registraron diferencias significativas según el sexo del encuestador.
Por otra parte, en términos generales, se comportaron en forma más “desinhibida” las
mujeres “tradicionales” aun cuando manifestaban utilizar técnicas tradicionales que las
“modernas” cuando hacían lo propio pero nombrando a las técnicas de eficacia máxima.
Con respecto a esto último, ayudó mucho no sólo la “presentación e introducción” y el
clima coloquial sino también el orden de las preguntas. Debido a la cuota muestral, el
área geográfica, la edad y la cantidad de hijos fueron en ese orden las iniciales, aunque
la primera y la segunda no se alcanzaron a formular y la tercera se planteó cuando se
trataron los temas referidos a la cantidad de hermanos y parientes.

214
En realidad, la apertura de la entrevista en sí comenzaba con el bloque de
preguntas pertenecientes al área cultural de origen rememorando la infancia de la
entrevistada. Como señala Guber se tuvo en cuenta el “arte de no ir al grano” y de tener
en claro la pregunta que no había que comenzar formulando (Guber,1991). Y en verdad,
estos temas iniciales sirvieron para distender (quizás más al entrevistador que a la
entrevistada), ganar confianza, crear el raport y la empatía necesaria.
Luego con la debida “introducción” realizada con preguntas “de relleno” sobre
acciones preventivas en general (contra la gripe, los “nervios”, etc.) y más en particular
(contra enfermedades venéreas, etc.) se pasaba al minibloque de los dos interrogantes
referidos a la técnica y al canal de información para terminar con los datos de
clasificación que apuntaban a medir el nivel socioeconómico. Con respecto a estos
últimos y en términos comparativos se notó que les provocaba una mayor
“incomodidad” o quizás “pudor” reconocer el bajo nivel de estudios de la pareja o
marido que el procedimiento anticonceptivo empleado, especialmente en mujeres que
probablemente terminarían perteneciendo al estrato “medio bajo” aunque tal vez por
autodefinición se hubieran ubicado en un nivel medio neto.
Cabe agregar que previo al trabajo de campo se llevó a cabo el pretest con una
submuestra intencional de alrededor del 6 % de lo que luego sería la muestra definitiva.
Básicamente interesaba probar la construcción de los índices y para ello se
seleccionaron personas “conocidas” en lo que respecta a dichas variables. Durante el
mismo se reiteró un hecho que provocó cierta perplejidad, que cuestionó la
conceptualización y que obligó a reformular y a explicitar de otra manera la pregunta:
algunas mujeres no reconocían como Técnica (aunque “confiaban” bastante en ella) al
método natural. Esto hizo que se revalorizara en general el pretest y fuera otro de los
motivos para darle a la herramienta de recolección de información una definición de
entrevista. Pero, además y principalmente, hay que recordar que se trataba de una
condición que habilitaba para formar parte de la muestra. De hecho, hubo algunos
casos que frente a la duda inicial se entrevistaron y a posteriori se descartaron cuando se
caía en la cuenta que la entrevistada no utilizaba técnica de ningún tipo. Ahora bien,
¿qué hubiera pasado si frente a la condición de “reclutamiento” no se hubiese planteado
adecuadamente la amplitud de las posibles estrategias? Seguramente, muchas mujeres
hubieran sido descartadas. ¿O si la pregunta hubiese sido formulada sin especificar
claramente su alcance? Probablemente muchas entrevistadas hubieran contestado por la
negativa. Este es uno de los tantos errores de diseño –en este caso de varios tipos
(interno y externo)–, que se pueden cometer. En definitiva, las usuarias de tal
procedimiento hubieran quedado sin representación o infrarrepresentadas sesgando la
muestra y por ende, los resultados y conclusiones del estudio.

4. El análisis de los datos

Es importante comenzar aclarando que a diferencia de lo que sucede en la


actualidad, la tabulación se realizó en forma manual. Esto motivó que el procesamiento
de los datos fuese limitado. Sin embargo, se tomó la precaución –utilizando los datos

215
del pretest (hecho que nuevamente resalta su importancia)–, de comparar los resultados
“provisorios” con dos alternativas de categorización del NSE tomándose la decisión
final de dicotomizarla partiendo el índice por la mitad. Esto obedeció a tres motivos: en
primer lugar, porque las otras variables principales (Área cultural de origen y Canal de
información) ya lo estaban; en segundo lugar, para que los datos se “volcaran hacia los
extremos” inclinando la balanza hacia el nivel “bajo” o el “alto” pero sin hacer
desaparecer el estrato medio que de esta manera quedó dividido en dos (medio bajo y
medio neto) que se incorporaron a los niveles bajo y alto, respectivamente. Esto último
es uno de los tantos recursos a los que se puede apelar, en este caso referido al
procesamiento y análisis de los datos; y en tercer lugar, porque se pretendió replicar en
el análisis la “lógica acotada” del modelo Lazarsfeld (Boudon y Lazarsfeld,1979) o de
análisis multivariado que también hemos denominado modelo relacional con control de
espureidad.
A continuación y a modo de síntesis, se presentarán algunos cuadros con
comentarios ilustrativos, recordando que el propósito de este trabajo no es el análisis de
los resultados en sí (que por otra parte carecen de vigencia) sino el de “contribuir” a la
enseñanza-aprendizaje del proceso de investigación.

Cuadro nº 1: Grado de eficacia de la técnica anticonceptiva utilizada


habitualmente según nivel socioeconómico, Cap/GBA.

NSE
MB/Bajo MN/Alto TOTAL
GETA % % %

Mínima 80 18 53

Máxima 20 82 47

TOTAL 56 44 100

BASE 220 170 390

Dif. % = 62

Previo al análisis del cuadro se recordarán algunas convencionalidades:

 La variable que antecede (temporalmente hablando) en el cuadro se ubica en las


columnas mientras que la procedente se coloca en las filas.
 Para los niveles de medición ordinales, intervalares y racionales, la primer categoría
de cada variable a registrar en el cuadro es la menor.
 En este caso, los porcentajes se han calculado en sentido vertical con respecto a las
bases de cada columna para analizar el grado de eficacia por nivel socioeconómico,

216
si el interés fuera describir a qué nivel pertenecen los que utilizan técnicas de
eficacia mínima o máxima, los porcentajes habría que calcularlos en sentido
horizontal como lo han sido para la fila de los totales de cada NSE.
 La base se conforma por la cantidad de casos estudiados de cada categoría. Para la
columna del total la base está conformada por la cantidad de casos efectivos que
componen la muestra o población estudiada.

Del análisis del cuadro (lectura e interpretación) surgen los siguientes


comentarios:

 La estructura de la muestra quedó compuesta con un 56 % perteneciente al nivel


socioeconómico medio bajo/bajo contra un 44 % del estrato medio neto o mayor.
Esta composición reflejaba en una buena medida la estratificación social de
Cap/GBA.
 En el total de la muestra se observa un leve predominio (+ 6%) del uso de las
técnicas de menor eficacia.
 Los estratos socioeconómicos bajos utilizan en su mayoría técnicas de escasa
eficacia (80 %) mientras que los niveles medios y altos optan por las de mayor
eficacia (82 %).
 La distribución de los datos permite afirmar que la hipótesis inicial se ha cumplido.
“cuando menor es el NSE menor es la eficacia de la técnica utilizada”.
 Para analizar el sentido y la intensidad de la relación se ha apelado a la Diferencia
porcentual (Dif. %) por ser la medida más simple de todas aunque no la más
sensible. Su resultado señala que la relación entre ambas variables es directa media
con leve tendencia a fuerte (62 %)66. Si la diferencia hubiera dado negativa (por
ejemplo –65 %) eso hubiese significado que la relación es inversa media. En
términos de hipótesis: “a medida que disminuye el NSE aumenta la eficacia de la
técnica anticonceptiva empleada”.

Hasta aquí se podría decir que el diseño empleado para el análisis de los datos ha
sido el descriptivo en su modalidad relacional; es decir, que se ha procurado y
comprobado la existencia de una relación (asociación) entre ambas variables. Sin
embargo, esto no amerita para afirmar que esa relación sea causal o de dependencia, al
margen de cómo haya sido formulada la hipótesis.
Dicho de otro modo, si bien resulta válido suponer que tanto la dimensión socio-
cultural (especialmente por el peso de la educación) como la económica (por el tema de
los costos) influyen directamente en la elección de la técnica anticonceptiva también es
válido sospechar –tal como se señaló en el capítulo correspondiente–, que dicha relación
pueda ser espuria, falsa, ilusoria o no genuina.
Dentro del continuo correspondiente a los tipos de investigación, la
comprobación de una hipótesis causal o de una relación de dependencia implica darle al

66
Para más detalles ver en este mismo libro el capítulo sobre análisis cuantitativo de los datos.

217
estudio un perfil explicativo. En tal sentido, se mencionaron dos alternativas de diseños:
el experimental y el de análisis multivariado o relacional con control de espureidad.
No caben dudas y hasta sería ridículo el intento de realizar la prueba por medio
de un modelo experimental manipulando la variable independiente NSE, de manera que
la opción se halla predeterminada. Para este tipo de situaciones, la única manipulación
posible es el manejo estadístico de los datos realizando el análisis multivariado o con
otras palabras, introduciendo una tercera variable para “poner a prueba la relación
original”. Recuérdese, para continuar con el ejemplo, que simultáneamente a la
hipótesis de la influencia del NSE se barajaba una “conjetura rival”: el
condicionamiento del Área Cultural de Origen. En este caso, esta tercera variable
(contextual comparativa) cumpliría ambas funciones (de prueba y alternativa). Para el
análisis de su influencia se procedió a la realización del segundo paso de este modelo:
los cuadros de las relaciones parciales o la elaboración por parciales:

Cuadro nº 2: Grado de eficacia de las técnicas anticonceptivas utilizadas según


Nivel socioeconómico y Area Cultural de Orígen de las entrevistadas, Cap/GBA.

ACO

TRADICIONAL MODERNA

NSE Medio Medio NSE Medio Medio


Bajo ó – M. ó + TOTAL Bajo ó – M. ó + TOTAL
GETA % % % GETA % % %

Mínima 94 83 93 Mínima 22 4 8

Máxima 6 17 7 Máxima 78 96 92

TOTAL 85 15 100 TOTAL 24 76 100

BASE 175 30 205 BASE 45 140 185

Dif. % = 11 Dif. % = 18

Antes de efectuar el análisis repasemos algunos procedimientos:

 La elaboración de los cuadros parciales requiere el reprocesamiento de los datos


conforme al cruce de las tres variables.
 Los porcentajes fueron calculados siguiendo el mismo criterio utilizado en el cuadro
anterior.

218
 La sumatoria de las bases correspondientes (no de los porcentajes) tiene que
coincidir con las bases del cuadro de la relación original. Lo mismo ocurriría si los
porcentajes se convirtieran en frecuencias absolutas.

Del análisis de ambos cuadros parciales se desprende lo siguiente:

 Observando las cifras de las columnas de los totales de las dos tablas se deduce la
influencia de la variable de prueba. En efecto, la mayoría de las mujeres
provenientes de áreas tradicionales utilizan técnicas de eficacia mínima mientras que
la mayoría de las mujeres de áreas modernas emplean estrategias de mayor poder de
anticoncepción (93 y 92 %, respectivamente).
 En la elaboración por parciales se intenta imitar la “lógica del modelo
experimental”. En efecto, uno de los requisitos del plan clásico de este modelo que
supone trabajar simultáneamente con dos grupos (experimental y de control) es la
igualación de los mismos antes de comenzar la prueba (introducción del estímulo).
En este caso, se podría imaginar que también se está trabajando con cuatro grupos a
los que se “ha igualado” a posteriori en lo que respecta al área cultural de origen.
Dos grupos (de 175 y 30 mujeres) coinciden en el área de procedencia (tradicional)
mientras que otros dos (de 45 y 140) provienen de áreas modernas. Si la variable de
prueba no tuviese nada que ver, la relación entre NSE y GETA debería mantenerse
en ambos cuadros (en los cuatro grupos). Sin embargo, como se verá enseguida,
ocurre lo contrario. Por tal motivo, a este paso de los cuadros parciales se lo
denomina “experimento controlado”.
 Si se comparan las diferencias porcentuales (Dif. %) de ambos cuadros (11 y 18,
respectivamente) con el resultado de la relación original (62) se aprecia cómo la
relación entre NSE y GETA se ha debilitado sensiblemente con una tendencia a la
desaparición. Esto último permite inferir que tal relación es espuria por lo menos en
lo que respecta a la pretensión de asignación de causalidad, sin que esto suponga
negar la asociación (descriptiva) existente entre ambas variables.

La lógica de este modelo llevar a continuar el análisis cruzando la variable de


prueba con la dependiente y con la independiente pero ahora por separado; es decir,
realizando el tercer paso o cuadro de las relaciones marginales. Sin embargo, el
propósito principal es el control de la posible espureidad tal como se acaba de realizar.
Y esto es importante, a los efectos de separar dicho control de la conjetura de una nueva
asignación de causalidad. Dicho de otro modo, la variable de prueba no tiene por qué
convertirse en una “nueva variable causal” o en un irremediable “nexo o factor
interpretativo”, dado que cualquiera de estas dos presunciones también pueden resultar
espurias.
No obstante, y para analizar cómo es la relación entre “T” y “X” pero
especialmente entre “T” e “Y”, a continuación se presentan ambos cuadros:

219
Cuadro nº 3: Nivel socioeconómico de Cuadro nº 4: Grado de eficacia de las
entrevistadas según Área cultural técnicas anticonceptivas utilizadas
de origen, Cap/GBA. según el Área cultural de origen.

ACO Tradi- Moder- ACO Tradi- Moder-


cional na TOTAL cional Na TOTAL
NSE % % % GETA % % %
Medio
bajo ó - 85 24 56 Mínima 93 8 53
Medio
M. ó + 15 76 44 Máxima 7 92 47

TOTAL 53 47 100 TOTAL 53 47 100

BASE 205 185 390 BASE 205 185 390

Dif. % = 61 Dif. % = 85

Nuevamente, antes de comenzar el análisis recordemos algunos procedimientos:

 La disposición de las variables con sus respectivas categorías en el cuadro responde


a los mismos criterios: la variable que antecede se ubica en las columnas en ambos
cuadros; la menor categoría se ubica primera; para el caso del ACO, si bien se ha
considerado inicialmente que el nivel de medición es nominal y por lo tanto se
podría haber ubicado a la alternativa Moderna primero, sin embargo, dado que
ambas forman parte de un continuo construido mediante el índice que le da orden o
jerarquía, lo correcto es disponerlas precisamente respetando dicho orden; –de esta
manera y por no ser una simple tipología–, es posible considerarla ordinal.
 Los cuadros vuelven a ser bivariados; las bases de las columnas de los totales
corresponden al conjunto de la muestra.
 Los porcentajes se han calculado respetando los mismos criterios.

De la lectura e interpretación se deduce el siguiente análisis:

 En la fila de los totales de ambos cuadros se observa que la composición de la


muestra de acuerdo al área cultural de origen es pareja (el 53 % de las mujeres
provenía de zonas tradicionales mientras el 47 % lo hacía de áreas modernas).
 La Dif. % del cuadro nº 3 muestra que existe una relación directa media entre el
ACO y el NSE: las mujeres provenientes de áreas tradicionales tienden a pertenecer
al estrato socioeconómico medio bajo/bajo mientras que las oriundas de zonas
modernas se ubican en el nivel medio neto o superior.

220
 Finalmente, en el cuadro nº 4 se puede apreciar qué sucede con la hipótesis rival o
alternativa. Existe una relación directa sumamente fuerte (Dif. % = 85) entre el
ACO y el GETA: las mujeres provenientes de áreas culturales tradicionales son
fuertemente proclives a utilizar técnicas anticonceptivas de eficacia mínima
mientras que las socializadas en zonas modernas tienden a practicar medidas
anticonceptivas de mayor eficacia.

Hasta aquí el análisis ha vuelto a ser descriptivo. Sin embargo, el resultado


obtenido en este último cuadro no sólo ha desplazado a la relación original sino que
sienta las bases para la presunción de una nueva relación causal. Esta asignación deberá
ser sometida a los controles de espureidad correspondientes. Al respecto, cabe aclarar
que no bastaría con una única prueba de espureidad sino que la relación sale más
fortalecida cuando ha soportado y salido airosa de un mayor cantidad de intentos. Por
otra parte, existe también la posibilidad de analizar en forma desglosada cada una de las
dimensiones y/o indicadores utilizados para medir la variable ACO como así también
desglosar las diferentes técnicas y analizarlas por separado, procedimientos de análisis
que por obvias (y no tanto) razones no se hicieron pero que se aconseja en otros
estudios realizar.
Con respecto a este último tema del desglosamiento de las técnicas
anticonceptivas –y este es otro de los motivos por los cuales he elegido “maltratar” esta
investigación–, han quedado algunos comentarios pendientes que ex profeso los he
dejado para esta parte posterior al análisis de los datos: me refiero a los profilácticos.
Como se recordará, los mismos fueron agrupados dentro de las técnicas de eficacia
mínima de acuerdo a estadísticas disponibles de aquel entonces (principios de los años
’70). Tal vez, esos datos no sólo reflejaban la seguridad que aportaba el dispositivo per
se sino que probablemente incluían también los riesgos de su mal uso o uso a
destiempo. A ello debe agregarse el prejuicio ya mencionado que delegaba la
responsabilidad en las mujeres que a su vez, tampoco solicitaban su uso en forma
vehemente. A esta altura, creo conveniente introducir en el análisis –rescatando una
vez más el papel que cumplen las variables contextuales–, la aparición del SIDA y el
cambio que esto produjo en los hábitos sexuales particularmente en lo referente al uso
de los condones. Probablemente, la eficacia de los mismos (en cuanto técnica
anticonceptiva) haya aumentado tanto en calidad intrínseca como especialmente en el
modo de uso y con seguridad, en lo que hace a la exigencia de ambas partes pero en
particular del lado femenino. Sin embargo, la prédica actual de su empleo apunta más a
la prevención del contagio que a la anticoncepción cosa que antes de la aparición del
SIDA era diferente, a pesar de que existían como hoy en día enfermedades venéreas
pero de un peligro superlativamente menor y por lo tanto con una menor conciencia
sobre el mismo. Por otra parte, tratándose de relaciones estables no creo que los
resultados del estudio hubieran variado significativamente dado que a pesar de no
disponer de los datos concretos, el profiláctico resultó ser una de las técnicas más
mencionadas dentro de las de eficacia mínima. En todo caso, lo que importa destacar
con relación a cualquier investigación es el papel de las variables contextuales.

221
Retomando el análisis sobre las técnicas restaría el tratamiento de las otras
variables cuyas implicancias –por razones de espacio y por no ofrecer material para
realizar comentarios diferentes a los expuestos–, serán incluidas en la síntesis final. Sin
embargo y a los efectos meramente ilustrativos me detendré brevemente en algunas
consideraciones de los usos de la variable edad. Dentro del diseño descriptivo existe
una modalidad de los estudios seccionales (sincrónicos) que es el transversal
(comparativo o no comparativo) que incluye la medición de las variables en diferentes
grupos de edades. Más allá de la lógica comparación entre las distintas categorías
etarias, este recurso permite reemplazar las observaciones longitudinales en distintas
series de tiempo, con la medición simultánea en distintos grupos de edades asumiendo
que los mismos representarían los cambios intergeneracionales producidos y analizar de
esta forma el comportamiento evolutivo de las variables. Por ejemplo, estudiar las
diferencias en el uso de las técnicas anticonceptivas entre los distintos segmentos etarios
tal como a continuación se presenta:

Cuadro nº 5: Grado de eficacia de las técnicas anticonceptivas utilizadas según


edad de las entrevistadas, Cap/GBA.

EDAD
Hasta 25 26/35 36 y + TOTAL
GETA % % % %

Mínima 40 48 68 53

Máxima 60 52 32 47

TOTAL 30 37 33 100

BASE 115 145 130 390

Dif. % = -28

Previo al análisis, algunos comentarios:

 Las bases de cada grupo de edad fueron decididas por cuota muestral.
 La diferencia porcentual se calculó tomando los porcentajes de las categorías
extremas.

Del análisis del cuadro se desprenden las siguientes consideraciones:

222
 Existe una relación inversa débil (-28) pero con tendencia a su crecimiento entre la
edad y la eficacia de la técnica: las mujeres de mayor edad se inclinan por el uso de
técnicas anticonceptivas de menor eficacia.
 Si como se apuntó más arriba, se consideran a las categorías extremas (Hasta 25 y
36 y más) como representantes de generaciones distintas (alrededor de 20 años de
diferencia) se observa un progresivo aumento del uso de las técnicas de mayor
eficacia (del 32 al 60 %) que seguramente será mayor en las “generaciones”
provenientes de áreas modernas.

A continuación y para mostrar otra forma de presentación de los resultados se


replica uno de los grafos o cadena desarrollados con anterioridad pero ahora con el
agregado de la fuerza y el sentido de la dirección expresados en valores de diferencia
porcentual.

(85)
ACO GETA

(61) (62)
NSE

Para finalizar y a modo de síntesis de los principales resultados obtenidos se


presentan dos perfiles cuantitativos correspondientes a las usuarias de ambos tipos de
técnicas anticonceptivas:

223
ACO TRADICIONAL
93 %

NSE M. BAJO/BAJO 36 y + AÑOS *


85 % 45 %

MENOR

EFICACIA

3 ó + HIJOS C. I. INFORMAL
65 % 82 %

PERFILES DE USUARIAS

DE TECNICAS ANTICONCEPTIVAS

ANTICONCEPTIVAS

1 ó 2 HIJOS C. I. ESPECIALIZADO
55 % 90 %

MAYOR

EFICACIA

NSE M. MEDIO/ALTO HASTA 25 AÑOS


76 % 42 %
ACO MODERNA
92 %

224
FICHA TECNICA

 Tipo de estudio: Exploratorio / descriptivo / explicativo

 Características: Cuantitativo

 Alcance temporal: Seccional / transversal / Comparativo

 Población: Mujeres en edad fértil, con pareja estable, que utilizan habitualmente
alguna técnica anticonceptiva.

 Área muestral: Cap/GBA.

 Técnica de muestreo: Polietápica estratificada por zona geográfica con selección


probabilística de puntos de muestra ajustada por cuotas no proporcionales de edad y
selección accidental.

 Tamaño muestral: 390 casos efectivos.

 Técnica de recolección: Entrevista estructurada (encuesta administrada


coloquialmente)

 Tipos de preguntas: Cerradas (dicotómicas y de elección múltiple) y mixtas.

 Fecha de realización: agosto/octubre 1973.

225
BIBLIOGRAFÍA GENERAL

Aaker, D. y Day, G., 1992: Investigación de mercados, México, McGraw-Hill.


Achaerandio Zuazo, L., 2010: Iniciación a la práctica de la investigación, Guatemala,
Universidad Rafael Landívar.
Alvira Martin, F., 1983: “Perspectiva cualitativa-Perspectiva cuantitativa en la
metodología sociológica”, Madrid, Reis nº 22.
Amezcua, M. y Gálvez Toro, A, 2002: “Los modos de análisis en investigación
cualitativa en salud: perspectiva crítica y reflexiones en voz alta”, Madrid, Revista
Española de Salud Pública nº 5.
Ander Egg, E., 1983: Técnicas de investigación social, Buenos Aires, El Cid.
Antoine, Jacques, 1993: El sondeo, herramienta de márketing, Buenos Aires, Deusto.
Asociación Argentina de Marketing, 1998: Indice de nivel socio económico argentino,
Buenos Aires, ed. propia.
Atienza, J., Blanco, R. e Iranzo, J.M., 1994: “Ludwik Fleck y los olvidos de la
sociología”, Madrid, Reis 67.
Babbie, E., 1988: Métodos de investigación por encuesta, México, FCE.
Bachelard, G., 1972: La formación del espíritu científico, Buenos Aires, Siglo XXI.
Bachelard, G., 1974: Epistemología, Barcelona, Anagrama.
Baranger, D., 1992: Construcción y análisis de datos, Posadas, Misiones, EUC.
Batthyány, K. y Cabrera, M., coord., 2011: Metodología de la investigación en Ciencias
Sociales, Montevideo, Universidad de la República.
Berger, P. y Luckmann, T., 1979: La construcción social de la realidad, Buenos Aires,
Amorrortu.
Bericat, E., 1998: La integración de los métodos cuantitativo y cualitativo en la
investigación social, Barcelona, Ariel.
Blalock, H., 1994: Estadística social, México, FCE.
Blalock, H., 1998: Introducción a la investigación social, Buenos Aires, Amorrortu.
Bosch, J. y Torreste, D., 1994: “Encuestas telefónicas y por correo”, Barcelona, CIS.
Boudon, R. y Lazarsfeld, P., 1985: Metodología de las ciencias sociales, Barcelona,
Laia, 3 T.
Bourdieu, P. y otros, 1975: El oficio de sociólogo, Buenos Aires, Siglo XXI.
Bourdieu, P. y Wacquant, L., 1995: Respuesta. Por una antropología reflexiva, México,
Grijalbo.
Bourdieu, P., 1986: “La ilusión biográfica”, París, Actes de la Recherche en Ciencies
Sociales.
Bourdieu, P., 1993: Cosas dichas, Barcelona, Gedisa.
Bourdieu, P., 1997: Razones prácticas, Barcelona, Anagrama.
Bourdieu, P., 1999: Intelectuales, política y poder, Buenos Aires, Eudeba.
Bourdieu, P., 2003: El oficio de científico, Barcelona, Anagrama.
Brown, R., 1972: La explicación en las ciencias sociales, Buenos Aires, Periferia.
Bruyn, S., 1978: La perspectiva humana en sociología, Buenos Aires, Amorrortu.
Bunge, M., 1972: ¿Qué es un problema científico?, Buenos Aires, Cuaderno de
epistemología, UBA, OPFyL.
Bunge, M., 1972: Causalidad, Buenos Aires, Eudeba.
Bunge, M., 1978: La ciencia, su método y su filosofía, Buenos Aires, Siglo veinte.
Bunge, M., 1984: Ciencia y Desarrollo, Buenos Aires, Siglo veinte.
Bunge, M., 1998: Sociología de la ciencia, Buenos Aires, Sudamericana.

226
Campbell, D. y Stanley, J., 1978: Diseños experimentales y cuasiexperimentales en la
investigación social, Buenos Aires, Amorrortu.
Candau, J., 2003: “El lenguaje natural de los olores y la hipótesis Sabir-Whorf”,
Madrid, Revista de Antropología Social, Universidad Complutense.
Cea D’Ancona, M. A., 1998: Metodología cuantitativa: estrategias y técnicas de
investigación social, Madrid, Síntesis.
Coffey, A. y Atkinson, P., 2005: “Encontrar el sentido a los datos cualitativos.
Estrategias complementarias de investigación”, Alicante, Servicio de Publicaciones
de la Universidad.
Cohen, M. y Nagel, E., 1983: Introducción a la lógica y al método científico, Buenos
Aires, Amorrortu.
Comboni, S. y Juárez, J., 1990: Introducción a las técnicas de investigación, México,
Trillas.
Cook, T.D. y Reichardt, C.S., 1997: Métodos cualitativos y cuantitativos en
investigación evaluativa, Madrid, Morata.
Corbetta, P., 2007: Metodología y técnicas de Investigación Social, Ed. Revisada,
Madrid, McGraw Hill/Interamericana.
Coser, L., 1970: Nuevos aportes a la teoría del conflicto social, Buenos Aires,
Amorrortu.
Critto, A., 1982: El método científico en las ciencias sociales, Buenos Aires, Paidós.
Delgado, J. y Gutiérrez, J., 1998: Métodos y técnicas cualitativas de investigación en
ciencias sociales, Madrid, Síntesis.
Denzin, N., 1970: The Research Act. A Theoretical Introduction to sociological
Methods, Chicago Andine.
Desvousges, W. H., 1989: Integrating Focus Groups and Surveys, Journal of Official
Statistics.
Díaz, E., 1998: La ciencia y el imaginario social, Buenos Aires, Biblos.
Díaz, E., 2000: La Posciencia, Buenos Aires, Biblos.
Domé, M. N., 2004: “Intenciones de reinserción en el mercado laboral de trabajo y
capital socio-laboral. Análisis en los beneficiarios del Plan Jefes de Hogar
desocupados de Concordia” trabajo integrador final para la licenciatura en
sociología de la Universidad Argentina John F. Kennedy, Buenos Aires, s/p.
Durkheim, E., 1992: El Suicidio, Madrid, Akal.
Echeverría, J., 1998: Filosofía de la ciencia, Madrid. Akal, Madrid.
Errandonea, A., 1977: El lugar de las técnicas cualitativas, Montevideo, FCS.
Errandonea, A., 1986: Manual de introducción a la sociología, Montevideo, FCU.
Fals Borda, O. y otros, 1973: La ciencia y el pueblo, Lima, Mosca Azul.
Feigelman, D., 2005: “Los que quedan: padres de hijos por el mundo”, Trabajo Final
Integrador presentado en la Universidad Argentina J. F. Kennedy para la
Licenciatura en Sociología en marzo de 2005, s/p.
Féstinger, L. y Katz, D., 1972: Los métodos de investigación en las ciencias sociales,
Buenos Aires, Paidós.
Feyerabend, P., 1984: Contra el método, Buenos Aires, Hyspamérica.
Fleck, L., 1986: La génesis y el desarrollo de un hecho científico, Madrid, Alianza.
Freire, P., 1999: Pedagogía del Oprimido, México, Siglo Veintiuno.
Galtung, J., 1978: Teoría y método de la Investigación Social, Buenos Aires, Eudeba.
García Ferrando, M., 1992: Introducción a la estadística en Sociología, Madrid,
Alianza.
García Ferrando, M., Ibáñez, J. y Alvira, F., 1993: El análisis de la realidad social,
Madrid, Alianza.

227
García, R. coord. gral., 1997: La epistemología genética y la ciencia contemporánea,
Barcelona, Gedisa.
Garmendia, J., 1979: Sociología, Madrid, CIS.
Germani, G., 1966: Manual del encuestador, Buenos Aires, UBA, OPFYL.
Germani, G., 1977: Política y sociedad en una época de transición, Buenos Aires,
Paidós.
Ghiglione, R. y Matalón, B., 1989: Las encuestas sociológicas, México, Trillas.
Gibbons, M. y otros, 1997: La nueva producción del conocimiento, Barcelona,
Pomares-Corredor.
Giddens, A., 1989: Sociología, Madrid, Alianza.
Giddens, A., 1997: Las nuevas reglas del método sociológico, Buenos Aires,
Amorrortu.
Gil Flores, J., 1994: Análisis de datos cualitativos, Barcelona, PPU.
Glock, C., 1973: Diseño y análisis de encuestas en sociología, Buenos Aires, Nueva
Visión.
Goetz, J. y LeCompte, M., 1999: Etnografía y diseño cualitativo en investigación
educativa, Madrid, Morata.
González Gil, T. y Cano Arana, A., 2010: “Introducción al análisis de datos en
investigación cualitativa: concepto y características”, Madrid, Nure, Nº 44.
Goode, W. y Hatt, P., 1978: Métodos de investigación social, México, Trillas.
Gouldner, A., 1979: La crisis de la sociología occidental, Buenos Aires, Amorrortu.
Guber, R., 1991: El salvaje metropolitano, Buenos Aires, Legasa.
Guber, R., 2001: Etnografía, Buenos Aires, Norma.
Hall, B. y Le Boterf, G., 1973: Investigación participativa y praxis rural, Lima, Mosca
Azul.
Hammersley, M. y Atkinson, P., 1994: Etnografía, Buenos Aires, Paidós.
Hanson, N.R., 1977: Patrones de descubrimiento. Observación y explicación, Madrid,
Alianza.
Hempel, C., 1975: Confirmación, inducción y ciencia racional, Buenos Aires, Paidós.
Hernández Sampieri, R. y otros, 1994: Metodología de la investigación, México,
McGraw-Hill.
Hobsbawm, E., 1998: Historia del siglo XX, Buenos Aires, Crítica.
Hughes, J. y Sharrock, W., 1999: La filosofía de la investigación social, México, FCE.
Hyman, H., 1984: Diseño y análisis de las encuestas sociales, Buenos Aires,
Amorrortu.
Jick, T. D., 1979: Mixing qualitative and cuantitative methods: triangulation in action,
Administrative Science Quarterly, volumen 24.
Kérlinger, F. N., 1975: Investigación del comportamiento: técnicas y metodologías,
México, Interamericana.
Kinner, T. y Taylor, J.,1994: Investigación de mercados, México, McGraw-Hill.
Kish, L., 1995: Diseño estadístico para la investigación, Madrid, CIS.
Klimovsky, G. y Schuster, F., 2000: Descubrimiento y creatividad en ciencia, Buenos
Aires, Eudeba.
Klimovsky, G., Varsavsky, O. y otros, 1973: Ciencia e ideología, Buenos Aires,
Ciencia nueva.
Korn, F. y otros, 1984: Conceptos y variables en la investigación social, Buenos Aires,
Nueva Visión.
Kuhn, T., 1966: La estructura de las revoluciones científicas, Buenos Aires, FCE.
Lakatos, I. y Musgrave, A., 1975: La crítica y el desarrollo del conocimiento,
Barcelona, Grijalbo.

228
Lakatos, I., 1983: La metodología de los programas de investigación científica, Madrid,
Alianza.
López Alonso, A., 2006: Tesis doctorales, Buenos Aires, Leuka.
Lores Arnaiz, M. del R., 1986: Hacia una epistemología de las ciencias humanas,
Buenos Aires, Belgrano.
Lundberg, G., 1949: Técnica de investigación social, México, FCE.
Maddox, J., 1999: Lo que queda por descubrir, Madrid, Debate.
Madge, J., 1969: Las herramientas de la ciencia social, Buenos Aires, Paidós.
Marradi, A. y otros, 2007: Metodología de las ciencias sociales, Buenos Aires, Emecé.
Marx, C., 1971: Elementos fundamentales para la crítica de la economía política,
Buenos Aires, Siglo Veintiuno.
Mayntz, R. y otros, 1988: Introducción a los métodos de la sociología empírica,
Madrid, Alianza.
McKinney, J., 1968: Tipología constructiva y teoría social, Buenos Aires, Amorrortu.
Merton, R., 1980: Teoría y estructuras sociales, Buenos Aires, FCE.
Minujín, A. y Kessler, G., 2000: La nueva pobreza en Argentina, Buenos Aires, Planeta.
Moledo, L., 1994: De las tortugas a las estrellas, Buenos Aires, A-Z.
Mora y Araujo, M., 1965: Recomendaciones para la lectura y análisis de cuadros,
Buenos Aies, UBA.
Mora y Araujo, M., 1973: Estadística y sociología, Buenos Aires, Nueva visión.
Mora y Araujo, M., Lazarsfeld, P. y otros, 1971: El análisis de los datos en la
investigación social, Buenos Aires, Nueva Visión.
Morgan, D.: (ed.), 1993: Successful Focus Groups. Advancing the State of the Art,
Newbury Park, Sage.
Nagel, E., 1981: La estructura de la ciencia, Barcelona, Paidós.
Noelle, E., 1978: Encuestas en la sociedad de masas, Madrid, Alianza.
Padua, J., 1982: Técnicas de investigación aplicadas a las ciencias sociales, México,
FCE.
Pardinas, F., 1972: Metodología y técnicas de investigación en ciencias sociales,
México, Siglo veintiuno.
Passeron,J-C, 2000: “¿Es confiable el saber de las ciencias sociales?”, Buenos Aires,
diario Clarín.
Pérez Lalanne, R., 2000: Investigación social, Buenos Aires, UNLZ.
Pérez Lalanne, R., 2001: Sociología. Una apuesta al conocimiento científico, Buenos
Aires, Leuka.
Pérez Lalanne, R. 2004: “Ciencia y conciencia social. Un análisis sociológico de la
ciencia y el sentido común”, Tesis de Maestrïa en Metodología de la Investigación
Científica, provincia de Buenos Aires, UNLa, s/p.
Pérez Lalanne, R., 2010: Aportes para una epistemología social, Buenos Aires, UNLZ.
Pizarro, N., 1998: Tratado de metodología de las ciencias sociales, Madrid, Siglo
Veintiuno.
Popper K. y otros, 1978: La lógica de las ciencias sociales, México, Grijalbo.
Popper, K., 1989: La lógica de la investigación científica, Buenos Aires, Rei.
Popper, K., 1994: Conjeturas y refutaciones, Barcelona, Paidós, Barcelona.
Prigogine, I., 1996: El fin de las certidumbres, Santiago, A. Bello.
Raj, D., 1979: La estructura de las encuestas por muestreo, México, FCE.
Rodriguez Osuna J., 1991: Métodos de muestreo, Madrid, CIS.
Rojas Soriano, R., 1986: La investigación social: teoría y praxis, México, Folios.
Saint – Simon, 1964: Catecismo político de los industriales, Buenos Aires, Aguilar.
Samaja, J., 1993: Epistemología y metodología, Buenos Aires, Eudeba.

229
Sánchez Carrión, J. J., 1996: Manual de análisis de datos, Madrid, Alianza.
Sartori, G. y Morlino, L., 1999: La comparación en las ciencias sociales, Madrid,
Alianza.
Sautú, R. y otros, 2005: Manual de metodología, Buenos Aires, CLACSO.
Scarano, E., 1999: Metodología de las ciencias sociales, Buenos Aires, Macchi.
Schmeichel, N., 1999: “Cómo hacer investigación de mercado”, Buenos Aires, Revista
Mercado.
Schuster, F., 1982: Explicación y predicción, Buenos Aires, Clacso.
Schuster, F., 1992: El método en las ciencias sociales, Buenos Aires, Ceal.
Schwartz, H. y Jacobs, J., 1984: Sociología cualitativa, México, Trillas.
Schwartzman, S. (comp.), 1977: Técnicas avanzadas en ciencias sociales, Buenos
Aires, Nueva Visión.
Scribano, A., 2008: El proceso de investigación social cualitativo, Buenos Aires,
Prometeo.
Selltiz, C. y otros, 1974: Métodos de investigación en las relaciones sociales, Madrid,
Rialp.
Sierra Bravo, R., 1996: Tesis doctorales y trabajos de investigación científica, Madrid,
Paraninfo.
Sierra Bravo, R., 1994: Técnicas de Investigación Social, Madrid, Paraninfo.
Taylor, J. y Bogdan, R., 1986: Introducción a los métodos cualitativos de investigación,
Buenos Aires, Paidós.
Thomas, W. y Znaniecki, F., 2004: El campesino polaco en Europa y América, Madrid,
CIS-Boletín Oficial del Estado.
Valles, M., 1997: Técnicas cualitativas de investigación social, Madrid, Síntesis.
Van Dalem, D. y Meyer, W., 1971: Manual de técnica de la investigación educacional,
Buenos Aires, Paidós.
Vasilachis de Gialdino, I. coord., 2007: Estrategias de investigación cualitativa, Buenos
Aires, Gedisa.
Vasilachis de Gialdino, I., 1992: Métodos cualitativos I, Buenos Aires, CEAL.
Vieytes, R., 2004: Metodología de la investigación en organizaciones, mercado y
sociedad, Buenos Aires, de las Ciencias.
Wainerman, C. y otros, 1976: Escalas de medición en ciencias sociales, Buenos Aires,
Nueva Visión.
Wainerman, C. y Sautú, R. (comps.), 1998: La trastienda de la investigación,
Buenos Aires, Belgrano.
Wallace, W., 1980: La lógica de la ciencia en sociología, Madrid, Alianza.
Waslavyck, P., 1985: ¿Es real la realidad?, México, Siglo veintiuno.
Weber, M., 1977: Economía y sociedad, Bogotá, FCE.
Wright Mills, C., 1961: La imaginación sociológica, México, FCE.
Yalour, M., 1972: La investigación social, Buenos Aires, Ceal.
Zeizel, H., 1986: Dígalo con números, México, FCE.
Zetterberg, H., 1981: Teoría y verificación en sociología, Buenos Aires, Nueva Visión.

230
ÍNDICE

Pág.

INTRODUCCIÓN 2

CAPÍTULO 1: LA INVESTIGACIÓN SOCIAL 3


1. Los tipos de investigación 3
2. Los contextos de investigación 9
3. Diseño, proyecto y proceso de investigación 13
3.1. Esquema sobre las decisiones involucradas en el diseño 16
3.2. Principios y criterios operativos generales del diseño 17
3.3. Formulario para la presentación del proyectos de investigación 21

CAPÍTULO 2: EL PROCESO DE INVESTIGACIÓN 22


1. Características de la investigación como proceso 22
2. La investigación y los métodos 25
2.1. Supuestos filosóficos/epistemológicos de los métodos científicos 27
2.2. Contenidos formales y sustantivos de los métodos científicos 27
2.3. Características y elementos de los métodos científicos 29
3. La investigación y las técnicas 31
4. Los pasos de la investigación 32
5. Hacia la formulación del problema 33
5.1. La selección del tema 33
5.2. La delimitación del tema 36
5.3. Sobre cómo surgen y se justifican las “ideas” de la investigación 39

CAPÍTULO 3: EL PROBLEMA DE INVESTIGACIÓN Y SU


FORMULACIÓN 43
1. Diferenciación entre problema y problema de investigación 43
2. La formulación del problema de investigación 44
2.1. El interrogante inicial 44
2.2. Los objetivos de la investigación 45
2.3. El marco teórico de la investigación 46

CAPÍTULO 4: LAS HIPOTESIS EN LA INVESTIGACIÓN


CIENTÍFICA 48
1. Teoría e Hipótesis 48
2. ¿Es posible investigar sin hipótesis? 49
3. ¿De dónde se extraen y cómo se construyen las hipótesis? 51
4. Condiciones que deben presentar las hipótesis 52
5. Acerca de la cantidad de variables que debe contener una hipótesis 53
6. Clasificación de las hipótesis 53

CAPITULO 5: REDUCCIÓN DEL PROBLEMA A NIVEL EMPÍRICO 60


1. De los conceptos y sus definiciones 60
2. Sobre las variables 61

231
3. Sistema de categorías o categorización de las variables 62
3.1. Principios que rigen la categorización de una variable 63
3.2. Factores que inciden en la categorización de una variable 64
4. Niveles de medición de las variables 66
5. Clasificaciones de las variables 68
5.1. Según su naturaleza 68
5.2. Según la función que cumplen en la hipótesis o análisis del
problema 69
5.3. Según su grado de complejidad 77
5.3.1. Pasos para la construcción de un índice porcentual 81
6. Validez y confiabilidad de las mediciones 85
7. Algunos ejemplos simbólicos 87

CAPÍTULO 6: INFORME SOBRE LA INVESTIGACIÓN. A MODO


DE EJEMPLO (1º PARTE) 94
1. Introducción 94
2. La formulación del problema 94
3. La hipótesis y sus variables 96
4. La viable Nivel socioeconómico 97
5. Las otras variables del ejemplo 101
6. Comentarios finales 103

CAPÍTULO 7: EL UNIVERSO DE ESTUDIO Y LA SELECCIÓN DE


LA MUESTRA 106
1. Ventajas y Desventajas en la Aplicación de los Censos y las Muestras 111
2. Diseño de la Muestra 112
2.1. Marco Muestral 112
3. Tipos de Muestreo 113
3.1. Características de las Muestras No Probabilísticas 115
3.2. Características de las Muestral Probabilísticas 115
3.3. Técnicas de Muestreo No Probabilístico 117
3.4. Técnicas de Muestreo Probabilístico 121
3.5. Muestreo de Rutas Aleatorias 123
4. Errores Presentes en el Proceso de Investigación 124
5. Tamaño de la Muestra 125

CAPÍTULO 8: EL DISEÑO DE LA ESTRATEGIA TÉCNICO


METODOLÓGICA 133
1. Ejes polares clasificatorios 133
2. Factores determinantes en la elección de la estrategia de campo 140

CAPÍTULO 9: LA OBSERVACIÓN Y SUS MODALIDADES 141


1. Modalidades de la observación 141
2. El análisis multisensorial y el registro de lo observado 147

CAPÍTULO 10: LA ENTREVISTA 150


1. Caracterización de la herramienta 150
2. El manejo de los tiempos de la entrevista, los encuentros y los
contextos de realización 151
3. El análisis simultáneo 152

232
4. El registro de la entrevista 154
5. Finalización de la entrevista 154
6. Tipos de entrevista 155

CAPÍTULO 11: LA ENCUESTA 157


1. Diferencias con la entrevista 157
2. Caracterización de la encuesta 157
3. Modalidades de la encuesta 158
4. Tipos de pregunta 159
5. El diseño del formulario (cuestionario o cédula) 161
6. El pretest 163

CAPÍTULO 12: EL DIFERENCIAL SEMÁNTICO 165


1. Introducción 165
2. Metodología para la construcción 165
2.1. Selección de los conceptos 165
2.2. Construcción del espacio semántico 166
3. Diseño y administración del instrumento 167
4. Análisis de los datos 169

CAPÍTULO 13: EL ANÁLISIS CUANTITATIVO DE LOS DATOS 172


1. La matriz de datos 172
2. El procesamiento de los datos 176
2.1. El diseño de un cuadro bivariado 178
3. El análisis de los datos 181
3.1. La lectura de los datos 181
3.2. La interpretación de los datos 182
4. El análisis multivariado 184
5. Segmentación y construcción de perfiles 190
5.1. La construcción de perfiles 191

CAPÍTULO 14: EL INFORME FINAL 194


1. Introducción 194
2. Estructura del informe 194

CAPÍTULO 15: INVESTIGACIONES EXPLORATORIAS,


DESCRIPTIVAS Y EXPLICATIVAS 197
1. Investigaciones exploratorias 200
2. Investigaciones descriptivas 202
3. Investigaciones explicativas 206

CAPÍTULO 16: INFORME SOBRE LA INVESTIGACIÓN. A MODO


DE EJEMPLO (2º PARTE) 211
1. Breve recordatorio 211
2. Explicitación de los objetivos e hipótesis 211
3. Continuando con el diseño y el proceso de investigación 212
4. El análisis de los datos 215

BIBLIOGRAFÍA GENERAL 226

233

También podría gustarte