P. 1
Técnicas investigación social 1pp

Técnicas investigación social 1pp

|Views: 12.708|Likes:

More info:

Published by: Joaquin Garcia Neches on Sep 02, 2011
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as DOC, PDF, TXT or read online from Scribd
See more
See less

07/09/2015

pdf

text

original

Sections

  • 1.1Khun y los paradigmas de la ciencia
  • 1.2Tres cuestiones de fondo
  • 1.3Positivismo
  • 1.4Neopositivismo y postpositivismo
  • 1.5.1Los inicios
  • 1.5.2Max Weber: Objetividad y orientación hacia la individualidad
  • 1.5.3. Desarrollos posteriores
  • 2.1.1. Hipótesis
  • 2.1.2 Diseño de la investigación
  • 2.1.3 Observación empírica y resultados del análisis
  • 2.2.1. Diseño de la investigación y recogida de datos
  • 2.2.2 Hipótesis
  • 2.2.3Interpretación del material empírico
  • 2.3.1 Planteamiento de la investigación
  • 2.3.2. Recogida de datos
  • 2.3.3Análisis de los datos
  • 2.3.4. Resultados
  • 2.4Dos formas diferentes de conocer la realidad social
  • 3.1.1. Las cinco fases del proceso de investigación
  • 3.2.2 Hipótesis
  • 3.2.3. La transformación de la teoría en hipótesis
  • 3.3 De los conceptos a las variables
  • 3.4.1. Los distintos tipos de unidad de análisis
  • 3.5Variables
  • 3.6.1. Variables nominales
  • 3.6.2. Variables ordinales
  • 3.6.3. Variables cardinales
  • 3.7 CONCEPTOS, INDICADORES E ÍNDICES
  • 3.8 Error total
  • 3.9.1Fiabilidad
  • 3.9.2. Validez
  • 4.1 CONCEPTO DE CAUSA
  • 4.2.1. Covariación entre variables independientes y dependientes
  • 4.2.2. Dirección causal
  • 4.2.3. Control de las variables superfluas
  • 4.2.4. Análisis de la covariación y experimento
  • 4.3.1. Análisis de la covariación
  • 4.3.2. Experimento
  • 4.4.1. La solución científica
  • 4.4.2. La solución estadística
  • 4.5.1. Experimentos de laboratorio
  • 4.5.2. Experimentos de campo
  • 4.6.1.2. Diseño “antes-después” a dos (o más ) grupos
  • 4.6.1.3. Diseño de Solomon a cuatro grupos
  • 4.6.1.4. Diseño factorial
  • 4.6.2.1. Diseño “antes-después” a un solo grupo
  • 4.6.2.2 Diseños en serie temporal interrumpida
  • 4.6.2.3. Diseño “antes-después” a dos grupos sin asignación causal
  • 4.6.2.4. Diseño “ex postfacto”
  • 4.7 VENTAJAS Y LIMITES DEL EXPERIMENTO
  • 5.1 La encuesta por muestreo en la investigación social
  • 5.2.1. Criterio objetivista frente a criterio constructivista
  • 5.2.2. Enfoque uniformista frente a enfoque individualista
  • 5.2.3 El objetivo del mínimo común denominador
  • 5.3LA FIABILIDAD DEL COMPORTAMIENTO VERBAL
  • 5.4Fondo y forma de las preguntas
  • 5.5Formulación de preguntas
  • 5.6BATERIA DE PREGUNTAS
  • 5.7.1Entrevista cara a cara
  • 5.7.2. Entrevistas Telefónicas
  • 5.7.3. Cuestionarios autocumplimentados
  • 5.7.4. Entrevistas computarizadas (electrónicas)
  • 5.8ORGANIZACIÓN DE LA RECOGIDA DE DATOS
  • 5.9.1. Análisis secundario
  • 5.9.2. Encuestas repetidas en el tiempo
  • 5.10 BASES DE DATOS EN ESPAÑA Y EN EL EXTRANJERO
  • 5.11 NUEVAS TENDENCIAS Y NUEVOS RIESGOS
  • 6.1 LA OPERACIONALIZACIÓN EMPÍRICA DE LOS CONCEPTOS COMPLEJOS
  • 6.2 Preguntas de respuesta graduada: La autonomía semántica de las respuestas
  • 6.3 ESCALA DE LIKERT
  • 6.4 ESCALOGRAMA DE GUTTMAN
  • 6.5 DIFERENCIAL SEMÁNTICO
  • 6.6TEST SOCIOMÉTRICO
  • 6.7ESCALAS UNIDIMENSIONALES Y ESCALAS MULTIDIMENSIONALES

PARTE I LA LOGICA DE LA INVESTIGACION SOCIAL TEMA 1. LOS PARADIGMAS DE LA INVESTIGACIÓN SOCIAL.

1.1 Khun y los paradigmas de la ciencia Paradigma fue utilizada tanto por Platón en el sentido de modelo como por Aristóles en el sentido de ejemplo. Desde sinónimo de teoria a articulación interna de una teoria, desde sistema de ideas de orden precientífico a corriente de pensamiento o escuela, desde procedimiento de investigación ejemplar a equivalente a método. La reflexión de Khun tiene como objeto el desarrollo histórico de las ciencias y constituye un rechazo a la concepción tradicional de la ciencia entendida como acumulación progresiva y lineal de nuevos logros. Según Khun, existen momentos revolucionarios enlos que la relación de continuidad con el pasado se interrumpe y se inicia una nueva construcción, cita el desarrollo de la física óptica, para la cual la luz estaría constituida por fotones (ondas y particulas) teoría que nació en este siglo porque antes se enseñaba que la luz era un movimiento ondulatorio transversal. En el siglo XVII la concepción dominante era la de la óptica newtoniana, según la cual la luz estaba constituida por corpúsculos materiales. El paso de una visión teórica a otra es tan global y tiene consecuencias tan radicales sobre la disciplina implicada, que Khun no duda en utilizar el término "revolución" y habla precisamente de "revolución científica". ¿Qué entiende Khun por paradigma?. Con este término designa una perspectiva teórica: a) compartida y reconocida por la comunidad de científicos de una determinada disciplina. b) Fundada sobre adquisiciones que preceden a la disciplina misma c) Que actúa dirigiendo la investigación en términos tanto de: C1) identificación y elección de los hechos relevantes a estudiar como de C2) formulación de hipótesis entre las que situar la explicación del fenómeno observado, y de C3) preparación de las técnicas de investigación empíricas necesarias. Sin un paradigma una ciencia no tendría orientaciones y criterios de elección: problemas, métodos, técnicas son igualmente legítimos. El paradigma representa la guía para la ciencia: proporcionan a los científicos no sólo un modelo, sino también algunas indicaciones indispensables para construirlos. En cuanto aprende un paradigma el científico adquiere teorías, métodos y criterios. Es algo amplio y también más general que una teoría: es una visión del mundo. Khun define ciencia normal como aquellas fases de una disciplina científica durante las cuales predomina un determinado paradigma, que es compartido por la comunidad de 1

científicos. Khun subraya que el paradigma es una característica definitoria de las ciencias maduras. Se abre la posibilidad dentro de una determinada disciplina, de varios paradigmas, y la sociología pasa de ser preparadigmática, a ser una disciplina multiparadigmática. Sigue siendo fundamental en el concepto de paradigma su carácter preteórico, en último término metafísico, de "visión que orienta"; de imagen del mundo, o mejor aún, como escribe Friedrichs, de "imagen fundamental que una disciplina tiene de su objeto" que guía y organiza tanto la reflexión teórica como la investigación empírica, y como tal precede a ambas. 1.2 Tres cuestiones de fondo Nos limitaremos a un examen de carácter histórico sobre la evolución de la disciplina. Sabemos que entre las funciones de un paradigma está también la de definir los métodos y las técnicas de investigación aceptables en una disciplina. Existen dos grandes marcos generales de referencia que han orientado históricamente la investigación social desde su nacimiento: la visión "empirista" y la "humanista". Se trata de dos divisiones orgánicas y fuertemente contrapuestas de la realidad social de los modos de conocerla, que han generado dos bloques coherentes y muy diferenciados entre sí de técnicas de investigación. Son concepciones generales sobre la naturaleza del a realidad social, del hombre y sobre el modo en que éste puede conocer aquélla. Tales interrogantes pueden ser reconducidos a tres cuestiones fundamentales: ¿existe la realidad (social)?, ¿Es conocible?, ¿Cómo puede ser conocida? … en otras palabras: Esencia, Conocimiento, Método. La cuestión ontológica. Concierne a la naturaleza de la realidad social y su forma. Se nos interroga sobre si los fenómenos sociales son "cosas en sí mismas" o "representaciones de cosas" La cuestión epistemológica. Relación entre el quién y el qué. Concierne a la cognoscibilidad de la realidad social, y ante todo pone el acento sobre la relación entre estudioso y realidad estudiada. Si el mundo social existe en cuanto tal independientemente del actuar humano, será legítima la aspiración de alcanzarlo, de conocerlo con distancia objetiva, sin temor de alterarlo en el transcurso del proceso cognoscitivo. Las características (la forma) que el conocimiento puede adquirir están estrechamente ligadas a la respuesta dada a este problema: éstas pueden ir desde "leyes naturales", deterministas dominadas por las categorías de causa-efecto, a leyes menos imperativas, a generalizaciones de distinta forma, a ninguna forma de generalización. La cuestión metodológica. Es la cuestión del "cómo". Se refiere a la instrumentación técnica del proceso cognoscitivo. Resulta difícil separar las concepciones sobre la naturaleza de la realidad social de las reflexiones sobre su cognoscibilidad, y éstas de las técnicas utilizables para su conocimiento. 1.3 Positivismo

2

El paradigma positivista es: el estudio de la realidad social utilizando el marco conceptual, las técnicas de observación y medición, los instrumentos de análisis matemático, los procedimientos de inferencia de las ciencias naturales. Por marco conceptual entendemos las categorias de "ley natural", de causa-efecto, de comprobación empírica, de explicación… Por técnicas de observación y medición entendemos: el uso de variables cuantitativas incluso para fenómenos de naturaleza más cualitativa, los procedimientos de medición aplicados a orientaciones ideológicas, capacidades mentales, estados psíquicos. Finalmente, por procedimientos de deducción entendemos: el proceso que a partir de lo conocido permite avanzar hipótesis sobre lo desconocido, y por tanto el paso de la observación particular a la ley general, la utilización de la teoría para fines de previsión, la inferencia a partir de la muestra a la población total. La ciencia es universal y el método científico es único. Las ciencias de la sociedad no son distintas de las de la naturaleza y el modo de pensar positivo que ha llevado a conquistas tan grandes en el campo de la astronomía, de la física, de la biología, está destinado a triunfar también cuando se pasa de los objetos naturales a los sociales: a la religión, a la política, al trabajo. El primer intento de aplicar esta perspectiva teórica global a la investigación empírica fue el de Durkheim. Comte no se ocupó de cosas sino de conceptos. Durkheim sin embargo se esforzó por traducir los principios del pensamiento positivo en praxis empírica, es el primer científico social, el primer sociólogo positivista verdadero. La primera regla , que es la fundamental, impone considerar los hechos sociales como cosas. Hechos sociales, que tienen las mismas propiedades que las cosas del mundo natural. Y de ello se derivan dos consecuencias. Por una parte, los hechos sociales no están sujetos a la voluntad del hombre, sino que ofrecen resistencia a su intervención, lo condicionan y lo limitan. Por otra, precisamente como los fenómenos del mundo natural, los hechos también funcionan según sus propias reglas. Poseen una estructura determinista que el hombre, a través de la investigación cientifica puede descubrir. De ahí la asunción, no obstante sus diferentes objetos, de una unidad metodológica sustancial entre mundo natural y mundo social. La primera afirmación, es pues, existe una realidad social fuera del individuo. La segunda afirmación, es, esta realidad social es objetivamente conocible. La tercera afirmación, es, esta se puede estudiar con los mismos métodos de las ciencias naturales. La manera de proceder de este conocimiento es fundamentalmente inductivo, entendiendo por inducción "el paso de los particular a lo universal", de la observación empírica, de la identificación de regularidades y repeticiones en las fracciones de realidad empíricamente estudiada, se llega a generalizaciones o a leyes universales. En el procedimiento inductivo está implícita la asunción de una orden y una uniformidad de la naturaleza, de principios organizadores de carácter universal, y el cometido científico es, precisamente, descubrirlos. Con respecto a la forma de este conocimiento en la mayoría de los casos adoptarán las características de un nexo causa-efecto. 1.4 Neopositivismo y postpositivismo Dentro de la visión positivista se ha desarrollado, a lo largo del siglo XX, un proceso continuo de revisión y adaptación, movido justamente por la conciencia de sus propias

3

limitaciones intrínsecas y del intento de superarlas. La tranquilizadora claridad y linealidad del positivismo del siglo XIX deja libre el terreno para un positivismo del s. XX mucho más complejo, articulado y en algunos casos no exento de contradicciones y puntos oscuros; sin dejar sin embargo de cumplir con algunas premisas de base, como el realismo ontológico y la posición preeminente que defiende la observación empírica como medio para conocer dicho mundo. Los dos momentos del neopositivismo son, el periodo que va de los años treinta a los años sesenta y del postpositivismo con el que se suele identificar su evolución a partir de finales de los años sesenta. Una de las primeras revisiones del positivismo del siglo XIX la llevó a cabo la escuela conocida con el nombre de positivismo lógico, que ha dado origen al neopositivismo. Este movimiento se formó en torno a las discusiones del "Circulo de Viena" y sobre cuyas posiciones se formó un grupo análogo en Berlín. La emigración a EEUU de algunos representantes acreditados de esta escuela difundió el pensamiento neopositivista y su influencia sobre las otras disciplinas, la sociología incluida. En EEUU se desarrolló, a partir de los años treinta, un rico filón de investigación sociológica empírica. La nueva visión asigna un papel central a la crítica de la ciencia, pasando al del análisis crítico de cuanto es elaborado en las teorías de cada disciplina. De ahí el rechazo a las "grandes cuestiones" y a todas las metafísicas definidas exentas de sentido en tanto que indemostrables. En cambio se dedica la máxima atención a los problemas metodológicos de cada ciencia, a la sintaxis de su lenguaje y de sus elaboraciones teóricas, ala crítica de sus tesis y a los procedimientos de validación de las elaboraciones conceptuales a través de la verificación empírica. Se otorga importancia a las cuestiones epistemológicas, es comprensible la influencia que tuvo sobre la metodología de las ciencias, incluidas las ciencias sociales. Uno de los postulados el neopositivismo es que el sentido de una afirmación deriva de su verificabilidad empírica, de la posibilidad de poder formular a partir de ella una definición operativa para controlar su validez."El siginificado de una proposición es el método de su verificación". La principal consecuencia fue su forma de hablar, un lenguaje extraido de las matemáticas y las estadísticas, el lenguaje de las variables. La variable con sus características de neutralidad, objetividad y operatividad matemática, se convertía así en la protagonista del análisis social, de esta manera se despersonaliza. Ya nada podía ser como antes, la concepción de la ciencia del s.XX estaba muy lejos de las sólidas certezas del positivismo del s. XIX, en el que dominaba la concepción "mecánica" de la realidad, la seguridad en las leyes inmutables, la fe en el progreso científico. La mecánica cuántica, la relativización del espacio y del tiempo efectuada por Einstein, introducen elementos de probabilidad y de incertidumbre sobre puntos cruciales, como el concepto de la ley causal, la objetividad-inmutabilidad del mundo exterior e incluso sobre las categorias clásicas del espacio y el tiempo. El momento crucial de este cambio se localiza en el paso de la física clásica a la cuántica, perdiéndose la certidumbre de la ley, que quiebra el ideal clásico de la ciencia como sistema acabado de verdades necesarias. Las teorías científicas ya no están destinadas a explicar los fenómenos sociales mediante esquemas de naturaleza lógica coercitiva, y la ley determinista es sustituida por la ley probabilística, que implica elementos de accidentalidad, la presencia de perturbaciones y fluctuaciones. Si esto es válido para el mundo natural, será más válido para el social.

4

seguida por la reinterpretación del planteamiento original que se ha ido concretando a partir de los años sesenta sobre todo en la sociología americana. es decir. de la cuantificación y de la generalización. cuando dice que las leyes son probables y abiertas a revisión. no sufren variaciones de fondo. sino que depende de la teoría incluso el simple registro de la realidad depende de la ventana mental del investigador. mediante la prueba de que la teoría es confirmada por los datos: sino que se realiza solamente en negativo.Categoría de falsabilidad. El nuevo positivismo. Por tanto. bajo un único título podemos incluir la investigación social. diferentes entre sí pero unidas por la atención común a la interacción individual.1 Los inicios La visión inicial de la "sociología comprensiva" debe a Max Weber a principios de este siglo. son simplemente compatibles con ella. El positivismo moderno. clasificando bajo el término general de "interpretavismo" todas las visiones teóricas para las cuales la realidad no puede ser simplemente observada. Los procedimientos operativos. La tesis de la teoricidad de las observaciones empíricas. y que ha dado lugar a las diversas corrientes del interaccionismo simbólico. del a etnometodología. tiene en su base el lenguaje de siempre. las modalidades de obtención de datos. nunca válida definitivamente. derrroca incluso la última de las certezas positivistas. pero no repudía el fundamento empirista. y la analogía de fondo entre el método de las ciencias sociales y el de las ciencias naturales.5.5 Interpretativismo 1. las operaciones de medición. fundado sobre las bases de la operacionalización. la de la objetividad del dato obtenido. No existe la discontinuidad que hemos identificado en el paso desde el positivismo del s. la afirmación de que no existe una línea clara de separación entre conceptos teóricos y datos observados. ha recorrido un largo camino desde la interpretación ingenua de las leyes deterministas del positivismo originario. con la "no falsificación" de la teoría por parte de los datos. Este procedo no conlleva una anulación del espíritu empirista. es decir. de condicionamientos sociales y culturales. sino que tiene que ser interpretada. así como la neutralidad del lenguaje observador. las elaboraciones estadísticas. tanto la elaboración de la metodología como los primeros intentos de investigación empírica. y siempre expuesta al riesgo de una posible falsación. mediante la constatación de que los datos no contradicen la hipotesis. Se produce una importante apertura a las técnicas cualitativas. Se mantiene. y de que. la centralidad del método "científico" en la investigación social. La comparación entre teoría y descubrimiento empírico no puede darse en positivo.XIX al del s. El hombre no puede conocer sino sólo conjeturar. La orientación postpositivista dice que la observación de la realidad no es una fotografía objetiva. pero sin menoscabar la centralidad de las cuantitativas. 5 .. de la sociología fenomenológica. De este planteamiento se deriva un sentido de provisionalidad de cada hipótesis teórica. 1. Criterio de validación empírica de una teoría o hipótesis teórica. Pierde las certidumbres. por tanto.XX. Y la comprobación positiva no se da en tanto que los mismos datos podrían ser compatibles también con otras hipótesis teóricas.

es decir. Weber insistió en la necesidad de que las ciencias histórico-sociales estén libres de cualquier juicio de valor. según Weber. Mientras que el objeto de las ciencias naturales lo constituye una realidad externa al hombre. sino un principio de elección: sirve para establecer un campo de investigación. Una vez establecida la neutralidad valorativa como primera condición para la objetividad de las ciencias sociales.5. al no darse esta separación entre observador y realidad estudiada.Dilthey aúna en su polémica tanto el idealismo hegeliano como el positivismo comtiano. encaminadas a la identificación de leyes generales y ciencias idiográficas. "la capacidad de realizar la distinción entre el conocer y el valorar. es de método. se distinguen de las ciencias naturales por su "orientación hacia el individuo" Orientación que. es decir. y que devuelve por tanto al hombre su libertad. basando su diferencia justamente en la relación que se instaura entre investigador y realidad estudiada. Si las ciencias histórico-sociales no pueden admitir en su interior presupuestos de valor. aun partiendo de una orientación hacia la individualidad. aun reconociendo la realidad del condicionamiento. el de la comprensión. su unicidad e irrepetibilidad. el quiere salvar la objetividad de la ciencia social tanto en los términos de su "neutralidad valorativa". Éste es el principio al que debemos atenernos más solidamente. que tendrían en común "la misma fe en la historia como progreso necesario a través de fases igualmente necesarias" a partir de una visión de la historia entendida como "construcción del hombre. Y para Weber el método es el de "comprender". delimitando su propio campo. entre el cumplimiento del deber científico de ver la realidad de los hechos y el cumplimiento del deber práctico de defender los propios ideales. orientadas a captar la individualidad de los fenómenos. en primer lugar. los valores siguen estando presentes. aún así no se puede impedir en su interior presupuestos de valor. siendo más evidente en él la conciencia del problema que la capacidad para darle una respuesta unívoca. 1. en el que indagación procede de manera objetiva para llegar a la explicación causal de los fenómenos. es decir. sino de interpretación: entender el objetivo de la acción. No de intuición. para las ciencias del espiritu. La relación de los valores viene a designar la dirección particular del interés cognoscitivo que mueve la investigación. introduce la separación entre ciencias nomotéticas. como en los de la posibilidad de llegar a enunciados con cierto carácter de generalidad. captar las dimensiones del propósito y la intención de la acción humana. cumpliendo con lo que podríamos llamar una "función selectiva". Se trata de comprensión racional de las motivaciones de la acción. Weber se adhiere en este punto a la distinción de Rickert entre "juicio de valor" y "relación de valor". La neutralidad valorativa de las ciencias histórico-sociales sigue siendo un fundamento irrenunciable. También el componente 6 . Nosotros explicamos la naturaleza mientras que entendemos la vida síquica. Windelband. Las ciencias sociales. Dilthey realiza en su Introducción a las ciencias del espíritu una celebre distinción entre ciencias de la naturaleza y ciencias del espíritu. asumiendo un papel orientativo con respecto a la investigación. el conocimiento se producirá solamente a través de un proceso muy distinto. aun así no se puede impedir que éstos intervengan en la elección de los problemas que hay que estudiar. que así se mantiene también en el curso del proceso cognoscitivo. independencia de los juicios de valor. el punto de vista específico en el que ésta se coloca.2 Max Weber: Objetividad y orientación hacia la individualidad. Esta última "no es un principio de valoración. La preocupación de Weber es no caer en el individualismo subjetivista y en el psicologismo. Incluso privados de una función valorativa. de la interrelación individual.

tradicional y racional-legal ha existido nunca en su forma pura. por tanto. interesado en comprender fenómenos macroestructurales como la economía. Si la sociedad está edificada a partir de las interpretaciones de los individuos. el poder. ontológica entre las ciencias naturales y las ciencias sociales es la irreductibilidad de las segundas a los métodos de investigación de las primeras. El movimiento en EEUU en los años 60 desarrolla la perspectiva weberiana en su dirección natural. sino de conexiones causales o mejor dicho utilizando una expresión tomada de Boudon. no deben ser confundidos con la realidad. la oposición a cualquier filosofía de la historia. 7 . escribe Weber. pues. son modelos teóricos que ayudan al investigador a interpretarla.3. son ideales en el sentido de que son constucciones mentales del hombre. la posibilidad de una selección de entre la infinidad de los elementos determinantes. el poder carismático. la diferencia fundamental. Los tipos ideales. cuando se trata de la individualidad de un fenómeno. ¿cómo es posible llegar a un conocimiento objetivo con caracteres de generalidad? Para Weber los tipos ideales son formas de actuación social que pueden encontrarse de modo recurrente en la manera en que los individuos se comportan. También la crítica respecto a cualquier intento de explicar la acción humana a partir del sistema social y de los factores de condicionamiento presentes en él proviene de las aportaciones de Weber. en cambio. la burocracia. y la cuestión causal. ¿Cómo puede nacer la objetividad desde esta orientación individualista? Si el punto de partida está representado por el individuo y por el sentido subjetivo de su acción. a cualquier forma de evolucionismo. mucho más compleja. que han determinado un acontecimiento individual cualquiera. tiene como fin la interpretación racional: identificarse con el otro "para comprender". desarrollan una función heurística en el sentido de que dirigen su conocimiento. En definitiva. De este modo. aislando algunos elementos dentro de la multiplicidad del dato empírico. es decir. debemos observar dicha interacción para entender la sociedad. pero sí es alcanzable el de esbozar las condiciones que los hacen posible. La realidad es. Esas formas se reconstruyen a través de un proceso de abstracción que.5. Los tres tipos ideales de poder identificados por Weber. no es una cuestión de leyes. El tipo ideal es. un sentido interior. y su interacción es la que crea las estructuras. 1. Todo comportamiento tiene una racionalidad íntima propia. es de hecho siempre infinito. en una perspectiva "micro". ficciones exentas de vida. de leyes. presente en el Verstehen. Para Weber el número y el tipo de las causas. contradictoria y desordenada. Estos han sido construidos de modo ideal heurístico. una abstracción que nace del reconocimiento empírico de uniformidad. Las uniformidades que el investigador persigue y encuentra en su interpretación de la realidad social no son las leyes. la religión. Weber se movió en un plano macrosociológico. No hablemos. de enunciados de posibilidad. sino una cuestión de conexiones causales concretas. procede a coordinarlos dentro de un marco coherente. Son cáscaras vacías. el Estado. Desarrollos posteriores Todas las posteriores perspectivas tienen en común las características fundamentales del planteamiento weberiano: el fuerte convencimiento antideterminista..de identificación con el otro. resulta inalcazable el objetivo de establecer los factores determinantes de un acontecimiento social o un comportamiento individual determinados. en una perspectiva de historia comparada.

En Weber está todavía muy presente la tensión por la superación de la subjetividad: él no excluye la posibilidad de llegar a formas de generalización cognoscitiva. en el carácter subjetivista del planteamiento original weberiano. La realidad es una pura construcción subjetiva. La radicalización de esta tendencia ha llevado a una especie empiricismo antiespeculativo. Las diferencias de fondo implican también una diferencia de técnicas y de procedimientos de investigación. adoptar "el lenguaje de las variables". se desplaza la atención del contenido al método. desplazaron la atención sobre el mundo de la vida cotidiana y la interacción intersubjetiva. acentuando los problemas de comprobación o de confirmación de la hipótesis en la actividad científica. de los problemas de la operacionalización de los conceptos a laos problemas prácticos de la obtención de análisis de datos privados de bagaje teórico y metodológico. es decir ars probandi. Las nuevas corrientes a partir de los años 60 neocomprensivas pusieron el acento. que darán lugar al cuerpo de la denominada "investigación cualitativa" 1. sino recoger y describir los datos con la ingenua ilusión de que los datos hablen por sí mismos. dominado por el mito del método y el dato. en el que el objetivo del científico social ya no es formular teorías y después comprobarlas empíricamente. Se trata de un proceso de reducción progresiva (reduccionismo) que ha atravesado varias fases. se reducen los límites de la exploración teórica. silenciaba precisamente la dimensión individual.6 Críticas. Dos criticas de fondo. En definitiva este proceso de reducción se concluyó desplazando la atención del método al dato. por tanto. Por lo que se refiere al paradigma positivista. entonces tendrá que ser estudiada con métodos diferentes de los positivistas. Asímismo.El programa "subjetivista" es ante todo una reacción frente al palnteamiento "objetivista" positivista. es decir. no descuida las grandes problemáticas sistémicas ni la dimensión institucional de la sociedad. hemos visto que se prestaba una gran atención y cuidado a la formulación y el desarrollo de técnicas y procedimientos empíricos. El subjetivista no puede. perspectivas radicales. el aspecto humano. y una parte relevante de sus exposiciones metodológicas está dirigida al intento de conciliar causalidad y comprensión. Si la vida humana es en su esencia distinta de la del mundo natural. especialmente en el periodo del neopositivismo. por último. En primer lugar. asimilando la realidad social y la acción humana a algo objetivamente estudiable. todo ello niega la posibilidad de ir más allá 8 . ars inveniendi. privilegiar la segunda ha significado excluir del ámbito de las consideraciones teóricas aquellos interrogantes que no fueran inmediata y simplemente traducibles a procedimientos empíricamente comprobables. aun partiendo de la atención sobre el individuo. procedimientos y técnicas propias de observación y de análisis de la realidad empírica. que. por el contrario. El enfoque subjetivista elaborará. La primera consideración crítica sostiene que el subjetivismo extremo excluye la posibilidad misma de la existencia de la ciencia y en particular de la ciencia social. por tanto. conviertiéndose aquí en el objeto primario de la investigación. y nuevas tendencias. En segundo lugar. en detrimento de la profundización del contexto de los descubrimientos. En la tensión entre teoría y comprobación empírica.

a favor de la paradoja. En segundo lugar. las microinteracciones entre los individuos. c) exaltación del as diferencias.del individuo y niega la objetividad del conocimiento. de las protestas estudiantiles. se acusa al enfoque interpretativo de excluir de sus intereses lo que debería ser objeto de la reflexión sociológica por excelencia: las instituciones. de imperialismo cultural. de la linealidad. de la opacidad. consideración del "poder" como categoría explicativa que está en el origen de todas las relaciones y la estructuras sociales. acusadas de totalitarismo homogeneizante. de la multiplicidad de verdades locales y contextuales. Se les acusa de microsociologismo. neoweberianos. Se consolidaron nuevas perspectivas teóricas. El postmodernismo. Corre el peligro de dejar fuera de su ámbito problemático los aspectos de la sociedad que. Éste sucedia a una década tumultuosa en la historia de las sociedades occidentales. de las revueltas urbanas con fondo racial. la década de los sesenta. comenzó a desarrollarse y a crecer también la denominada microsociología. de la contradicción. y d)exaltación de lo "Otro". que. También la no separación entre el estudioso y lo estudiado contribuye a esta negación. sobre la naturaleza y sobre la sociedad. del desarrollo y la difusión del movimiento feminista. podemos definir de manera muy simple este movimiento a partir de lo que rechazaba. El postmodernismo sería un "ir más allá" de los logros del modernismo. las dinámicas interpersonales. de la lucha contra la pobreza y las desigualdades. aún teniendo también origen en la interacción individual. y el desarrollo de la teoría crítica y de nuevas perspectivas radicales que se colocaron en abierta polémica con la complaciente alianza entre neopositivismo y funcionalismo. El modernismo. sin embargo. en una crítica que podemos sintetizar brevemente en cuatro puntos: a) rechazo de teorías generales. entendido como heredero directo del Iluminismo: ejercicio crítico de la razón sobre el hombre. de la visión de múltiples facetas alternativas e irreconciliables. de las minorías. identificación con los oprimidos. en la simplicidad de la explicación científica y en el carácter acumulativo del saber. que había dominado hasta ese momento la elaboración teórica y la investigación social. con el nacimiento de enfoques neomarxistas. de la simplicidad del conocimiento científico. celebración de las diversidades. que encabezaba diversas escuelas de pensamiento y diversas visiones teóricas. de lo distinto. b) rechazo de la racionalidad. compartían el hecho de poner en el centro de interés y de la investigación sociológica los pequeños hechos de la vida cotidiana. de los movimientos por los derechos civiles. El último cuarto del siglo XX ha representado un periodo de reto en la historia de la investigación. basada en el orden y la racionalidad. de negación y represión de las diferencias entre las sociedades con el fin de perpetuar las aspiraciones hegemónicas del mundo y la cultura occidental. Aparte de estas macroperspectivas. a favor de planteamientos y lenguajes teóricos múltiples en una exaltación de la fragmentación y de la no unidad de la explicación científica. confianza en la ciencia. universales. 9 . rechazo del carácter acumulativo de la ciencia. han cobrado autonomía respecto a laos individuos y a sus elecciones.

la delincuencia juvenil . así como un radio de acción necesariamente más limitado respecto al planteamiento cuantitativo. A continuación. en la que según algunos hay que buscar el origen del comportamiento antisocial.60 domino sobre todo la perspectiva cuantitativa. como el inicio de la edad laboral y el 10 . ha llevado a la elaboración de nuevas técnicas de recogida y análisis del material empírico. propuestas. de Sampson y Laub Debate entre investigación cuantitativa y cualitativa ha sufrido diferente etapas. también por exigencias didácticas. que ha avivado el debate metodológico. Existen múltiples posiciones intermedias y que. dos investigaciones realizadas sobre la misma temática .1. de unas 60 cajas que contenían el material original de una imponente investigación longitudinal. al nacimiento de nuevas revistas científicas expresamente dedicadas al enfoque cualitativo. examinaremos analíticamente las diferencias entre ambos enfoques. recogida a lo largo de 24 años (1939-63) Sampson y Laub. los estudios de sociología criminal se han concentrado sobre todo en esta edad. una realizada bajo la inspiración del paradigma neopositivista y la otra con la insignia del paradigma interpretativo: hemos elegido.CAPITULO 2 INVESTIGACIÓN CUALITATIVA CUANTITATIVA E INVESTIGACIÓN 2. en la que los pasos cruciales. reflexiones. ante este inesperado hallazgo. Años 20.1. manuales… Ahora ilustraremos los paradigmas fundadores. en los sótanos de la biblioteca de la Law School de la Universidad de Harvard. Por otra parte. como la edad adulta. exige una identificación y una implicación mayor. en el origen de esta investigación se encuentra una curiosa coincidencia: el hallazo.50. La primera investigación que analizamos es fácilmente atribuible a la inspiración y a la instrumentación técnica de la corriente neopositivista. En los años 40. para destacar mejor las diferencias entre los dos enfoques. sobre todo dentro del criterio cuantitativo. Hipótesis Los delitos cometidos principalmente por adolescentes. deciden reanalizar los datos para responder a los nuevos interrogantes que entretanto había planteado el desarrollo de la teoría y de la investigación a los estudiosos de la desviación de los menores. las diferencias entre los dos puntos de vista. Iniciaremos este capítulo describiendo dos investigaciones. a partir de los ochenta la investigación cualitativa experimentó un agitado desarrollo. descuidando tanto la infancia. Crime in the Making. lo que éstos han generado sobre el terreno de la metodología. subrayando. es posible insertar amplias porciones de técnicas cualitativas. 30 ambos criterios proporcionaron productos de alto valor y contribuyeron al avance de la disciplina.y con numerosos interrogantes en común. en el que el investigador trata de "ver el mundo con los ojos del sujeto estudiado". 2. En los sesenta el problema se replanteó a partir de una serie de importantes contribuciones teóricas.1 Paradigma Neopositivista: Crime in the making. En esta comparación entre perspectiva cuantitativa y cualitativa haré referencia de forma sustancial a dos "tipos ideales" de investigación. el planteamiento rígidamente interpretativo. investigaciones.

beber. 2. con el fin de registrar los eventuales delitos cometidos. Estos dos indicadores de desviación son. entre 10 y 17 años y sobre 500 jóvenes "normales". …) referidos por los sujetos mismos.1. y se consultaron los autos oficiales del sistema judicial. Se les hizo un seguimiento sistemático entre 1939-48 con entrevistas a ellos mismos. 11 .1. a sus familias y a sus profesores.…) sino también de simple "mala conducta" (fumar. La desviación oficial. relaciones sociales adultas y cambio en el comportamiento criminal. para pasar a estudios diacrónicos ( o "longitudinales" ) a través de los cuales se sigue a un grupo de individuos durante un periodo determinado. en parte a causa de la utilización de datos limitados a los adolescentes y a un momento determinado" para integrar la criminología en una perspectiva de "trayectoria vital". origen étnico. Datos recogidos sobre 500 autores de delitos jóvenes. Todo ello en una visión global que se propone superar "el reducido marco de las perspectivas sociológicas y sicológicas hasta ahora dominantes en la criminología. Sampson y Laub. en último término. 2. las variables dependientes de la investigación. los segundos en escuelas públicas de la misma zona. Se registraron todos los comportamientos no sólo ilegales ( robo. Este punto de vista implica la necesidad de superar la formulación sincrónica o "transversal" (cross sectional) característica de estudios realizados sobre un grupo de individuos "fotografiados" en un momento determinado. Los primeros fueron localizados en dos correccionales. hacer novillos. obteniendo información y datos sobre ellos en momentos sucesivos de su curso de vida.matrimonio. blancos.3 Observación empírica y resultados del análisis Indice del "comportamiento desviado no oficial". Los capitulos se desarrollan todos del mismo modo lineal. se reunieron las informaciones procedentes de las distintas fuentes y se construyeron tanto índices de desviación para cada comportamiento. policías y jueces. como un índice de desviación global ( con puntuación entre 1 y 26). destacan: a) marco teórico b) observaciones empíricas c) resultados de los análisis d) vuelta a la teoría. trabajadores sociales. También se recogió información entre los vecinos. varones. del grupo de los compañeros y de hermanos/as. hurto. juegos de azar. continuidad en el tiempo del comportamiento. infancia antisocial…) como los mecanismos informales de control social operativos en ese momento del ciclo de vida. por sus padres y por los profesores. sobre los argumentos: contexto familiar y delincuencia juvenil. daños. familia desestructurada. estaba representada por la variable dicotómica colocada en la base del plan de muestreo de los 500 + 500 sujetos. La parte expositiva de los resultados de la investigación cubre cinco capítulos del libro.2 Diseño de la investigación La investigación de Sampson y Laub es un análisis secundario de los datos recogidos treinta años antes. sobre la base de un plano de correspondencia particularmente cuidadoso: para cada uno de los 500 autores de delito fue elegido un joven "normal" con las mismas características de edad. papel de la escuela. Este indice representaba la desviación no oficial. pueden introducir cambios radicales en la actitud social del individuo. modelos comparados de crimen y desviación. esbozan las líneas fundamentales de una posible "teoría del control social informal articulada por edades" en la que para cada edad se discuten tanto las variables de fondo tradicionalmente consideradas las causas del comportamiento desviado (pobreza. escaparse de casa. barrio y cociente intelectual.

¿Qué significa eso? Significa que las variables estructurales no tienen un efecto directo sobre el comportamiento desviado. y este hecho. como ya se ha precisado. marginal. clasificada en tres categorías. escuela. con valor 1 cuando el niño ha crecido sólo con uno de los padres. Estos resultados vienen a apoyar su "teoría integrada de los controles sociales informales". Las variables básicas o estructurales son las variables clásicas (pobreza. Cuando se analiza el modelo completo (variables estructurales básicas y variables procesales familiares. Pero a igual control y cuidado por parte de los padres hacia los hijos. a la presencia/ausencia de supervisión materna y a situaciones de rechazo. disgregación familiar. facilita el surgimiento de comportamientos desviados. trabajo…) a las que Sampson y Laub otorgan un papel fundamental en el proceso que lleva a la desviación. los autores extraen de sus datos la conclusión de que "los procesos familiares de control informal tienen un importante efecto inhibidor sobre la delincuencia de los adolescentes. y comportamiento desviado como dependiente). Ponen en relación los tres bloques de dos en dos. entre variables básicas y desviación (la situación familiar precaria. pobre. y encuentran siempre fuertes correlaciones: entre las variables básicas y las variables procesales (correlación interpretable en el sentido de que las condiciones estructurales de la familia influyen en los lazos afectivos y la relación pedagógica). "nacimiento en el extranjero". las variables de proceso o procesales hacen referencia a las relaciones informales (familia. asumidas todas juntas como independientes. cesa la influencia de la disgregación familiar sobre la potencial desviación de los hijos. Los autores emplean el instrumento estadístico de la regresión múltiple. criminalidad de los padres…) . la relativa al control familiar. abandono. al empleo o no de castigos físicos. En resumen. "trabajo de la madre". dependiente. Por ejemplo. según los casos. los dos autores plantean un modelo teórico construido en dos fases. todas las relaciones empíricas encontradas entre las variables son resultados esperados de acuerdo con la teoría. etc.). por lo que concierne a la primera fase. "desviación del padre". 12 . De esta manera. Los autores calculan que del total del efecto de las variables estructurales sobre la delincuencia. La variable dependiente de todo el modelo está representada por el comportamiento desviado. sino mediatizado por las variables "intervinientes" representadas por el vínculo-control familiar. "dimensión de la familia". Resultados del análisis. "estatus socioeconómico". Descripción de las variables por parte de los autores. se tratará de desviación "oficial" o de desviación "no oficial". ligadas a la relación afectiva con los padres. Sobre esta base. dada por el número de niños. sino que su acción está mediada por las variables procesales. con tres categorías: cómodo. una situación de disgregación familiar favorece episodios de abandono por parte de los padres (ausencia de control. un 73% está mediatizado por las variables procesales familiares. "movilidad residencial". Vuelta a la teoría. el efecto de las variables estructurales básicas casi desaparece. las variables estructurales básicas influirían sobre el comportamiento desviado no de modo directo. hostilidad por parte de los padres.Los autores distinguen en cada capítulo entre variables básicas o estructurales y variables de proceso o procesales. entre variables procesales y desviación (el debilitamiento de los lazos familiares la favorece). "desviación de la madre"… Identifican cinco "variables procesales familiares". favorece el comportamiento desviado). etc. Ordenan las variables en tres bloques: las instrumentales básicas. las procesales familiares y las dos dependientes (comportamiento desviado). a su vez. distinguen nueve variables estructurales básicas: "hacinamiento habitacional".

compartiendo su cotidianidad. en las ciencias sociales así como en las políticas públicas.En los capitulos sucesivos. introduciéndose en sus actividades. Infancia 0-10.2. sin embargo. nunca hemos comprendido completamente las bandas. 25-32. La recogida de datos. decide desde el principio que su estudio debe ser comparado para entender lo que las bandas tienen en común y lo que en cambio es específico de cada una de ellas. durante los cuales participó plenamente en la vida de las bandas. dedicó al estudio 10 años. Estudió 37 bandas. transición a la edad mediana 32-45. N. Así llegan a lo que llaman "modelo teórico dinámico del crimen. desviación y control social informal a lo largo del ciclo vital". en los últimos tres años de la investigación transcurrió de tres a seis días con cada una de ellas. son el "explicar" asumido como objetivo en el primer caso y la insistencia en el "comprender" en el segundo. Diseño de la investigación y recogida de datos La investigación de Jankowski es un ejemplo de "observación participante".2 Paradigma interpretativo: Islands in the street. edad adulta joven. Tras la aceptación por parte de una nueva banda.York. Boston) de diversas connotaciones étnicas y de dimensiones distintas. que consisten en el estudio de un grupo específico. 2. expresa elocuentemente la diferencia de planteamiento metodológico existente entre las dos investigaciones. sucesivamente de cinco a diez dias. el hecho de que las bandas no hayan sido comprendidas como organizaciones ha impedido nuestra comprensión de su comportamiento. 13 . de una organización determinada. Para empezar. hemos fracasado en comprender adecuadamente a los individuos que están en las bandas. 17-25. ya en edad más adulta. se llevó a cabo mediante registro de apuntes. del grupo de compañeros. y en conclusión reformulan de manera detallada el modelo propuesto resumidamente al principio. de los hermanos. del matrimonio. y para cada fase destacan el papel del os factores que favorecen el surgimiento (o el mantenimiento) del comportamiento desviado y de los que. del trabajo. hasta el punto de llegar a ser herido en enfrentamientos con bandas rivales y de ser repetidamente detenido por la policia. La simple diferencia léxica entre ambos fragmentos.1. Al reconocer la importancia tanto de las "variables estructurales" como de las "procesales". en cambio. adolescencia 10-17. respecto a la mayoría del as investigaciones realizadas con observación participante. Por ello decide estudiar bandas de diferentes ciudades ( Los Ángeles. aplican un esquema de análisis relativamente parecido al papel de la escuela. 2. en la adolescencia y en la edad adulta? Nosotros. al cual añadia resúmenes y reflexiones diarias y semanales. de Jankowski ¿conseguiremos desarrollar y someter a control empírico un modelo teórico capaz de explicar el crimen y la desviación en la infancia. pasaba con ella un mes entero. Él. transición a la edad adulta joven. Dividen el curso de los primeros 45 años de edad en 5 fases. tienden a inhibirlo. aclaran que las segundas son las que en último término explican la mayor parte de la variación tanto en la desviación en la adolescencia como en el proceso de salida del túnel de la delincuencia.

El tercer aspecto. La reflexión de Jankowski se desarrolla en tres líneas: el individuo y su relación con la banda. sino que más bien interpreta la adhesión a ellas como una elección racional. Él no ve en las bandas una desviación patológica de las normas sociales. 2. la banda y la comunidad.2. pues. "La teoría ha interpretado hasta ahora a las bandas en términos de desorganización social: en una situación carente de orden. al cual debe proporcionar unos servicios. evitando un fuerte condicionamiento teórico inicial: la teoría tendrá que ser descubierta en el curso de la investigación. Éste tendría la connotación de un intenso sentido de la competición. que a menudo llega a la agresión física y que está presente en todas las expresiones del comportamiento. que puede obtener ventajas en términos económicos. un orden social alternativo al tradicional y la banda surge como respuesta organizativa para aumentar la competividad de sus miembros. La banda es un sistema social cuasiprivado y cuasisecreto gobernado por una estructura de liderazgo que tiene roles definidos. la banda como organización. de control y de valores compartidos. obtendrá su apoyo. Se limita a presentar su investigación y expone las conclusiones a las que su experiencia le ha llevado. Las demandas que hace este individuo a la sociedad encuentran en la banda un posible instrumento de realización. Se desarrolla. La finalidad es la de proporcionar servicios sociales y económicos a sus miembros. porque en la banda encuentran un sustituto de la familia. La banda debe ser aceptada por los residentes como parte integrante del barrio. expulsados con un sistema escolar demasiado poco formado académicamente. A cambio.3 Interpretación del material empírico ¿quién entra en una banda y por qué? Jankowski rechaza las respuestas tópicas por proceder de familias desestructuradas. para el acaparamiento de los escasos recursos. o bien por imitación. y la de su propia supervivencia como organización.2.2 Hipótesis No encontramos la reflexión teórica sistemática que lleva a la elaboración de hipótesis que son controladas empíricamente. de lo que se derivaría individualismo. El individuo pide entrar en la banda porque piensa que le conviene. la relación de la banda con la comunidad en la que está incluida: la fuerte cohesión interna no es suficiente para garantizar su supervivencia: ésta solo puede estar asegurada por la integración de la banda en la comunidad local. Yo. está exenta de burocracia. de estatus y de poder.dice Jankowski . La banda decidirá aceptar su ingreso si éste satisface las necesidades de la organización. los individuos que viven en los barrios de renta baja entran en 14 . que se deriva de las características mismas del enfoque interpretativo que procede de modo esencialmente inductivo. individualista y rebelde. la banda ofrece ese orden social y esa seguridad de los cuales sienten necesidad los jóvenes sin medios de los barrios". Las áreas de renta baja de los suburbios metropolitanos americanos "están en realidad organizadas en torno a una intensa competición que llega hasta el conflicto. aislamiento social y necesidad de contar sólo con uno mismo. la vida es una lucha en la que sobreviven sólo los más fuertes y de la cual se deriva un fuerte instinto de supervivencia. en términos de protección de la policia y de los "piratas rivales". Persigue sus objetivos sin importarle si son legales o no.2.no he encontrado confirmaciones empíricas para estas proposiciones. La capacidad de establecer estos vínculos será uno de los principales determinantes de la supervivencia a largo plazo de la banda. de la desconfianza hacia los demás. El autor elabora el concepto de carácter (término preferido al de personalidad).

interactiva. conclusiones teóricas.1 la relación establecida entre teoría e investigación. es decir. de hecho. Su estrategia operativa es claramente distinta a la de Sampson y Laub:no partió con hipótesis las fue construyendo sobre la marcha. Tabla 2. El resultado es radicalmente distinto al de la investigación precedente: el objetivo ya no está representado por "modelos causales" en los que las variables están conectadas entre sí por relaciones de causa-efecto. pero todas basadas en el cálculo de lo que se mejor para ellos en ese momento determinado. En la investigación cualitativa que deriva del paradigma interpretativo. por tanto.3 Investigación cuantitativa e investigación cualitativa: Una comparación Empleando como ejemplo las dos investigaciones apenas presentadas. observaciones empíricas. es la que sugiere la hipótesis de las que partir. Es la expresión de un orden conceptual que ha guiado la forma de proceder de los dos estudiosos y que nace de una visión de la investigación entendida como proceso racional y lineal. la vuelta a la teoría. Parece apropiado hablar de "teoría que surge de los datos". entrelazadas. sino más bien por clasificaciones y tipologías. 2. Las 6 motivaciones que ha encontrado: Incentivos materiales. la planificación de la investigación.1 Planteamiento de la investigación Las dos investigaciones se diferencian desde la estructuración de las diversas fases que llevan desde el planteamiento del interrogante inicial hasta el último capítulo. 2. la obtención de datos. no propone teoría e hipótesis empíricamente controlables. En este cuadro toma una importancia esencial el análisis sistemático de la literatura: ésta. según un planteamiento deductivo (la teoría precede a la observación) que se mueve en el contexto de la "justificación". 15 . a favor de una lista articulada de motivaciones de tipo racional. En el caso de la investigación cuantitativa inspirada por el paradigma neopositivista. Diversión. Su capítulo teórico inicial es ya una mezcla de teorías y conclusiones. La forma de proceder de Jankowski es totalmente distinta. Elaboración teórica e investigación empírica proceden. al ver en ello un condicionamiento que podría inhibir su capacidad de "comprender" el punto de vista del sujeto estudiado. Refugio y escondite. en los dos enfoques es muy distinta. la relación entre teoría e investigación es abierta. a partir de la experiencia vivida. cuando rechaza las explicaciones sicosociales tradicionales respecto a la decisión de entrar en una banda. queremos comparar analíticamente las respuestas que las técnicas cuantitativas y cualitativas han dado a los problemas más relevantes de la investigación social. el análisis de los datos.la banda por varias razones. la relación está estructurada en fases lógicamente secuenciales. en una clara aplicación del paradigma interpretativo. un cierre prematuro del horizonte. logra hacernos entender cómo llegó a esa conclusión a partir de las entrevistas realizadas y no sobre la base de un prejuicio teórico. El investigador cualitativo a menudo rechaza intencionadamente la formulación de teorías antes de empezar el trabajo sobre el terreno. de esa pérdida de peso de la teoría acumulada en la comunidad científica se deriva una importancia menor de la reflexión sobre la literatura. Nunca hay una separación entre teoría y resultados empíricos. de la corroboración empírica de la teoría formulada previamente.3. Una geometría circular que de la teoría sale y a ella vuelve. que en cada capítulo se reemplantea: marco teórico. su formulación en forma de "modelo" empíricamente controlable. No hay introducción. Sampson destaca por su geometría: exposición de la teoría. resultado del análisis.

y presenta muchas graduaciones en su interior. una diferencia básica entre paradigma neopositivista y paradigma interpretativo se encuentra en la definición del objeto de la investigación. valor 0 en el resto de los casos. La investigación cualitativa. De esta doble perspectiva se derivan dos hechos. es decir. por otro lado. propia del observador "científico" neutral y distanciado. y que hay que agotar no sólo en términos operativos sino también en términos teóricos. en el sentido de que la presencia de un observador extraño no dejará a los sujetos totalmente indiferentes. El primero concierne a la interacción psicológica estudioso-estudiado. él estudia lo que . Como hemos señalado previamente. Ya sólo el hecho de investigar el comportamiento humano puede implicar alteraciones del comportamiento mismo. es muy probable que se comporten de forma no natural. para comunicar. cuantitativa i cualitativa es la relación general con el ambiente estudiado. Uno de los problemas que debe afrontar el investigador social es el de la reactividad del objeto de estudio. en cambio. Tomemos el concepto de "disgregación familiar" en la investigación de Sampson y Laub. La observación participante misma rara vez es perfectamente "naturalista". El investigador cuantitativo se coloca en un punto de observación externo al sujeto estudiado. esto permite registrar empíricamente el concepto pero también conlleva la desventaja de una fuerte reducción y empobrecimiento del mismo. considera que el enfoque naturalista (intervecnción sobre la realidad en la que el investigador se abstiene de cualquier manipulación) es un requisito básico para realizar su investigación empírica. Un investigador cualitativo no se habría movido nunca de esta manera. Y simétricamente. lo más dentro posible del sujeto de análisis. como investigador. Los conceptos que son elementos constitutivos de la teoría y al mismo tiempo son los que permiten que la teoría sea sometida a control empírico. habría utilizado lo de "disgregación familiar" como un concepto "orientador" que predispone a la percepción. mediante su "operacionalización". Más en general. la investigación cuantitativa no siempre es tan manipuladora como en el caso del experimento. Se trata de técnicas de investigación cuyas diferencias son muy extremas. La segunda articulación de la relación entre estudioso y realidad estudiada se refiere a la relación del investigador con cada individuo estudiado. en el curso de la investigación mism. Los autores operan con él del siguiente modo: valor 1 (disgregación) cdo. su transformación en variables empíricas observables. Entre ellas existen múltiples matices. o al menos considera admisible un cierto margen de "manipulación controlada". la clarificación de los conceptos y su operacionalización en variables tienen lugar incluso antes de iniciar la investigación. El planteamiento neopositivista no está preocupado por este problema ya que considera que el problema de la reactividad del objeto no representa un obstáculo básico.Hay también un uso diferente de los conceptos. en la familia uno o los dos padres están ausentes. en cambio. para contar. El investigador cualitativo se sitúa. En el enfoque positivista. Las dos formas de hacer investigación encuentran dos ilustraciones típicas y opuestas en las técnicas del experimento y de la observación participante. por lo menos en forma de estímulo para hablar. Otra diferencia entre inv. con la intención de ver la realidad social "con 16 . todos los instrumentos del análisis cualitativo distintos de la observación implican siempre una intervención sobre la realidad. sintetizable en el primer caso como "comprobación empírica de la hipótesis" y en el segundo como "descubrimiento del punto de vista del actor social". Estudiar a los individuos no es como estudiar a las hormigas o los átomos: si las personas saben que son observadas. le parece importante. uno de carácter psicológico-cultural y otro que podríamos definir de carácter físico-espacial.

e incluso cuando no puede considerársele así. Nunca se mantiene neutral o indiferente. Suele ser por cuestionario. y el uso de la muestra estadísticamente representativa es la señal más evidente de esta preocupación. en la que el encuentro entre estudioso y estudiado es una condición previa para la comprensión. Por todo ello. La investigación cuantitativa no suele prever contacto físico alguno entre estudioso y estudiado. el investigador era libre de elegir las bandas más adecuadas para su objetivo. no necesita conocer físicamente a ninguno de los sujetos estudiados. abierto. en la investigación cualitativa está desestructurado. La primera se refiere a la representatividad de los sujetos estudiados. la concepción de la investigación como "interacción" implica naturalmente un papel activo del sujeto estudiado. por tanto. Sucede todo lo contrario en el caso de la investigación cualitativa. una vez definidos algunos criterios de fondo a observar. En la vertiente cualitativa. Podríamos decir que el 17 . de su cultura y valores.los ojos de los sujetos estudiados". la investigación cuantitativa tiene un diseño rígido. 2. se refiere a la interacción física entre estudioso y estudiado. al contrario. Pero es igualmente cierto que el problema se le plantea mucho más marcadamente al investigador cualitativo. En el planteamiento cuantitativo. Tenía además la libertad de entrevistar a quien quisiera. El segundo hecho. y en el otro por la proximidad y el contacto. En el caso de la investigación de Sampson y Laub.3. mientras que la investigación cualitativa es más flexible. éstos se mantenían para siempre y de forma rígida como los sujetos a estudiar. de alargar o acortar la observación según la conveniencia… Normalmente. Pero la exigencia de proximidad fisico-espacial con el objeto estudiado está presente en todas las técnicas cualitativas. análisis secundario. caracterizada en uno de los casos por la distancia y separación. En el caso cuantitativo el diseño de la investigación se construye teóricamente antes del inicio de la recogida de datos. en cambio. idóneo para captar lo imprevisto. se derivan otras dos características que distinguen a ambos enfoques.2. En cambio. Esto pone de manifiesto el problema de la objetividad en la investigación cualitativa. de su experiencia. sino que tiende a desarrollar una relación de identificación empática con los sujetos. una vez construida la muestra de los 500 autores de delito y de los 500 no autores de delito. En la investigación cuantitativa el investigador está preocupado por la posibilidad de generalizar los resultados. y está rígidamente estructurado y cerrado. que en la interacción empática con el sujeto estudiado se expone al riesgo de una implicación emotiva y. es un problema que también existe en la investigación cuantitativa ya que el investigador ve el mundo filtrado por las lentes de su punto de vista. modelado en el curso del proceso. En la investigación de Jankowski. resulta evidente la diferencia radical entre ambos enfoques respecto al papel del objeto estudiado. De este planteamiento cerrado o abierto. de interpretaciones fuertemente unilaterales. Recogida de datos La diferencia entre los dos enfoques se basa en el grado en que los procedimientos están estructurados. se hace todo lo posible para reducir al mínimo su interacción con el investigador. El caso de la observación participante sirve una vez más de ejemplo del punto de vista de la investigación interpretativa. el individuo estudiado es considerado pasivo. Nadie mantiene la posibilidad de un ideal absoluto de ciencia objetiva y libre de valores. al menos en el campo de las ciencias sociales. La concepción de la investigación como "observación" y "estudio" implica una consideración de los individuos estudiados como objetos. experimento de laboratorio.

algunos activistas comunistas se mostraron desconfiados. la falta de homogeneidad de las informaciones es su principal elemento constitutivo.investigador cuantitativo está preocupado por la representatividad del fragmento de sociedad que está estudiando. Al contrario. sociológica. igual que algunos sacerdotes. El instrumento de investigación es uniforme para todos los casos o en cualquier caso uniformador. respetando las formulaciones y las ópticas de cada uno. pidiendo a los entrevistados que le atribuyan una calificación del 1 al 10. que antepone la comprensión. no se plantea el problema de la objetividad y de la estandarización de los datos. Los sujetos a entrevistar. se revelaron como informadores preciosos individuos que no habían sido incluidos previamente entre los sujetos a entrevistar. con distinto nivel de profundización según la conveniencia. Se utilizaron tanto entrevistas en profundidad "no estructuradas" como entrevistas estructuradas (mismas preguntas a todos los sujetos). A lo largo de la investigación se dio cuenta de que su objetivo era inalcanzable. Esta uniformidad se produce porque el objetivo final de la recogida de informaciones es la "matriz de los datos". que se decide sobre la base no ya de fórmulas matemáticas. es decir blandos. sin embargo. precisos… atributos hard. aunque sea a costa de perderse el seguimiento de situaciones atípicas y de mecanismos no generalizables.3. éste empleo la técnica de la observación participante que acompañó con una serie de entrevistas con "observadores privilegiados". subjetivos. Este planteamiento distinto se atribuye a la diferencia del objetivo cognoscitivo. los puntos de vista. mientras que al contrario. La investigación cualitativa no persigue este objetivo de estandarización. busca llegar siempre a datos hard: por ejemplo en el caso de la actitud hacia un representante político. En la investigación cuantitativa todos los sujetos reciben el mismo tratamiento. Si acaso le interesará una especie de representatividad sustantiva. los distintos grados de articulación y profundización. En la investigación de orientación cuantitativa éstos son fiables. La investigación cualitativa. que en un caso es descubrir las uniformidades del mundo humano y en el otro es comprender las manifestaciones en su individualidad. sino del juicio del investigador mismo. 2. El segundo elemento diferenciador entre investigación cuantitativa e investigación cualitativa es el constituido por la uniformidad o no del instrumento de investigación. Tomemos por ejemplo la investigación sobre "comunistas y católicos" llevada a cabo en un barrio de Bolonia a finales de los años setenta por un antropólogo americano. Al investigador cualitativo no le interesa en absoluto la representatividad estadística. no habían sido preseleccionados al inicio de la investigación. La investigación cuantitativa. la cultura de los entrevistados. relativos…así la popularidad de un hombre político se obtendrá siguiendo las perspectivas. más que por su capacidad de comprender. Lo contrario puede decirse del investigador cualitativo. flexibles. que irán de un sobrio "no me gusta" a juicios ricos de color y matices personales. El fuerte impacto de la instrumentación matemática y estadística empleada en el caso 18 . objetivos y estandarizados. y se preocupa en cambio de su riqueza y profundidad… atributos soft. Naturaleza de los datos. dado que el investigador asume informaciones distintas según el caso. una matriz de números ordenados en filas y columnas donde se han codificado las mismas informaciones para todos los casos.3 Análisis de los datos El análisis de los datos representa quizás la fase de una investigación social en la que resulta más visible la diferencia entre el enfoque cuantitativo y el cualitativo.

residentes de la comunidad. frustración. El objetivo del análisis. pues. la cualitativa es case-based. Jankowski. hecho que como veremos más adelante. la frustración y la exhibición. más exactamente de una perspectiva holística en el análisis del comportamiento humano. Se hablará de medias de las variables. del mismo modo en que en el enfoque cuantitativo el objetivo era "explicar la variación de las variables". puede ser interpretado en el sentido de que hemos encontrado la "causa" de la variable delincuencia. de relaciones entre las variables. y del mismo modo trataría de obtener. El análisis de los datos se hará en efecto. Jankowski. coherentemente con su ubicación dentro del paradigma interpretativo. Como puede verse.cuantitativo. "los procesos de control social informal puestos en práctica por la familia y por el colegio proporcionan la clave interpretativa a fin de lograr la explicación causal de la delincuencia en la infancia y en la adolescencia. se pregunta las causas de la violencia en el comportamiento de los individuos que pertenecen a las bandas. será "explicar la variación" en los valores de las variables dependientes. hemos "explicado estadísticamente" la variación de la variable "delincuencia". identificando seis (violencia contra miembros de la misma banda. siempre a través de las variables de manera impersonal. limitado al mero auxilio para la organización del material empírico. Se pondría. "explicar la variación" de la variable dependiente "violencia". cada una de las cuales diferencia cuatro casos en función de los cuatro factores emotivos mencionados que desencadenan la violencia (miedo. llegados a este punto. es decir. en lugar de llevar a cabo su análisis por variables. desarrollan su investigación sobre la base de las correlaciones entre variables dependientes e independientes. exhibición). En contraste. Distingue los episodios de violencia según sean expresiones de violencia individual o de violencia organizada (por la banda). obtiene así una tipología de 48 tipos. los autores llegan a la conclusión de que. Distingue también los contextos en los que esa violencia se realiza. acusándole de asumir impropiamente el modelo científico de las ciencias naturales. El autor creó. residentes fuera de la comunidad. es "comprender a las personas". él lo hace por sujetos. Un investigador cuantitativo. Él identifica cuatro factores desencadenantes de la violencia: el miedo. la investigación cualitativa adopta un planteamiento para el análisis de los datos completamente diferente. y la aportación de instrumentos informáticos. le objetivo del análisis. captar la correlación entre las variables independientes y las variables dependientes. de porcentajes de las variables. por tanto. contra la propiedad en la comunidad y fuera de ella). La investigación cuantitativa es variable-based. ambición. con los instrumentos estadísticos oportunos.. sino por el individuo en su totalidad. las cuatro variables independientes mencionadas. contrastan con la sobriedad de un análisis cualitativo. El enfoque interpretativo critica este modo de proceder. Esta acusación se hace en nombre de la irreductibilidad del "hombre" integral a una serie de variables distintas y separadas. a lo largo de su trabajo. con indicadores adecuados. la ambición. El objeto del análisis ya no está representado por la variable. y los clasifica en su globalidad según diversos tipos. 19 . en el que falta un aparato estadístico-matemático. si todos los delincuentes proceden de familias con padre violento mientras que aquellos con padre no violento son todos no delincuentes. de otras bandas. Sampson y Laub. trataría de obtener la variable dependiente "violencia". La diferencia más importante se localiza en la lógica que guía el análisis mismo. como meta. una clasificación constituida por 12 situaciones. a partir de las variaciones de las variables independientes. asumiendo la necesidad de una perspectiva global.

clasificando las respuestas a cada temática diferente en categorías.5 38. Sin embargo. la tendencia a interpretar las fuerzas agentes en la sociedad en términos de "frentes contrapuestos… dos partes. podemos sacar las siguientes conclusiones: mientras que.6 25. sino incluso dañina y es completamente ignorada.9 PCI 31. entre los segundos las visión dicotómica es preponderante (más de dos tercios). En primer lugar.2 100 Totalmente dicotómica Predominantemente dicotómica Concibe la realidad como lucha entre posiciones. así como la fotografía de un personaje permite un 20 . la formalización matemática es considerada no sólo inútil. permitiendo al lector "visualizar" a los entrevistados.9 25.9 3. la cita confiere al dato una dimensión pictórica totalmente desconocida para la simple tabla. estos datos presentan un límite doble. Las dos formas clásicas de presentación de los datos en las tradiciones cuantitativas y cualitativa son.4. 2. Pero tiene una sensibilidad más articulada para 51. Se estudió a 108 activistas (54 democristianos y 54 comunistas) mediante entrevistas conducidas de 6 a 7 horas. si consideramos separadamente a los militantes de DC y de PCI.4 38.9 10.Queda poco que añadir sobre las diferente relación que investigación cuantitativa y cualitativa tienen con las técnicas matemáticas y estadísticas.5 32. y máxima es la utilización de las técnicas estadísticas para analizar los datos y para inferir generalizaciones de la muestra a la población.1 hablamos de perspectiva relacional. y atribuyendo a cada categoría un valor numérico. respectivamente. la "tabla" y la "narración". es decir. Tabla 2. En segundo lugar. En la investigación cualitativa. Una de las variables así obtenida se definió como "visión dicotómica de la realidad". el mismo hecho de reproducir las palabras del entrevistado permite "ver la realidad con los ojos de los sujetos estudiados" de un modo más efectivo. Con pocos números ilustra una importante carácterística de la ideología de los activistas como es la relación entre afiliación política y orientación ideológica. Pongamos como ejemplo una investigación realizada en Italia a mediados de los años sesenta sobre los militantes de base de la Democracia Cristiana y del Partido Comunista.7 Total 100 ¿Qué nos dice esta tabla? Si nos fijamos en la columna relativa al total de los entrevistados (DC +PCI).3. Resultados.7 100 DC+PCI 18.una de las cuales es el término bueno con el que no s identificamos. En un caso el lenguaje de las matemáticas es entendido como el lenguaje de la ciencia.8 las alternativas De ningún modo dicotómica 16. ésta nos sugiere que los militantes estudiados están repartidos de forma equilibrada entre "dicotómicos" y "articulados". por lo que el esfuerzo par operar con los conceptos en términos matemáticamente tratables es máximo. y la otra es el enemigo al que enfrentarse y eventualmente vencer y destruir" DC 5. entre los primeros los "dicotómicos" están en minoría (menos de un tercio).

los libera de los detalles y de los accidentes de la realidad para extraer sus características esenciales. "efectos" y "condiciones". Ya que el objetivo de la investigación no debería ser sólo describir la realidad. aun naciendo de la observación de casos reales. la tabla y la narración son dos formas de presentación elemental y. Es una construcción que. Será la lógica del mecanismo de causa-efecto la que guiará la mente del investigador cuantitativo: hemos dado un ejemplo de ello en la investigación de Sampson y Laub. 21 . En el enfoque cualitativo es más difícil encontrar maneras de sintetizar las informaciones suficientemente generales y compartidas por los investigadores. sino también proporcionar sistematizaciones y síntesis de orden superior. éstos no son instrumentos unilaterales. en un nivel superior de abstracción. en tanto que se reacio a aplicar categorizaciones propias a las respuestas y a las actitudes de los entrevistados. que el modelo causal enlaza las variables entre sí. con la misma función que cumple una fotografía en un artículo de periódico. Mucho más raro es el caso contrario. Tabla 2. La narración sirve para ejemplificar los resultados. Muy frecuentemente se presenta el denominado "estudio de caso".1 hemos denominado perspectiva narrativa. Si bien tabla y narración son dos formas típicas de presentar los resultados en la investigación cuantitativa y en la cualitativa. para que el lector pueda comprender mejor el universo real que está detrás del dato numérico. debería poder establecer relaciones entre las variables o conexiones entre los casos. Es muy común el caso de investigaciones de planteamiento neopositivista en las que la narración se emplea con fines ilustrativos. purificándolos. en los casos más afortunados. Diferencia entre el enfoque cuantitativo y el cualitativo con respecto a los dos mecanismos de la "explicación" y de la "interpretación". En este caso el análisis de los datos se realiza con instrumentos cuantitativos. (recordemos Jankowski). sobre variables numéricas a través de tablas y análisis multivariados. mientras que la tipología representa el esquema teórico que une a los sujetos (lógica de la "clasificación"). utilizables sólo por uno o por el otro tipo de investigación. Tras haber fragmentado al individuo en variables.conocimiento muy distinto y mucho más completo respecto de la mera descripción de sus rasgos externos. El problema de las generalizaciones. La conclusión de una investigación debería ir más allá de la simple exposición de distribuciones de variables o ilustraciones de casos. el análisis cuantitativo aporta una primera síntesis a través de la correlación entre las variables y llega a una unidad conceptual en el modelo causal e incluso. en la formulación de expresiones sintéticas que adoptan una forma cercana a la de las "leyes" de las ciencias naturales. y el interrogante del investigador siempre está guiado por la pregunta de "que causa qué" y bajo qué condiciones. en cierto sentido. Como hemos tenido ocasión de decir en el capítulo 1. en la que las variables se pueden agrupar en "causas". una investigación llevada a cabo sobre una única situación específica. el tipo ideal es una categoría conceptual que no tiene un correlato exacto y específico en la realidad. fragmentada de los datos. Alcance de los resultados. Podemos añadir finalmente. con el fin de utilizar el "modelo" así obtenido como concepto-límite con el que iluminar e interpretar la realidad misma. la cualitativa se interroga sobre los cómo. El investigador que sigue el enfoque interpretativo raramente utiliza la tabla para mostrar sus variables relevantes. por así decirlo. Mientras que la investigación cuantitativa se pregunta por los porqués. la investigación cualitativa no puede actuar sobre un número muy grande de casos.

Profundidad y amplitud están. El segundo punto de vista. La tercera postura. me hace pensar que muy dificilmente y en casos raros se pueda mostrar una flexibilidad semejante. una mayor capacidad de generalización que los resultados de la investigación cualitativa. En mi opinión. pues. indudablemente. sin embargo. aunque como mera instrumentación auxiliar y adicional. sostiene la plena legitimidad. caracterizados por divergentes planteamientos filosóficos de fondo. es decir. más legítimamente podrán inferirse sus resultados a la población total. muy difundido entre los científicos sociales de orientación cuantitativa. corresponde a la postura de quien habiéndose decantado por el paradigma neopositivista. Considero difícil que un mismo investigador sea capaz de llevar a cabo una investigación que utilice por igual instrumentos de producción y análisis de datos cualitativos y cuantitativos. y es el resultado. que. encontrando que son adecuadas para la fase exploratoria de la investigación. Su formación. utilidad e igual dignidad de los dos métodos. En realidad. Cuanto más amplia sea la investigación. abarque un mayor número de sujetos. y presagia el desarrollo de una investigación social que. según las circunstancias y las oportunidades. No creo que los métodos cuantitativos o cualitativos representen dos declinaciones puramente técnicas de un mismo modo sustancial de entender el mundo social y la finalidad de la investigación. por último. los estudios que se citan como ejemplos de investigación que utilizan los dos enfoques. se sirven de técnicas tomadas del otro enfoque. Pero el número de casos está ligado a la posibilidad de generalizar los resultados.4 Dos formas diferentes de conocer la realidad social ¿ Es mejor hacer investigación social utilizando la perspectiva cuantitativa o la cualitativa? ¿Se puede afirmar que uno de los dos enfoques es superior al otro desde el punto de vista "científico"? Pueden distinguirse tres posturas al respecto. pues cumplen una función de estimulación intelectual en una especie de "tormenta de ideas". paradigma neopositivista y paradigme interpretativo. 2. y que la antagonista es la equivocada. dice el autor. pero con un matiz importante. Y los defensores respectivos de las dos posturas afirman que la suya es la exacta. no niega. e incluso la estructura misma de su personalidad científica. A las técnicas cualitativas se les imprime un carácter precientífico. opte por un enfoque o por el otro ( o por ambos). En conclusión. 22 . La profundización tiene un coste. La primera es la de los que mantienen que enfoque cuantitativo y enfoque cualitativo. sino imposible. por tanto. Los procedimientos y los instrumentos utilizados son demasiado distintos. sin embargo. utilizar los dos planteamientos dentro de un mismo diseño de investigación. representan dos puntos de vista incompatibles en tanto que son inconmensurables epistemológicamente. que las técnicas cualitativas puedan aportar una contribución válida a la producción y el análisis de los datos sociales. más que de una reflexión filosófica y epistemológica nueva. más representativa será su muestra de la situación real y. inversamente relacionadas. las dos formas de hacer investigación. son investigaciones realizadas sobre la base de una de las dos perspectivas. Esta postura ha crecido en los últimos años. y el precio a pagar se establece en términos del número de casos estudiados. los resultados de la investigación cuantitativa presentan. sino que son la expresión directa y lógica de dos visiones epistemológicas distintas. considero difícil. De las tres posturas presentadas comparto esta tercera. no difieren entre sí por meras cuestiones técnicas. de la constatación pragmática de que indudablemente a la sociología y a la investigación social les han llegado contribuciones preciosas y fundamentales tanto de investigaciones cuantitativas como de investigaciones cualitativas. Ahora bien.

deben estar estandarizados. 3. técnicas cuantitativas y cualitativas conducen a conocimientos diferentes.1 Estructura "tipo" de la investigación cuantitativa La investigación científica es un proceso creativo de descubrimiento que se desarrolla según un itinerario prefijado y según procedimientos preestablecidos que se han consolidado dentro de la comunidad científica. Pero esto no es un límite.1. su perspicacia e inteligencia intuitiva. y ni siquiera el más importante. y los resultados de sus intuiciones deben poder ser comprobados también por otros". el episodio de la iluminación repentina. No existe un retrato absoluto. Pero éste no es más que un aspecto.Para concluir. La investigación científica. "El acto del descubrimiento escapa al análisis lógico. debe seguir unas reglas muy precisas. y evoca las capacidades personales del investigador. En el primer estadio no es posible establecer reglas ni procedimientos. Por otra. es un proceso colectivo. sino también en ponerlas a prueba. es porque me he aupado a hombros de gigantes" dijo Isaac Newton. incluso por el más intuitivo de los sociólogos. La traducción empírica de la teoría 3. denominó respectivamente. Las cinco fases del proceso de investigación El itinerario "tipo" que un investigador social sigue en la realización de una investigación consiste en un recorrido cíclico que comienza por la teoría. no hay reglas lógicas en cuyos términos se pueda construir una "maquina descubridora" que desempeñe la función creativa del genio" La labor del científico no consiste únicamente en producir teorías. introdujo una distinción entre el momento de la concepción de una nueva idea y el relativo al modo en el que ésta es presentada. sino un enriquecimiento. esa misma exigencia de distintos ángulos visuales que en el museo nos hace girar alrededor de la estatua para poder captarla efectivamente en su totalidad. La primera regla fundamental de la investigación empírica es que debe desarrollarse dentro de un marco compartido colectivamente. Capitulo 3. Pero puede haber una infinidad de ellas. del proceso de investigación científica. en tanto que existe la necesidad de una aproximación múltiple y diferenciada a la realidad social para poder conocerla efectivamente. enfoque neopositivista y enfoque interpretativo. Una de las definiciones más comunes de la ciencia es la de "acumulación sistemática de conocimiento". y vuelve a la teoría. Y esta fase. Por una parte implica el control: "Los conceptos y los procedimientos empleados. El atributo "creativo" es importante en esta definición. tanto si se desarrolla sobre el plano del examen lógico-formal de la teoría como si aborda el tema de su congruencia con la realidad. Reichenbach. Es un itinerario trazado más o menos de la misma forma en todos los manuales de investigación empírica 23 . implica la acumulación: " Si he conseguido ver más lejos. El marco de referencia colectivo que el científico social debe tener presente en la realización de su investigación se articula en dos momentos: la estructura lógica del itinerario de la investigación y la instrumentación técnica a utilizar. contexto del descubrimiento y contexto de la justificación. Se elige una perspectiva. "La ciencia es pública no privada" escribió Merton.1. atraviesa las fases de recogida y análisis de los datos. como no hay una representación absoluta y "verdadero" de la realidad.

la matriz de los datos. La teoría es "general" mientras que la hipótesis es "específica". En la investigación el proceso de organización de los datos consiste generalmente en transformar las informaciones en una matriz rectangular de números. ésta se obtendrá por ejemplo. pues. El segundo tiene que ver con la elección del instrumento y de los procedimientos de registro de los datos. es decir. o sea a la transformación de los conceptos en variables. etc. La decisión sobre estos aspectos lleva a la definición de lo que se denomina el diseño de la investigación: la definición. El primero se refiere a la operacionalización de los conceptos. La segunda es la hipótesis. que será precedida por la organización y sistematización de los datos obtenidos. en entidades registrables: por ejemplo. La hipótesis representa una articulación parcial de la teoría. estandarizando las respuestas de las entrevistas abiertas. es decir.Fases Teoría Procesos Deducción Hipótesis Operacionalización Producción de los datos Análisis de los datos Resultados Inducción (diseño de la investigación) Organización de los datos (matriz-datos) Interpretación La primera fase es la teoría. y el de datos. La tercera fase es la de recopilación de datos y a ella se llega a través del proceso de operacionalización. Generalmente se da el nombre de informaciones a los materiales empíricos brutos aún no sistematizados. denominada asímismo matriz "casos por variables" (C x V). uniformando las fuentes estadísticas. que suele consistir en 24 . se podrá operacionalizar el concepto de éxito profesional a través de la renta o bien a través de la consecución de un empleo mejor que el paterno. codificando de forma sistemática las respuestas a los cuestionarios. en términos de generalidad. de transformación de las hipótesis en afirmaciones empíricamente observables. Terminada la recopilación del material empírico. de un "plan de trabajo" que establece las diversas fases de la observación empírica. sometiendo los textos a una plantilla de análisis del contenido… La matrizdatos representa el punto de partida para el análisis de los datos. se pasará a la cuarta fase. y el paso entre las dos se produce a través del proceso de la deducción. y se coloca en un nivel inferior respecto a ella. Este proceso es muy complejo y puede ser dividido en dos momentos. la del análisis de los datos. a esos mismos materiales organizados de tal forma que puedan ser analizados.

el relativo a la teoría del suicidio de Durkheim. que formulan un alto grado de abstracción y generalización respecto a la realidad empírica. por individualismo se entiende una situación social y cultural en la que la persona es plenamente libre en las elecciones de la vida. Productividad de previsiones empíricas: de una teoría extraída de la observación de determinadas regularidades empíricas se pueden deducir acontecimientos en otros contextos diferentes. el suicidio altruista y el anómico. en un proceso cíclico que podríamos visualizar. mayor será la tasa de suicidios en ese grupo”. que une individualismo y suicidio. es decir. Ilustramos lo apuntado hasta aquí con el más clásico de los ejemplos. cohesión social y suicidio tienen significado abstracto respecto a la realidad observada ). el investigador vuelve al punto inicial. encomendadas únicamente a su moralidad personal. En la relación con la teoría. el equilibrió entre deducción e inducción puede resultar diferente.2 De la teoría a las hipótesis 3. hay sin embargo investigaciones que empiezan con un embrión de teoría. que identifica tres ideales de suicidio: el suicidio egoista. Aunque el esquema base prevé que la investigación no comience antes de un repaso exhaustivo de la teoría y la formulación de hipótesis muy precisadas. es una proposición causal. a la teoría. comienza en la teoría y a la teoría vuelve. Otras veces se salta toda la fase de la recogida de datos en tanto que la investigación utiliza datos ya existentes. Teoría Teoría es un conjunto de proposiciones orgánicamente relacionadas. Generalización. La proposición teórica enunciada. que presenta las características de abstracción ( conceptos mencionados de individualismo. para llegar a su confirmación o a una reformulación. más que en la forma de círculo. Abstracción y generalización: la teoría trasciende las expresiones empíricas específicas tanto desde el punto de vista conceptual (abstracción) como desde el del campo de aplicación (generalización). 3. dedujo y controló empíricamente su teoría a través del 25 . en la que teoría e investigación están conectadas en el proceso de acumulación del conocimiento sociológico. La quinta fase es la de la presentación de los resultados. Pero en cualquier caso el itinerario de referencia sigue siendo el trazado por el esquema. a la cual se llega a través de un proceso de interpretación de los análisis estadísticos realizados en la fase anterior. en la de una espiral. en el que a partir de los resultados empíricos se comparan éstos con las hipótesis teóricas. mediante un proceso de inducción. Deducida de regularidades empíricas: la teoría nace de la ( y se confirma en la) constatación de repeticiones en la realidad observada. tal proposición es deducida de uniformidades empíricas ya que Durkheim. y más en general.1.elaboraciones estadísticas realizadas con la ayuda de una calculadora o un programa de análisis estadístico. Conjunto de proposiciones: sistema coherente de afirmaciones que a menudo asume el carácter de proposiciones causales.2. y ésta no es desarrollada ni toma cuerpo hasta la fase del análisis de los datos. con la teoría de origen. que son deducidas de regularidades empíricas y de las cuales pueden deducirse previsiones empíricas. El esquema. Por último. en tanto que la conexión que Durkheim propone se considera válida para un amplio conjunto de la sociedad. Fundamento teórico del suicidio egoísta: “Cuanto más elevada sea la tasa de individualismo en un determinado grupo social.

Ante todo. 26 . En las ciencias sociales el riesgo de teorías vagas. Si una teoría es imprecisa y confusa. que se deriva de la teoría pero que espera al control empírico para poder ser confirmada.3. debería ser máxima en Alemania: durante la primera guerra mundial los alemanes padecieron carestía. su carácter de provisionalidad. respecto de la teoría. Una segunda hipótesis se refiere a la desigualdad relevancia de este distanciamiento generacional entre los países. tal proposición da lugar a previsiones empíricas. Por hipótesis entendemos una proposición que implica una relación entre dos o más conceptos.2 Hipótesis Una proposición teórica debe poder articularse en hipótesis específicas. La transformación de la teoría en hipótesis Presentamos a continuación algunos casos de traducción de una teoría en hipótesis específicas. La teoría formulada por Inglehart sobre el cambio de valores de las generaciones crecidas en la posguera serían distintos de los de las generaciones precedentes: de una orientación predominante de sentido materialista a otra que ha sido definida como “postmaterialista”. 3. que se coloca en un nivel inferior de abstracción y de generalidad respecto a la teoría y que permite una traducción de la teoría en términos empíricamente controlables. demasiado confusas como para poder ser operacionalizadas.2. Por otra parte. una fuerte inflación. Por ejemplo.análisis d elas fuentes estadísticas de su tiempo.2. difícilmente será susceptible de esas transformaciones. 3. “Es mejor una teoría equivocada que una teoría vaga”. El criterio de la controlabilidad empírica es el criterio mismo de la cientificidad. tendremos que encontrar en todos los países occidentales un fuerte distanciamiento entre jóvenes y ancianos respecto a la escala de valores. De esta teoría general pueden derivarse hipótesis específicas. El caso de Inglaterra debería ser opuesto: antes de la 2ªGM era el país europeo más rico. por una parte. La validez de una teorización depende de su convertibilidad en hipótesis empíricamente controlables. y es lo más obvio. Ello como consecuencia del hecho de que la orientación de los valores que se constituye en los años de formación tiende a mantenerse durante toda la vida. De la teoría general de Durkheim pueden deducirse una serie de hipótesis específicas. Dos son las características distintivas de la hipótesis. aunque las condiciones sociales y ambientales cambien. Causas: los cambios de las condiciones de vida en los años de formación de los ciudadanos. la tasa de suicidio es más alta en las sociedades protestantes que en las católicas. en la posguerra experimentó un persistente estancamiento económico que le llevó a grados de bienestar inferiores a los de muchos otros países europeos y claramente inferiores a los de la propia nación en la primera mitad de siglo. La hipótesis es una afirmación provisional aún por probar. Mientras que en la posguerra conocieron un periodo de bienestar económico extraordinario y de paz social. Si la teoría es válida. es especialmente elevado. su menor abstracción ( o mayor concreción) en términos conceptuales y su menor generalidad ( o mayor especificidad) en términos de extensión. depresión económica. Estas hipótesis son empíricamente controlables. la diferencia debería ser más marcada en las naciones en las que mayor ha sido el salto de la calidad de vida entre los que crecieron antes y después de la segunda guerra mundial. a través de oportunas definiciones operativas. graves conflictos internos y la tragedia de la 2ªGM.

finalmente. Sucede frecuentemente que las hipótesis se desarrollan después de haber recogido los datos. por lo tanto. que sirven de guía para el “diseño de la investigación”. Otras veces se recurre a la teoría después de haber analizado los datos. para explicar un hecho anómalo o un resultado inesperado. los autores sometieron a control empírico dos hipótesis: que el abtencionismo electoral sea un fenómeno de apatía política. 27 . En la primera hipótesis. que ve al individuo condicionado. debido a la disminuida capacidad de los partidos de movilizar a los electores a través de sus aparatos organizativos. el punto de vista “estructuralista”. Los experimentos pretendían abordar un problema muy simple: controlar cómo variaba el rendimiento de los trabajadores de un determinado departamento al variar la iluminación. aún haciéndose después de la recogida de datos. manteniéndose alejados de las urnas. persiguiendo sus objetivos lo mejor que pueden. y analiza sus datos para ver cuál de ellas se verifica efectivamente en el caso empírico analizado. los autores se esperaban una mayor abstención en los estratos periféricos de la sociedad. la mayoría inconscientes. Pero después. que mantiene “que la acción humana es canalizada por vínculos externos que no dejan espacio para hacer elecciones realmente importantes. Tomemos el caso de una investigación sobre las decisiones escolares individuales. precede.Los que abrazan los valores postmaterialistas. sin embargo a su análisis. sometibles a control empírico. Todas las hipótesis que hemos mencionado son fácilmente traducibles en términos operativos y. Al principio se constató que con el aumento de la iluminación crecía la productividad. Sin embargo. Para explicar este resultado imprevisto los autores recurrieron a la teoría de las “presiones cruzadas”. aún reconduciendo la iluminación a los niveles del punto de partida. Por ejemplo. y. aunque en este caso no tanto por factores estructurales externos como por factores psicológicos internos. En este caso la elaboración teórica. En la segunda hipótesis los autores se esperaban un mayor abstencionismo entre los jóvenes varones de las grandes ciudades del norte. y se comparan con ellos a posteriori. sino que están sometidos a efectos que les atraen hacia una meta determinada” El autor parte de tres hipótesis precisas de comportamiento. que señalara el desacuerdo entre la parte más moderna del país y la vieja política. en primer lugar. o bien un fenómeno de protesta por parte de los electores que. el punto de vista de la no intencionalidad. investigación sobre abtencionismo electoral en Italia. que “asume que los individuos actúan… conforma a ciertos propósitos. es probable que eluda el conflicto relativo a la elección… absteniéndose” Otras veces puede descubrirse una nueva teoría durante la fase empírica. expuestas a los flujos de las nuevas ideas. a los que menos alcanza la capacidad movilizadora y comunicativa de los partidos. luego la definición de las hipótesis. en contradicción con ambas hipótesis. el rendimiento se mantenía elevado. La práctica de la investigación no siempre se desarrolla tal como la hemos descrito: primero la elaboración de la teoría. por consiguiente. quisieron mostrar a los partidos su descontento y resentimiento. categorías socialmente centrales. los datos expresaron un resultado sorprendente. no son empujados por efectos propulsores. el punto de vista de la “intencionalidad”. según la cual “cuando el elector es sometido simultáneamente a estímulos de igual intensidad pero dirección opuesta. Un análisis detallado del perfil de abstencionistas reveló que se trataba en gran parte de mujeres que habían votado anteriormente a la Democracia Cristiana. en segundo lugar. deberían ser más numerosos cuanto más rico es el país.

Se puede tener un concepto de la mesa como del número tres. cuando se aplica un segundo análisis a datos recogidos por otros investigadores en un momento del tiempo precedente. como poder. y los únicos instrumentos. desconocido. a menudo. A veces el tema es nuevo. por ejemplo. Otras veces la observación no parte de una teorización específica. “el término tiene un significado muy general. sino que quiere abarcar intencionadamente un amplio campo de problemáticas. para permitir sucesivos análisis divesificados. 3. en establecer las reglas para su traducción en operaciones empíricas. además. se puede dar una definición operativa del poder de un cargo empresarial a través del número de subordinados que dependen de él. el autoritarismo puede ser operacionalizado a través de las respuestas a preguntas de actitud y asumir una puntuación de 0-5. es decir. El primer paso del proceso de traducción empírica de los conceptos consiste en aplicarlos a objetos concretos. y que a través de la operacionalización de los conceptos se realiza la traducción empírica de una teoría. Sobre la alteración de la secuencia regular teoría-hipótesis-observación hay que decir que en ocasiones la observación viene antes que las hipótesis por razones de fuerza mayor. para establecer tal conexión”. los conceptos son los instrumentos. en convertirlos en atributo o propiedad de objetos. y será posible establecer las mismas conexiones entre los conceptos transformadores en entidades empíricamente observables. A partir de los resultados de estos experimentos. se empezó a delinear una nueva corriente teórica dentro de la sociología del trabajo. sino el hecho de sentirse el centro de atención y objeto de experimento. etc. “La teoría tiene un sentido para la ciencia empírica sólo en la medida en que logra conectarse con el mundo empírico provechosamente. que llamamos unidades de análisis.Y se descubrió que la variable determinante a efectos de rendimiento laboral no era la iluminación. pueden hacer referencia a construcciones mentales abstractas que son imposibles de observar directamente. y puede incluir todo tipo de signo o procedimiento semántico. Ése es. que los conceptos son los “ladrillos de la teoría”. la participación electoral y la criminalidad de 28 . cercano o lejano. universal o individual. Hay que señalar que. de los específicos objetos estudiados. una vez que tales entidades se vuelven concretas. del hombre como de Dios. Por ejemplo. por tanto. que consiste en conocer a través de conceptos universales. la teoría no está tan bien definida como para admitir hipótesis claras y precisas. y es el fundamento de toda disciplina científica. Los conceptos. Es el medio a través del cual el hombre puede conocer y pensar. Con el término “concepto” nos referimos al contenido semántico (significado) de los signos lingüísticos y de las imágenes mentales. es decir. Desde el concepto parte el puente que conecta la orilla teórica con la del mundo empírico observable. felicidad… Podemos decir. El segundo paso para hacer empíricamente operativo el concepto-propiedad consiste en dar una definición operativa de él. y por tanto la investigación se mueve en un plano eminentemente descriptivo. cualquiera que sea el objeto al cual se refiere. del género y de la especie… de un periodo histórico como de una institución histórica (Renacimiento o Feudalismo). toda la red teórica se hará concreta. el caso del “análisis secundario”. abstracto o concreto. Si la teoría es una red de conexiones entre entidades abstractas representadas por los conceptos. ¿Cómo podemos transformar estos conceptos en entidades empíricamente observables?.3 De los conceptos a las variables. la de las denominadas “relaciones humanas”.

como hicieron Gurr y sus colaboradores. Aún así. se podría llevar a cabo una investigación tomando como unidad de análisis la región. en sentido estricto se refiere al paso de las propiedades a las variables. que hemos utilizado al describir el paso de propiedad a variable. Como ha escrito Marradi. y de violencia estaban ligadas a situaciones de cambio social que había originado expectativas no satisfechas. La definición operativa se hace todavía en el plano teórico.4 unidad de análisis La Unidad de análisis representa el objeto social al que se refieren. Ésta podría estar representada por le episodio de rebelión social. para quien la revolución francesa se desarrolló en las áreas más acomodadas del país. Para definir este proceso. En el lenguaje corriente habríamos dicho “medir”. en la investigación empírica. Sin embargo. Llamamos modalidades a los estados opercionalizados de la propiedad.un municipio se pueden operacionalizar a través del porcentaje de votantes sobre electores de unas elecciones determinadas y el tanto por mil de delitos sobre la población. y en general a situaciones de privación relativa más que de privación absoluta. representa el puente crucial que une dos vertientes. que. dado que “las partes de Francia que habían de ser el foco principal de esa revolución son precisamente aquellas en que más acusado es el progreso”. Al definir el “diseño de la investigación” (es decir. El tercer paso consiste. en el recorrido más amplio que conecte teoría e investigación. Concepto Propiedad Variable Operacionalización (Clasificación. Una reflexión teórica no tiene la necesidad de definir unidades de análisis exactas. debemos establecer ante todo la unidad de análisis. la definición operativa es un “texto”. Llegados a este punto es necesario hacer una aclaración terminológica. Aceptando una sugerencia de Tocqueville. consiste en una clasificación o en una ordenación. las propiedades estudiadas. normalmente constituido por un número. por último en la aplicación de las mencionadas reglas a los casos concretos estudiados: está es la fase de la operacionalización en sentido estricto. a cada una de las cuales se le asigna un valor simbólico diferente. la operacionalización es un “hecho”. medición. a propósito del término operacionalizar. se 29 . que según los casos. o bien en un cómputo. “la medición consiste en la atribución de números a objetos o acontecimientos siguiendo determinadas reglas” En realidad cuando no se dispone de unidades de medida es inapropiado hablar de medición: en estos casos el paso de la propiedad a la variable consiste en una operación distinta a la medición. La unidad de análisis de una investigación dirigida a controlar la teoría enunciada también podría estar representada por un núcleo territorial. cómputo) 3. la operacionalización es su traducción práctica. Éste término tiene un sentido amplio y se emplea con el significado general de “traducir del lenguaje teórico al lenguaje empírico”. Llamamos variable a la propiedad así operacionalizada. Las ciencias naturales han impuesto el término medir para referirse a la operación general. el término “medir” es inapropiado. para el caso de la clasificación o de la ordenació. nosotros hemos utilizado el término operacionalizar. registrando cada episodio una serie de informaciones con el objetivo de comprobar si las explosiones de conflicto. ordenación. el plan de trabajo empírico).

sectas religiosas. Este “colectivo” puede ser un conjunto de individuos o bien un grupo-organización-institución. … Finalmente. transmisiones televisivas. Esta unidad se localiza en el tiempo y en el espacio. Hablamos en cambio. La unidad de análisis es una definición abstracta. en las investigaciones de tipo sociológico. ceremonias religiosas. otros acontecimientos son huelgas. Los casos son los ejemplares de esa determinada unidad de análisis que son estudiados. 3. y está representada por el individuo. el acontecimiento y el producto cultural. pandillas. ene este caso la unidad de registro se coloca en un nivel inferior respecto a la unidad de análisis. Acontecimiento electoral. En la que la unidad de análisis está representada en la mayoría de los casos por mensajes de la comunicación de masas. los siguientes tipos de unidades de análisis: el individuo. fábricas. el ejemplo más común lo constituyen las fuentes estadísticas oficiales. bandas juveniles. A menudo se intentará extraer una muestra casual. para las regiones de Francia en la época de la revolución. que denomina el tipo de objeto social al que se refieren las propiedades. Pensemos en grupos: familias. fotografías. procesos judiciales. espectáculos teatrales. La teoría de la privación relativa aplicada al radicalismo político también podría ser controlada empíricamente tomando como unidad de análisis el individuo. instituciones públicas. partidos. podemos identificar. de grupo-organización-institución cuando la mayoría de las variables está representada por las que llamaremos “variables colectivas estructurales” o “globales”. Unidades de análisis de este tipo son bastante frecuentes en las investigaciones sociales. en las investigaciones sociales está representada por el individuo. golpes de estado. el grupo-organización-institución. Los distintos tipos de unidad de análisis La unidad de análisis más frecuente. entre unidad de análisis y unidad de registro.).trataría pues de encontrar. definiendo “la población de referencia” de la investigación. en organizaciones-instituciones: sindicatos. textos literarios. Hemos dicho que la traducción empírica de un concepto (que es abstracto por definición) se produce asignándolo como propiedad a un objeto social concreto (“unidad de análisis”) En una primera aproximación. Conjunto de individuos. el conjunto de individuos. el ayuntamiento). otro tipo de unidad de análisis está constituido por lo que podríamos llamar representación simbólica-producto cultural. escrita. sobre los cuales se recogen los datos. Un segundo caso bastante frecuente es aquel en que la unidad de análisis está representada por un colectivo. y la unidad de registro está constituida por el colectivo mismo.4. hasta sociedades enteras y los paises mismos. Mientras que la 30 . guerras. oral o audiovisual: artículos de periódicos. Un cuarto caso está representado por las situaciones en las que la unidad de análisis es el acontecimiento. algún indicador de bienestar económico y de intensidad del ímpetu revolucionario. En este caso las variables derivan de operaciones matemáticas realizadas sobre variables registradas de forma individual. unidades administrativas locales (por ejemplo. asociaciones. como a veces se hace. otras veces podrá haber diferentes criterios de selección. grupos étnicos. etc. y de poner en relación las dos variables. programas electorales. organizaciones laborales (hospitales.1. reportajes… Concluimos este epígrafe con una anotación terminológica: llamamos casos a los ejemplares de una determinada unidad de análisis incluidos en una investigación. Si hacemos una distinción. basadas en conjuntos “territoriales” de individuos. discursos políticos.

observando como varia la concentración de glóbulos blancos en la sangre. Ejemplo. Características lógico-matemáticas de una variable a las que están en la base de esa clasificación. 3. Por ejemplo. En el primer caso se habla de estudio longitudinal y en el segundo caso. y peso del objeto medido a través de una balanza. en su forma operacionalizada. al mismo tiempo. consiste más precisamente en la propiedad operacionalizada de un objeto. En las cc naturales el primer caso es muy frecuente y el experimento se fundamenta en variaciones en el tiempo de variables (hago variar X y observo como varia Y). en tanto que hacen referencia a las operaciones 31 . se habla de variables. podemos decir que las variables son el elemento central del análisis empírico. comparamos un grupo de pacientes sano. puede resultar invariante en el subconjunto específico de los objetos estudiados. propiedad y variable existe la misma diferencia que entre peso (concepto). Entre concepto. en este caso dos variables varían en el tiempo. para hacerlo haremos variar las dosis de los medicamentos. la nacionalidad es una propiedad que puede variar entre los individuos. pero lo hace explícita y por lo tanto controlable. peso de un objeto (propiedad). la de las variables que varían simultáneamente entre las unidades de análisis (ello por el carácter de no manipulabilidad de las mayoría de las variables sociales). para someter a control empírico que el cáncer de pulmón está correlacionado con el consumo de cigarrillos se procede de forma diferente. puesto que puede adoptar los estados de macho o hembra. dado que un concepto puede ser operacionalizado de distintos modos. pero si el estudio se realiza sobre la población española es invariante.6 Variables nominales. medicamento que se suministra un paciente y queremos ver como afecta a los glóbulos blancos. Del mismo modo que hemos dicho que los conceptos son los ladrillos de la teoría. La variación de una variable puede producirse de dos formas: en el tiempo. En este caso esa propiedad. Una propiedad. La definición operativa no elimina la arbitrariedad. de estudio transversal. En ambos casos. como propiedad. En cambio. sobre el mismo sujeto. enfermedad. el de la variación en el tiempo y el de la variación entre los sujetos. 3. sobre un mismo caso. a diferentes unidades de análisis. con otros enfermos de cáncer y constatamos si a estados de enfermedad/salud diferentes corresponden también diferentes grados de consumo de cigarrillos.unidad de análisis es singular y abstracta. No hay correspondencia biunívoca entre “concepto” y “variable”. En las CC sociales sin embargo es más frecuente la segunda situación. En este caso las variables consideradas. o bien entre los casos. ordinales y cardinales Una clasificación muy importante de las variables se refiere al tipo de operaciones que pueden efectuarse sobre ellas. consumo de cigarrillos.5 Variables Por variable entendemos un concepto operacionalizado. aunque variable en principio. y adopta el nombre de constante. ya no es llamada variable. pues el concepto ha tenido que ser aplicado a un objeto convirtiéndose en propiedad. los casos son múltiples y concretos. correspondientes a los diversos estados de la propiedad. varían entre los sujetos. Puede ser asociado. El género por ejemplo es variable. Una variable puede “variar” entre diversas modalidades. y constituyen los objetos específicos de la investigación empírica.

dependiendo estrechamente. en el sentido de que cada caso que examinamos debe poder ser colocado al menos en una de las categorías previstas. ordenación. la operación de clasificación es la primera y la más sencilla operación realizable en toda ciencia. la clasificación. Un caso particular de variables nominales es aquel en el que las modalidades son sólo dos: hombre y mujer. (variables nominales. Estados “no ordenables” son aquellos entre los cuales no es posible establecer un orden. en este caso. exclus. no la nacionalidad media). como la media o un índice de asociación.lógicas (por ejemplo. Ordinales Números con características Cardinales Números con características cardinales = > = > + = > + = < = < x: = < x: 3. el genero puede ser varón o mujer). Procedimientos de operacionalización que pueden agruparse en cuatro clases ( clasificación. Diferenciaremos las variables en tres grandes tipos. es decir para operacionalizar los estados de la propiedad en el momento de su traducción en variable. las cuatro operaciones aritméticas) a las cuales se pueden someter sus valores. dependen de las características lógico-matemática de la variable (se puede calcular edad media de una muestra de individuos. Esta distinción toma como referencia el análisis de los datos. en el sentido de que un caso no puede ser clasificado en más de una categoría. y b) exclusividad mutua. Las categorías en las que los estados de la propiedad se clasifican deben cumplir el requisito de la a) exhaustividad. Hasta las estadísticas más comunes. Las únicas relaciones que podemos establecer entre las modalidades de una variable nominal son las relaciones de igual y de desigual. Variables nominales Con estados discretos se entiende que la propiedad puede adoptar solamente una serie de estados finitos: no hay posibilidad de estados intermedios (la religión puede ser católica o musulmana. de este segundo requisito se deriva también la unicidad del criterio de división. Estados de la propiedad Discretos no ordenables Discretos ordinables Discretos enumerables Continuos Procedimiento de operacionalización Clasificación Ordenación Cómputo Medición Tipo de variable Nominal Ordinal Cardinal Cardinal Características Operaciones de los valores posibles = = Nombres Números con caract.6. La operación que permite pasar de la propiedad a la variable es. operaciones de igual y desigual) o matemáticas (por ejemplo. Nos encontramos en los niveles inferiores de formalización matemática. de la naturaleza de las operaciones empíricas realizadas para el registro de los datos. y. Llamamos modalidades a los estados de la variable operacionalizados y valores a los símbolos asignados a las modalidades. ordinales y cardinales). en efecto. una jerarquía. cómputo y medición).1. empleado y desempleado… tales variables se denominan dicotómicas y presentan la importante propiedad de poder ser tratadas estadísticamente 32 .

bastante. es decir asume estados finitos. Dado el carácter cardinal de los valores. en el caso de un cuestionario. el número de hijos. y b) contamos con una unidad de medida preestablecida que nos permite comparar la magnitud a medir con una magnitud de referencia.3. No se conoce la distancia existente entre las distintas modalidades. sino utilizables sólo para variables colocadas a un invel superior de operacionalización. No sólo permite establecer relaciones de igualdad y desigualdad entre las modalidades. bastante. El proceso de medición conlleva el redondeo del número real correspondiente al estado medido en un número de cifras compatible con la aproximación que hemos establecido para nuestra medición. Variables de este tipo son la edad. Piénsese en el título de estudio. entre las modalidades de una variable de este tipo podrán establecerse no sólo relaciones de igualdad y de desigualdad ( una edad de 20 años es distinta a una de 22).6. en preguntas en las que el entrevistado deba escoger la respuesta entre las categorías ordenadas de tipo: mucho. Ése es el caso de las citadas preguntas de un cuestionario que prevén respuestas graduadas ( de tipo: mucho. sino también instaurar relaciones de orden. pero no de las cardinales. Se conoce la distancia existente entre dos valores y entre estas distancias también pueden aplicarse las operaciones de multiplicación y de división. Se pueden obtener variables cardinales a través de dos procesos de operacionalización de la propiedad: la medición y el cómputo. Porque derivan de propiedades originariamente constituidas por estados discretos. que gozan de las propiedades ordinales de os números. es decir de “mayor que” y “menor que”. la renta. entendiendo por pleno le hecho de que no sólo presentan las propiedades ordinales de los números. es decir puede asumir infinitos estados intermedios en un determinado intervalo entre dos estados cualquiera. La medición es cuando concurren las dos condiciones siguientes: a) la propiedad de medir es continua. 3. Tenemos en cambio un cómputo cuando: a) la propiedad a registrar es discreta. sino también las cardinales. Variables cardinales Los números asignados a las modalidades tienen pleno significado numérico. en la clase social. La atribución de los valores a cada una de las modalidades ya no podrá ser causal. no fraccionables.6. Las variables pueden ser ordinales por dos motivos. puesto que existe una unidad de referencia. Esto permite aplicar a las distancias las cuatro operaciones que se aplican a los números y por tanto permite realizar sobre las variables todas las operaciones matemáticas y las elaboraciones estadísticas más sofisticadas. es decir una 33 . como título académico o clase social. sino que tendrá que utilizar un criterio que preserve el orden entre los estados. en una jerarquía militar.con instrumentos normalmente no aplicables a las variables nominales. en absoluto. que han sido registradas en una secuencia solamente ordinal por carencia de instrumentos de medición.2. y b) existe una unidad de cálculo. poco. Variables ordinales La propiedad que registra adopta estados discretos ordenables. no sólo relaciones de orden (20 años es menor que 22) sino también pueden efectuarse operaciones de suma y de resta entre los valores. O porque derivan de propiedades continuas. Por ello casi siempre se utiliza la serie de los números naturales. en absoluto) 3. poco. Es posible determinar estas distancias o intervalos.

podrá obtenerse un número medio de 0. por la velocidad. y de variables cardinales que derivan. que varían de forma gradual entre los individuos. un concepto se liga a un objeto (unidad de análisis) deviene en una propiedad. son infrecuentes en las ciencias sociales. Las fundamentales están representadas. en las elaboraciones siguientes. por la temperatura: las derivadas. la variable podrá dar lugar a decimales tras operaciones matemáticas: por ejemplo. el porcentaje de desempleados sobre la población activa. es decir registrado en 34 .unidad elemental que está contenida un determinado número finito de veces en la propiedad objeto. es objeto (unidad de análisis). Un subconjunto de variables cardinales está representado por las variables cuasicardinales. cohesión social… pueden considerarse propiedades continuas. desde la religiosidad al ordenamiento político. Por otra parte. En este caso. En cuanto a las técnicas de elaboración estadística aplicables a las variables. por el tiempo. También en las ciencias sociales muchas variables cardinales derivan de operaciones realizadas sobre otras variables cardinales. y es operacionalizado. ni pueden realizarse redondeos (una persona puede tener 2 hijos. El caso de las variables derivadas es especialmente importante cuando la unidad de análisis está representada por un grupo territorial de individuos. INDICADORES E ÍNDICES Hemos dicho que en el proceso de traducción empírica. por la densidad.7 CONCEPTOS. Podemos encontrar hasta hoy numerosos intentos de superar ese límite. deviene en una propiedad.7 habitaciones por persona. Al tratarse de propiedades discretas (la unidad de cálculo es indivisible). por la masa. En una familia. número de habitaciones … ). éstas se pueden dividir fundamentalmente en dos grandes grupos: las técnicas para las variables cardinales y las técnicas para las variables nominales. y más en general propiedades continuas relativas a la estructura psicológica y de los valores del individuo. En física se distingue entre variables fundamentales y variables derivadas. Sin embargo.3). es decir. El objetivo es acercarse a “mediciones” en sentido estricto. por ejemplo. por la dificultad de aplicar una unidad de medida a las actitudes humanas. autoritarismo. pero no 2. los metros cuadrados habitados disponibles por persona derivan de una división entre dos variables cardinales: una que se refiere a una propiedad continua (la superficie de la habitación) y otra a una propiedad discreta ( el número de componentes de la familia). Las segundas no son más que funciones matemáticas de las variables fundamentales. o una tasa de fecundidad de un país igual a 1. actitudes y valores ("la medida de las actitudes” es el nombre con el que se conoce esta rama disciplinar). (número de hijos. Hemos hablado de variables cardinales que derivan. en la fase de cómputo no puede haber decimales. de propiedades discretas. por la longitud. Las propiedades más características de las ciencias sociales. y es operacionalizado. mediante medición.2 hijos. sobre todo. de propiedades continuas. esas propiedades no lograr pasar la condición de propiedad continua a la de variable cardinal por un defecto en la fase de operacionalización en concreto. la operacionalización consiste en “contar” cuántas unidades de cálculo están incluidas en la cantidad de propiedad que posee el objeto. Las variables del primer tipo. El porcentaje de votos obtenido por un determinado partido sobre los votos válidos en una determinada provincia. 3. Nos referimos en particular a la “técnica de las escalas” que desde los años veinte se propuso medir opiniones. mediante cómputo. En muy pocos casos disponemos de técnicas pensadas específicamente para las variables ordinales. a variables en las que la distancia entre dos valores sea conocida.

un indicador lo puede ser de más de un concepto simultáneamente. son conceptos más sencillos.múltiples indicadores de un mismo concepto. 3) su operacionalización y 4) la formación de los índices. y que puede haber – y normalmente los hay. en general. más fácilmente observable desde el punto de vista empírico que un concepto general. 2) la elección de los indicadores. Está correlacionada en el sentido de que un concepto específico también es. tendremos dificultades mayores para darle una definición operativa. Por ejemplo. La primera fase es una pura reflexión teórica. Distingue dos partes en un indicador: la parte de indicación y la parte ajena. de conceptos generales a conceptos específicos. es argumentar y justificar su elección. siempre tendremos que privilegiar indicadores para los que la parte de indicación sea máxima y la parte ajena sea mínima. Pero si el concepto a operacionalizar. pero no “demostrar” que es correcta. la participación en los ritos religiosos puede ser indicador de conformismo social más que de religiosidad. incluso de contenido semántico radicalmente distinto. pero la práctica religiosa sí que lo es. La segunda fase consiste en la identificación de los indicadores correspondientes a cada dimensión. Se trata de descender. Podemos clasificar los conceptos en función de un contínuum dado por el distinto grado de generalidad-especificidad. La primera es la parte de contenido semántico que éste tiene en común con el concepto del que es adoptado como indicador. Resulta evidente que la relación entre concepto e indicador es sólo parcial. el concepto de práctica religiosa es definido como propiedad de los sujetos humanos. en las sociedades cultural y políticamente dominadas por las instituciones eclesiásticas. Ejemplos de indicadores del componente consecuencial podrían ser los actos de caridad llevados a cabo por una persona. Indicadores.forma de variable. de cara a la comunidad científica. la fe en dios no es observable. y es. que están ligados a los conceptos “generales”. Un indicador puede estar relacionado con más de un concepto. y la segunda es la parte que le es ajena. o un comportamiento político y una moral sexual inspirados en las convicciones religiosas. Una tercera cuestión es la relativa a la arbitrariedad de la elección de un indicador. En el ejemplo de la religiosidad . puesto que eso es demostrable. en lugar de la práctica religiosa. Hemos dicho que el indicador es una representación parcial de un concepto. por lo que se define como una relación de indicación o representación semántica (o sea del significado). traducibles a la realidad. Por ejemplo. De ahí la necesidad de recurrir a más de un indicador para registrar operativamente el mismo concepto. esta fase corresponde a la identificación de los cuatro componentes que hemos mencionado (ritualista. la lectura de los textos sagrados. el concepto (general) no se agota con un único indicador (específico). Así. etc. Por una parte. en la que el concepto es analizado en sus principales componentes de significado (“dimensiones”). Podemos decir que la observación empírica de un concepto no directamente observable pasa por la sucesión de cuatro fases: 1) la articulación del concepto en dimensiones. ligados ambos por afinidad de significado. la oración individual. por ejemplo. La elección entre esta multiplicidad la hará el investigador con su propio criterio y la única obligación que tiene. “específicos”. experiencial…). Por otra. 35 . es el de religiosidad. operacionalizado con el número de veces que una persona va a la iglesia al mes (variable). Para la dimensión ritual de la religiosidad hemos mencionado la participación en los ritos colectivos. Naturalmente. más general.

son frecuentes los casos de investigadores que. El itinerario de la traducción de un concepto en operaciones empíricas. a su transformación en variables. y varía al pasar de una 36 . conformistas. por ejemplo. La cuarta y última fase es la de la construcción de los índices. cuando esta elección. no religiosos. el valor verdadero no observado ni observable del concepto que la variable pretende registrar. Por lo tanto. Formalmente: Valor observado = Valor verdadero + Error sistemático + Error aleatorio (variable) (concepto) Lo que equivale a escribir: Error = Valor observado – Valor verdadero = Error sistemático + Error aleatorio El error sistemático (distorsión) es un error constante. es decir. forzando la correspondencia semántica entre indicador y concepto. si han ido a votar. 3. sino que toma un valor positivo o negativo. y los dos componentes del error. como devotos. la participación electoral. “clasifica” la religiosidad en tipos diferentes entre si y no graduables. tratan de arreglárselas con lo que tienen a disposición. que varia de registro a registro. ante conceptos complejos para los cuales sus datos son inadecuados. en el sentido de que el “valor observado” tiende sistemáticamente a sobreestimar o subestimar el “valor verdadero”. practicantes. por el motivo que sea. Número de veces que una persona va a misa al mes. El error aleatorio es un error variable.8 Error total Error de medición o error total. Este error tiene dos componentes: el error sistemático y el error aleatorio. sigue a la recogida de datos en lugar de orientarla. representa el desfase entre concepto (teórico) y variable (empírica). que recorre la fase de articulación en dimensiones seguida por la definición de los indicadores y por su obtención operativa.En la tercera fase se procede a la operacionalización de los indicadores. y llegando a utilizar indicadores con una parte de indicación excesivamente modesta. Su valor medio sobre el total de los casos observados no es igual a cero. es el resultado de la suma de tres partes. En particular. existe una difundida tendencia por parte de los entrevistados a no declarar la abstención. o bien de un índice tipológico que. Varía en hipotéticas réplicas del mismo registro sobre el mismo individuo. no siempre se realiza en la secuencia temporal presentada hasta el momento. se encuentra ante la imposibilidad de planificar la obtención de los indicadores según su análisis conceptual. es decir. o se trate de réplicas de la investigación sobre los mismos individuos. o que la mide llegando a una puntuación cuasicardinal. Hay que tener especial cuidado en elegir los indicadores para operacionalizar conceptos complejos. puede decirse que el valor observado. Desgraciadamente. Por ejemplo. el valor de la variable empírica tal y como es registrado por el investigador. por lo que se obtendrá en todas las encuestas una tasa media de participación electoral “observada” sistemáticamente superior a la “verdadera”. en el sentido de que se presenta en todas las investigaciones: ya se trate de investigaciones sobre individuos diferentes. cuando el investigador no observa directamente los datos sino que utiliza datos ya recogidos. Podrá tratarse deun indice unidimensional que “ordena” la religiosidad según una puntuación de las características ordinales.

muestra de individuos a otra. Se trata de oscilaciones que tienden a una media (valor esperado) igual a cero, sobre todas las réplicas posibles del registro y sobre todas las muestras. En resumen, si el error sistemático es la parte del error común a todas las aplicaciones de una determinada investigación; el error aleatorio es la parte de error específica de cada una de las investigaciones. ¿En qué fases del recorrido que conduce de los conceptos a las variables surgen estos errores? Hemos visto que este paso se articula en dos fases: una fase teórica, que podríamos llamar de indicación, que lleva a la elección de los indicadores, y una fase empírica, que hemos denominado de operacionalización y que consiste en la obtención de los indicadores mismos. En ambos momentos podemos cometer un error: un indicador puede ser elegido mal o puede ser operacionalizado mal. • El error en la fase de indicación, es decir, en la elección de los indicadores adecuados para representar un determinado concepto, es un error de tipo sistemático. Por ejemplo, tomar como indicador de participación política de una persona el hecho de que esté inscrita o no en un sindicato, puede ser una elección afectada por error sistemático: de hecho, la inscripción en un sindicato puede expresar un cierto conformismo social o la preocupación de proteger los intereses propios o un comportamiento que se reproduce cada año por inercia, más que una participación política real. Un indicador será más válido cuanto mayor sea su parte indicante y menor su parte ajena. El error cometido en la fase de operacionalización puede ser tanto sistemático como aleatorio. En una investigación realizada a través de entrevistas sobre una muestra de sujetos, el proceso de operacionalización se articula en diversos momentos, y en cada uno de ellos podemos cometer errores, podemos distinguir 3 fases: a) la fase de la selección de las unidades estudiadas b) la fase de recogida de los datos, que llamaremos de observación, y c) la fase de tratamiento de los datos. Podemos cometer errores en cada una de estas fases.

Errores de selección. Errores debidos a que en una investigación no se actúa sobre la población total sino sobre una muestra de sujetos. Tres tipos diferentes de errores de selección. El Error de cobertura, la lista de la muestra de sujetos es incompleta. Error de muestreo, realizar la investigación sobre una muestra, lleva a un error que con otra muestra habría sido diferente. El Error de no respuesta, algunos sujetos a pesar de estar en la muestra pueden negarse a contestar. Errores de observación. Pueden ser achacados a cuatro fuentes. Errores debidos al entrevistador,(registro erróneo de una pregunta) al entrevistado,( comprensión errónea de una pregunta) al instrumento,(preguntas mal formuladas) al modo de administración, (no es lo mismo por teléfono, por correo, en directo…). Errores en el tratamiento de los datos. Errores de transcripción, de codificación, de memorización en el soporte informáticos… Pueden ser tanto sistemáticos como aleatorios. El error global de una investigación es imposible de evaluar. Escapan de nuestro control demasiados componentes; y si bien los intentos de considerar la investigación a examen como una de las posibles réplicas del mismo diseño de investigación permitirían evaluar 37

el error aleatorio, no ocurre lo mismo con el sistemático, que por definición se presenta en todas las posibles réplicas de las investigación y escapa por lo tanto a cualquier examen. Lo que sí se puede medir es un componente de este error global, el error de muestreo: existe un sector de la estadística que ha desarrollado técnicas de estimación del error provocado por el hecho de actuar sobre una muestra en lugar de sobre la población total examinada. Como es el único cuantificable, muchos investigadores consideran este error como si fuera el error total de la investigación. 3.9 FIABILIDAD Y VALIDEZ Con respecto a la fase que hemos llamado de “observación”, los psicométricos han elaborado dos nociones sobre las que queremos profundizar aquí: la fiabilidad y la validez. La fiabilidad tiene que ver con la “reproducibilidad” del resultado, e indica el grado en el que un determinado procedimiento de traducción de un concepto en variable produce los mismos resultados en pruebas repetidas con el mismo instrumento de investigación (estabilidad) o bien con instrumentos equivalentes (equivalencia). Cuando pesamos un mismo objeto varias veces y la medición coincide la mayor parte de las veces concluimos que la báscula es fiable. La validez en cambio, hace referencia al grado en el que un determinado procedimiento de traducción de un concepto en variable registra efectivamente el concepto que se pretenda registrar. Si el coeficiente intelectual regristra efectivamente la riqueza de un país, si el PIB registra efectivamente la riqueza de un país. Está claro que en este caso no es la repetición de la prueba lo que permite controlar este tipo de error. Generalmente se asocia la fiabilidad al error aleatorio y la validez al error sistemático. Por ello, la fiabilidad es más fácilmente verificable que la validez, puesto que el error aleatorio puede localizarse a través de repeticiones de la observación sobre el mismo sujeto; mientras que la validez es más difícil de identificar, puesto que el error sistemático, que está en su base, se presenta constantemente en cada observación, y por tanto hace que no se pueda conocer el estado efectivo de la propiedad estudiada. 3.9.1 Fiabilidad

La primera forma de fiabilidad que ha sido estudiada es la estabilidad en el momento de la observación. Ésta puede medirse a través de repetir la observación y en calcular la correlación entre los dos resultados. Es difícil de aplicar en las ciencias sociales por dos motivos: la reactividad del sujeto humano y el cambio que puede introducir en el sujeto entre la primera y la segunda exploración. La primera exploración no deja inalterada la propiedad que queremos registrar; por ejemplo, el recuerdo del primer test o el aprendizaje que se ha adquirido después pueden alterar el resultado del segundo. Además, la repetición en el tiempo permite controlar las incidencias que varían de un momento de la administración a otro, pero no los otros dos tipos de variación accidental antes mencionados, atribuibles al instrumento y a las modalidades de investigación. Se ha propuesto una segunda definición de fiabilidad en términos de equivalencia, en la que la fiabilidad se mide a través de la correlación entre dos procedimientos distintos, aunque muy similares entre si. La primera técnica es la denominada subdivisió a mitad, en la que la fiabilidad se obtiene por la correlación entre dos mitades del mismo test.

38

Un procedimiento similar es el de las formas equivalentes: dos test se denominan paralelos cuando se consideran que miden el mismo valor verdadero subyacente, y difieren sólo en el error casual. Una tercera solución para medir la fiabilidad es la que se basa en el supuesto de que los errores aleatorios varían no solo entre test y test, sino también entre pregunta y pregunta dentro de un mismo test. Así, se han propuesto las medidas basadas en la coherencia interna, en las que la fiabilidad del test se estima a través de la correlación de las respuestas a cada pregunta con las respuestas al resto de las preguntas. Todas las técnicas que hemos presentado, no obstante, han sido concebidas dentro de la psicometría, teniendo presente como único procedimiento de operacionalización el test psicológico, consistente en una bateria de preguntas, es decir, una serie de preguntas sobre el mismo argumento. Sigue siendo mucho más difícil de evaluar la fiabilidad de una investigación en otras situaciones: por ejemplo, cuando, manteniéndose siempre la unidad de análisis representada por el individuo, se quieren registrar comportamientos específicos o bien cuando la unidad de análisis es distinta al individuo. En vista de la dificultad de la repetición, se mantiene válido al planteamiento de fondo de que la fiabilidad de una investigación puede ser controlada a través de investigaciones múltiples con instrumentos distintos. 3.9.2. Validez Si tras un error de validez hay un error sistemático, es muy difícil darse cuenta, puesto que éste se reproduce de forma constante en todas las investigaciones. Generalmente el error de validez se sitúa en el paso del concepto al indicador y nace del “error de indicación”, en el que ya nos hemos detenido. La validez de un determinado indicador es, en efecto, mucho más complicado de reconocer, y es muy difícil de medir. El concepto de validez se puede articular en torno a dos aspectos y con dos procedimientos de convalidación correspondientes: las denominadas validez de contenido y validez por criterio. La validez de contenido se sitúa en un plano teórico, e indica que el indicador o los indicadores seleccionados para un determinado concepto cubren de forma efectiva el significado del concepto. Puede darse sólo en un plano puramente lógico (por eso hablan de “convalidación lógica”); está consiste en una descomposición analítica del concepto estudiado, correspondiente a la fase de articulación de un concepto en dimensiones que hemos citado anteriormente, con el objetivo final de cerciorarse de que todas las dimensiones están cubiertas por los indicadores seleccionados. El segundo tipo de validez ha sido definido como validez de criterio: en este caso, la convalidación se basa en la correspondencia entre el indicador y un criterio externo que por algún motivo se considera correlacionado con el concepto. Este criterio puede estar representado a) por otro indicador ya aceptado como válido b) por un hecho objetivo, generalmente de carácter conductual. Dada la posibilidad de cuantificar esta correspondencia, también se ha propuesto para este tipo de validez el nombre de validez empírica, contrapuesta con la precedente validez de contenido, que sería denominada “validez teórica”. Terminología que sin embargo no debe inducir a creer que la validez es empíricamente mensurable; de hecho, lo que se mide con este procedimiento es la correlación entre dos indicadores y no la correspondencia entre el indicador y su concepto. La validez por criterio ha sido clasificada en varios tipos. Tenemos la validez predictiva, que consiste en relacionar el dato del indicador con un acontecimiento sucesivo unido a

39

él. Un test de actitudes referente a una determinada profesión puede convalidarse por la comparación entre su resultado y el sucesivo rendimiento en el trabajo. Se habla de validez simultánea cuando el indicador está correlacionado con otro registrado en el mismo momento temporal. Un tipo importante de validez simultánea es la validez por grupos conocidos, en la que el indicador se aplica a sujetos cuya posición sobre la propiedad a examen es conocida. Por ejemplo, un indicador de religiosidad puede aplicarse a personas pertenecientes a grupos religiosos y habitualmente asiduos de la iglesia, para controlar si efectivamente, como se espera, el indicador registra valores especialmente altos de religiosidad para estas personas. Los manuales de psicometría incluyen un tercer tipo de validez denominada validez de constructo. No se trata más que de una combinación de los dos tipos de validez anteriores. La conformidad de un indicador a las expectativas teóricas en términos de relaciones con otras variables. Existe una correlación inversa entre nivel de instrucción y prejuicio racial. Si establecemos un nuevo indicador de prejuicio, su validez de constructo puede ser evaluada según su conformidad con estas expectativas: si las expectativas no son confirmadas, podemos concluir que probablemente el indicador considerado no es un indicador válido de prejuicio. El procedimiento se basa en consideraciones teóricas y en la referencia a otros indicadores ya aceptados como válidos; de ahí que pueda considerarse una combinación de los dos criterios de convalidación ilustrados anteriormente. Concluimos esta larga reflexión sobre el error total subrayando la importancia de este argumento y una llamada de atención sobre la necesidad de que el investigador ponga especial cuidado en este punto. Los errores cometidos en la fase de transformación de los conceptos en variables son muy graves pues, al ser colocados al inicio de la fase empírica, perjudican todo el posterior desarrollo de la investigación.

40

manteniéndose constantes todas las otras posibles causas de Y. relativo a la distinción entre variables dependiente y variables independientes. sino que se afirma que “más allá de ser acompañado por la causa. y que una transformación en X preceda siempre a una transformación en Y. Si C. entonces ( y sólo entonces) E siempre. En primer lugar. la clase es la variable independiente. y debemos resignarnos a la imposibilidad de comprobar empíricamente las leyes causales. de la que. y la tendencia política es la variable dependiente.2. y el efecto es la variable dependiente.1 CONCEPTO DE CAUSA Desde siempre el hombre ha tratado de entender cómo un fenómeno podía influir en otro. sucesión. 4.2 Corroboración empírica de la relación causal Preliminarmente aún debemos introducir un apunte terminológico. en el plano empírico (lo podemos plantear en el plano teórico). consideramos que el la “causa”. ya que en muy pocos casos pueden valerse del principal instrumento para evaluar empíricamente una relación causal: el experimento. que la variación de X “produce” la variación de Y. y variable dependiente a la variable influida. constancia y univocidad). Covariación entre variables independientes y dependientes. El problema de la causalidad existe en todas las ciencias.1. debemos poder observar situaciones con diferentes grados de individualismo. nunca puede asegurarnos que X produzca una transformación en Y. Esta formulación expresa algunas de las características del nexo causal ( condicionalidad. “conocimiento y ciencia consisten en darse cuenta de las causas y no son nada fuera de esto”. entonces (y sólo entonces) E siempre producido por C. Si C. pero sigue siendo insuficiente. La noción de causa queda confinada en el reino de la teoría. la causa es la variable independiente. 4. es decir. El elemento esencial que añade este enunciado está representado por la idea de producción: no se limita a afirmar la existencia de una “conjunción constante” entre dos fenómenos. pero resulta especialmente relevante en las ciencias sociales.CAPITULO 4 CAUSALIDAD Y EXPERIMENTO 4. 41 . en el plano teórico. Si la relación de dependencia es de tipo causal. debemos poder observar una variación de la variable independiente. El simple hecho de que X e Y varíen conjuntamente de una forma previsible. contamos con un fuerte elemento empírico de corroboración de la hipótesis de que X es la causa de Y. el efecto es generado por ella". En la relación entre clase social y tendencia política. Pero si observamos empíricamente que una variación de X es seguida regularmente por una variación de Y. Cuando una variable influye en otra llamamos variable independiente a la variables que influye. Podemos decir que el hecho de que “el pensamiento causal pertenece completamente al nivel teórico y que las leyes causales nunca puedan ser demostradas empíricamente” es una opinión comúnmente compartida. Si queremos tener elementos empíricos que confirmen la afirmación teórica de que el individualismo social produce una elevada tasa de suicidios. Nunca podemos decir.

3.2. como veremos en breve. es posible establecer la dirección del nexo causal mediante el criterio de la sucesión temporal. Si decimos que una socialización impregnada de valores religiosos (X) genera en la edad adulta una actitud más intolerante hacia las ideologías distintas (Y). Mediante la manipulación de la variable independiente. prevé la posibilidad de una variación artificial (manipulación) de una de las dos variables. mientras que el de covariación pertenece al empírico. “Covariación no significa causalidad”.2. 42 . pero que no se produce lo contrario. consistente en analizar las covariaciones tal y como se presentan en las situaciones sociales no manipuladas por el investigador. Hay que añadir que deben excluirse algunas direcciones causales por imposibilidad lógica. Si decimos que existe un nexo causal entre clase social y tendencia política. simultáneamente. Cuando no podemos utilizar esta estrategia.No podríamos proceder a observaciones empíricas sobre la influencia de la cohesión social en la tasa de suicidios si observáramos situaciones en las que la variable independiente (cohesión social) es constante. que nace de la observación de que la variación de la variable independiente X precede a la variación de la variable dependiente Y. que. puesto que se realiza en el laboratorio y la variación de la variable independiente es producida por el investigador.2. en lugar de variable independiente estudiada X. 4. al mismo tiempo. pero. artificial para el experimento. Dirección causal Debemos. En el lenguaje estadístico. Análisis de la covariación y experimento Los científicos disponen de dos técnicas básicas para controlar empíricamente una afirmación causal: el análisis de la covariación en su realización natural y la situación artificial del experimento. el concepto de causalidad pertenece al ámbito teórico. si la tasa de suicidios en las regiones aumenta al pasar de regiones católicas a protestantes. éste sólo puede existir en la dirección que va de la primera variable a la segunda (es imposible que un individuo cambie de clase social como consecuencia de una modificación de sus tendencias políticas) 4. se dice que debemos poder observar una “covariación” entre las dos variables.4. todas las religiones protestantes son alemanas y las católicas son francesas. Dos adjetivos: natural para el análisis de la covariación. no estamos en disposición de discernir si la causa de la distinta tasa de suicidios es la religión o la nacionalidad. Control de las variables superfluas Cuando forzamos a la variable independiente X a cambiar de valor. estar en condiciones de observar que al variar la variable independiente se obtiene una variación de la variable dependiente.2. 4. Al variar la variable independiente. una covariación nunca puede ser alegada como única prueba empírica para afirmar la existencia de una relación causal. debemos poder observar. Podemos establecer empíricamente este hecho de dos formas. una variación de la variable dependiente. Por ejemplo. el hecho de que la primera variable preceda en el tiempo a la segunda establece la dirección del nexo causal. tenemos que asegurarnos de que no sean esas otras variables las verdaderas causas del cambio en la variable dependiente Y. camino que puede recorrerse sólo en el caso del experimento.

No. los dos grupos de ciudadanos. Si encontramos una correlación entre las dos variables. Naturalmente. Sabemos que sobre el voto influyen una infinidad de variables “independientes”. De hecho. la clase social… sin embargo. En el primer caso se trata. y el de la b) depuración. dado que tendremos que hacer comparaciones entre grupos cada vez más pequeños de casos. puesto que hemos comparado entre sí grupos en los que la edad era constante. Analizando la covariación entre X y Y en grupos de igual edad. es decir ha influido en el voto en esa dirección?. vamos a imaginar dividida en las dos alternativas “ha seguido/no ha seguido la campaña electoral en televisión”. como la edad. también dividida en “voto para el candidato A/ para el candidato B”. Este último problema puede ser superado mediante el recurso de la depuración (control estadístico) de los efectos de las terceras variables Z.1. y dentro de estos tres grupos se observa la covariación entre propaganda televisiva y voto. Dos candidatos A y B. que. los que han visto la televisión y los que no la han visto. el procedimiento se complica si queremos mantener bajo control muchas variables simultáneamente. Se entiende por relación espuria una covariación entre dos variables X e Y que no deriva de un nexo causal entre sí.3. en el sentido de que entre los más expuestos a la propaganda televisiva encontramos también una frecuencia mayor de voto para el candidato A. es decir. sólo nos interesa la propaganda televisiva. no son distintos entre sí sólo por esta variable: probablemente. el objetivo del investigador es relacionar las variaciones de las dos variables X e Y. Las dos variables son. la educación. Si la relación se mantiene. adultos y ancianos. ya no podemos seguir con las sospecha de qué quienes más han visto la televisión son también los más ancianos. varia también el voto Y. sino del hecho de que ambas están influenciadas por una tercera variable Z (edad). transformando la Z en una constante para eliminar su efecto. Por lo tanto si X es la variable “exposición a la propaganda televisiva”. Análisis de la covariación Se trata de entrevistar a una muestra de sujetos. no podemos saber si la verdadera causa que orienta el voto es la edad o la exposición a la propaganda televisiva. En un caso como éste el investigador dispone de dos modos de asegurarse de que la relación entre X e Y no se deba en efecto a la acción externa de Z sobre las dos variables: el procedimiento del a) control. para simplificar. han utilizado la TV durante la campaña electoral. ¿podemos concluir que la televisión ha jugado a favor de este candidato. Jóvenes. no estamos en condiciones de poder afirmarlo. de la transformación de las variables extrañas en constantes. servirán para aclarar las dos formas de enfrentarse al problema. mujeres más que hombres. de la determinación por vía matemática y de la consecuente eliminación de los efectos de las variables extrañas.Dos ejemplos. ancianos más que jóvenes… Si las personas que ven más la TV son más ancianas que la media.? En este caso la covariación entre audiencia televisiva y voto representaría un ejemplo clásico de lo que se denomina en sociología relación espuria. es decir. que se realiza por medio de 43 . el género. de mantener bajo control las variables de perturbación potencial. ¿Ellos votan al candidato A porque son más ancianos o porque ven más la televisión. e Y es la variable dependiente “voto”. para ver si al variar la exposición a la propaganda televisiva X. los que más ven la televisión son las personas que están más tiempo en casa. la variación de Z provoca (por una acción causante) la variación simultánea de X e Y sin que entre estas últimas exista un nexo causal. 4. en los que la misma cuestión (el impacto de la proopaganda televisiva sobre las tendencias políticas de los ciudadanos) se aborda con los dos distintos procedimientos. en efecto “confusas”: los que más ven la TV son también los más ancianos.

De hecho. es decir. dicha covariación ya no está expuesta a los riesgos de “espuriedad” del caso anterior. intencionadamente “al azar”. si conocemos las relaciones de las terceras variables entre sí y con la variable dependiente podemos calcular la correlación existente entre X e Y teniendo en cuenta estos efectos. Diferencias. pidiendo a un grupo que siga la campaña por televisión y al otro que se mantenga rigurosamente alejado de ella. el investigador produce una variación de X en una situación controlada y a continuación mide cuánto varia Y. Experimento Existe otra via para resolver este problema. tras una entrevista sobre el voto de los sujetos estudiados. más anciano. en la del experimento. 44 . de forma que obtengamos una medida de la correlación ente X e Y depurada de los efectos del resto de variables. plantee un diseño de investigación con las siguientes características: que seleccione una muestra de 200 ciudadanos y los subdivida aleatoriamente después en dos grupos de 100.elaboraciones estadísticas: la técnica de la correlación parcial si la variable que se quiere controlar es sólo una. la hace variar. resulta que en el grupo expuesto a la televisión ha habido mucho más votos para el candidato A-. En el primer caso el investigador observa y analiza. Sin entrar en detalle acerca de estos procedimientos de estadística multivariada. En el segundo. es decir. ni está más instruido queel grupo no expuesto a la televisión: la asignación de los individuos a cada uno de los grupos se ha efectuado. por término medio. no de analizar los datos. “produce” puesto que manipula desde el exterior la variable independiente. en ambos casos se estudia una covariación entre una variable independiente X supuesta como causa y una variable Y supuesta como dependiente. El grupo expuesto a la televisión no es.3. y la de la regresión múltiple si las variables que hay que mantener bajo control son más de una. Aunque el experimento constituye la respuesta más rigurosa al problema del estudio empírico de la relación causal. 4. digamos para tener bajo control las “terceras variables” no es necesario que estén fisicamente “bajo control”. en cambio. a variables preestablecidas por el investigador y registradas en la fase de la recopilación de los datos. En el primer caso nos encontrábamos en una situación de análisis de la covariación. se tienen bajo control todas las posibles variables de perturbación. analizando la relación entre X e Y cuando éstas asumen valores constantes en los casos analizados. en la mayoría de las investigaciones sociales nos encontramos más frecuentemente en la situación de observar covariaciones que en la de construir experimentos. también las no registradas o directamente desconocidas por el investigador y efectivamente los dos grupos comparados se diferencian sólo por la variable experimental. los procedimientos de control estadístico del análisis de la covariación son aplicables sólo a un número finito y explicitamente conocido de variables. se produce una covariación entre exposición a la campaña televisiva X y voto Y – por ejemplo. que se basa en un modo distinto. sino de producir los datos a analizar. ni tiene un presencia femenina más alta. que él se limita a analizar. Supongamos que el investigador. que tiene lugar en una situación artificial construida por él. Si con la elección resultante. En el experimento. de hecho. En el primer caso la intervención del investigador se sitúa después de la recopilación de los datos.2. En el segundo caso el investigador controla previamente la producción misma de los datos. en el segundo. al asignar por sorteo los sujetos al grupo experimental y al grupo de control.

construyó un instrumento en el que unos pesos descendientes ponían en rotación unas palas en un contenedor de agua. para controlar empíricamente el principio de conservación de la energía –que establece que calor y trabajo son formas equivalentes de energía -. después del tratamiento. solución científica y solución estadística. está representado por la diferencia algebraica: 45 . distinguió entre la experiencia observadora y la experiencia provocada por la intervención manipuladora del hombre. De ahí se deriva la incapacidad para observar el efecto de X sobre Y. se registra Yc. sino que Y puede ser registrada en un momento precedente. Finalmente. eso no quiere decir que no sea posible llegar a soluciones parciales. El experimento se distingue de la forma de experiencia que se deriva de la observación de los hechos en su desarrollo natural. La tesis de invariación consiste en suponer: . y por tanto. Sin embargo. Es evidente la imposibilidad de observar el valor Yt e Yc en la misma unidad al mismo tiempo. Fue Bacon quien. y si indicamos con u la unidad de análisis sobre la que hemos efectuado el experimento. En particular. En otras palabras.e Yt. se modifica X y se registra Yt. la diferencia entre los dos valores de Y revela el efecto causal. En 1.Irrelevancia del registro (procedimiento del medición): el valor de Yt no se resiente del registro precedente de Yc de la misma unidad.1. pero nunca las dos cosas simultáneamente. . Llegados a este punto. 4.4 El experimento en las Ciencias Sociales Podemos definir el experimento como una forma de experiencia sobre hechos naturales que ocurre como consecuencia de una intervención modificadora y deliberada por parte del hombre. respectivamente. podemos decir que el efecto causal.186 julios (a la unidad de medida de la energía se le dio el nombre del experimentador). en una determinada unidad u. aunque no sea posible llegar a una solución empírica definitiva y segura del problema de la inferencia causal. Se suponía que el trabajo mecánico producido por las palas haría aumentar la temperatura del agua. Éste es el denominado problema fundamental de la inferencia causal. El experimento encuentra una formulación filosófica y sus primeras aplicaciones científicas en el siglo XVII. a principios del siglo. existen dos vías practicables para este propósito.Estabilidad temporal: el valor de Yc puede ser sustituido por una medida del mismo Yc en un momento previo. ya que un individuo o ha estado expuesto a la propaganda electoral o no lo ha estado. y fue Galileo quien colocó el experimento en la base del conocimiento científico moderno. El experimento no sólo permitió a Joule demostrar la existencia de este nexo causal.850 el físico inglés James Prescott Joule.4. que Holland llama. Yc e Yt ya no tienen que ser registradas simultáneamente sobre la misma unidad. Si Yc es la temperatura del agua antes del tratamiento (antes de la administración de la energía mecánica).4. De la imposibilidad de una observación simultánea sobre la misma unidad Yt e Yc se deriva la incapacidad de observar el efecto de X sobre Y. sino que además pudo determinar cuantitativamente la magnitud de la relación (“ley”) existente entre calor y energía. estableciendo que una caloría corresponde a 4. La solución científica La solución científica es alcanzable si se puede adoptar una de las dos tesis (indemostrables) siguientes: la tesis de invariación o la tesis de equivalencia. de controlar empíricamente la presencia de un nexo causal.

sino por otros motivos.Efecto causal t = Yt (u) – Yc (u) sobre la misma unidad. La solución estadística Tanto la tesis de la variación como la de la equivalencia son normalmente inaceptables en las ciencias sociales. se podría tomar la diferencia entre un año sin nada y un año con fertilizante pero hay que tener en cuenta que las variaciones climatológicas tampoco son idénticas en dos años diferentes. en tanto que la primera medición de la temperatura del agua no influye en la segunda medición de la temperatura. esta asunción es indemostrable. Es decir: Yc(u) = Yc (v) Yt (u) = Yt (v) En este caso la medición de Yc (valor de la Y cuando X= c) se realiza sobre una unidad (v). No obstante. Por eso la temperatura del agua antes de la rotación de las palas puede considerarse idéntica a la temperatura del agua que se habría registrado al final del experimento si las palas no se hubieran movido. La no influencia de la primera medición también es difícil de sostener: recordando lo que ha dicho que habría votado en la primera entrevista. También en este caso la tesis de equivalencia es indemostrable. en tanto que no es posible encontrar dos unidades equivalentes. Supongamos que quiere controlarse el efecto de un fertilizante en un campo. En el ejemplo agrícola. Y el efecto causal vendrá dado por Yt (u) – Yc (v). Es posible. un intercambio de opiniones con su cónyuge. La diferencia entre los dos valores de la variable dependiente Y representa el efecto causal sólo si la tesis de la invariación es sostenible. se le expone al debate televisivo y se registra de nuevo su intención de voto (Yt).2. para no parecer incoherente. El valor de Yc debería mantenerse estable como en el corto intervalo de tiempo que transcurre entre el inicio y el final del experimento. 4. además. La estabilidad temporal de Yc es poco fiable: en el tiempo transcurrido entre las dos encuestas el sujeto podría haber modificado su intención de voto no por el efecto del debate televisivo. la lectura del periódico. Piénsese siempre en el ejemplo del efecto de la propaganda televisiva sobre el voto. El efecto causal será t = Yt(u) – Yc (v) sobre dos unidades u y v al mismo tiempo. por eso lo más correcto sería tomar dos campos conlindantes. efectuar lo mismo en ambos campos y que uno fuera abonado y el otro no. También la tesis de la equivalencia de las unidades es inadmisible en las ciencias sociales. otros acontecimientos políticos concomitantes. el individuo podría contestar del mismo modo en la segunda entrevista aun habiendo cambiado de opinión. por ejemplo. Y piénsese en la aplicabilidad de la tesis de la invariación en un experimento en el que se le pregunta a un individuo cuál es su intención de voto antes de la exposición al debate televisivo entre los dos candidatos (Yc). Se acepta la estabilidad temporal de Yc porque no existen otras formas de variación de energía. sobre la otra unidad (u). aceptar la irrelevancia del primer registro. y la medición de Yt (valor de Y cuando X = t). es presumible que dos campos contiguos derivados de la división en dos de un único terreno puedan ser considerados iguales para todas las variables ligadas a la 46 .4. en tiempos distintos.

sobre los cuales registrar la variación Y. etc. Grupos con estas características se obtienen mediante un proceso de aleatorización: la muestra inicial de sujetos a los que someter al experimento es subdividida en dos grupos asignados al “azar” a los individuos en un grupo o en el otro.productividad. en aras de la sencillez. uno a un valor (c) y el otro a un valor diferente (t) de la variable X y observando en los dos grupos los resultados medios de las variables Y. y los casos en los que. de lo que se derivan dos únicos grupos (grupo experimental y grupo de control). no se respeta alguno de los requisitos básicos del método experimental. es decir. En las ciencias sociales no se pueden encontrar unidades idénticas. La segunda distinción. sino de algo distinto. Nótese en fin que. estaremos en disposición de cuantificar el efecto causal. a los que exponer a dos valores distintos de la variable X para ver cómo se modifica la variable Y entre ellos. En otras palabras. las variaciones meteorológicas. Tras haber distribuido a los sujetos en los grupos. hemos supuesto hasta ahora que la variable X toma sólo dos valores (presencia/ausencia). al primer grupo se le asigna el nombre de grupo experimental y al segundo el de grupo de control. y el valor X = c corresponde a la no exposición al tratamiento (ausencia). en cambio. La solución estadística. que esta vez será el efecto causal medio: Efecto causal medio T = E (Yt) – E (Yc) sobre dos grupos “aleatorizados” donde E es el “valor esperado”. la exposición al sol. que conditio sine qua non para la realización de un experimento es la capacidad de control del investigador sobre la variable independiente (manipulabilidad).5. Piénsese en dos experimentos 47 . una de las diferencias epistemológicas fundamentales entre ciencias sociales y ciencias naturales. debe poder manipular los valores de la variable independiente X. En psicología cuando el valor X = t es la variable independiente corresponde a la exposición de un grupo a un determinado tratamiento (presencia). no se trataría de un “verdadero experimento”. tiene por objeto los procedimientos de realización y distingue entre el caso de los experimentos “verdaderos”. Los dos grupos obtenidos serán equivalentes en la media de todas las variables que caracterizan a los individuos. 4.5 Experimentos de laboratorio y experimentos de campo La primera distinción se refiere al contexto en el cual se realiza el experimento. los que responden a todos los requisitos del método. Sometiendo a uno de los dos grupos. Hay que decir por último.1. la irrigación. No es posible encontrar dos individuos idénticos. Pero es posible obtener dos grupos de individuos que sean estadísticamente equivalentes para poder exponer a uno de ellos a un valor de X y al otro a un valor de X diferente. interpretable como “valor medio” (por lo que E(Yt) es la media de los valores Yt en el grupo de sujetos sometidos a X = t). debe poder atribuir a los grupos los diferentes valores de la variable X. ¿Cuál es entonces la solución?. 4. excepto en las diferencias accidentales. Experimentos de laboratorio La diferencia entre experimentos de laboratorio y experimentos de campo es sencilla: es la distinción entre el experimento llevado a cabo en una situación artificial y el experimento que se realiza en un contexto de la vida real. Si esto no es posible. Como veremos. la lógica del experimento no cambie aunque la variable X tome más de dos valores y tampoco cambia la lógica del experimento si las variables independientes X son más de una. como la composición del terreno. en cambio.

el objetivo del aislamiento del ambiente experimental con el fin de minimizar la acción de factores externos. que por efecto de la dinámica experimental son inducidos a comportamientos que pueden ser distintos de los que tendrían en una situación de espontaneidad. precisamente por las características de control sobre el ambiente que éste ofrece. etc. en el caso mencionado de los ruidos. en el doble sentido de: a) posibilidad de mantener fuera del ambiente experimental variables e influencias externas no deseadas. también en las ciencias sociales. o bien en la posibilidad de estudiar mecanismos de interacción gestual y verbal entre personas a través de una cámara de vídeo o de un espejo unidireccional. En resumen el laboratorio experimental de las ciencias sociales permite al investigador extirpar de la realidad social unos factores específicos. realizado en un instituto escolar. como la interferencia con las actividades de la vida cotidiana. las dos condiciones que caracterizan el experimento – la manipulación de las variables independientes y la aleatorización – pueden obtenerse tanto en laboratorio como en experimentos de campo.dirigidos a estudiar la perturbación producida por el ruido sobre la concentración mental. la influencia ejercida por los roles sociales. consistía en observar de cerca y aclarar el mecanismo de la obediencia para hacer tal 48 . ya que permite al investigador producir (y repetir) situaciones experimentales que se diferencian entre sí sólo por un pequeño detalle: por ejemplo. registrando en un test el rendimiento de clases perturbadas por el ruido del tráfico vial y de clases no sujetas a esa perturbación. El laboratorio permite crear situaciones y realizar observaciones que no son posibles en el ambiente natural: piénsese en la creación de dinámicas de grupo especiales. El primero. puede experimentar si un ruido con intermitencia regular provoca un efecto distinto puede experimentar si un ruido con intermitencia regular provoca un efecto distinto que un ruido con intermitencia irregular o que uno continuo. aislándolos del confuso contexto en el hecho que se manifiestan. Por lo que respecta al primer punto. la intervención manipuladora del investigador actúa sobre los sujetos mismos. Desde este punto de vista. Por último. en el laboratorio el investigador tiene la posibilidad de “construir” su propio experimento. realizado en un laboratorio. estableciendo detalladamente todas las modalidades de desarrollo. aunque. el laboratorio se caracteriza por una gran flexibilidad. En cuanto al segundo punto. Un ejemplo es el experimentos sobre la obediencia a la autoridad. son más fácilmente realizables en laboratorio. El elemento que caracteriza el laboratorio está representado por el control. y así sucesivamente. y por las relaciones dentro de los grupos. Se dividen los experimentos en tres grupos: Implicación de los sujetos estudiados (impact studies) Aquellos a los que se les pide su opinión (judgement studies) Aquellos en los que se requiere la observación sobre los sujetos experimentales (observational studies) Estudios de implicación. para replantearlos en una situación purificada de los deshechos de las accidentalidades. el laboratorio persigue. como hemos dicho. El segundo. y de b) posibilidad por parte del investigador de establecer hasta en los detalles más mínimos las condiciones de realización del experimento. en el que se asignan a unos sujetos tareas que requieren concentración mental en situaciones perturbadas por varias formas de ruidos producidas artificialmente.

Se mostraron ocho cuadros a 120 mujeres. 96 niños de entre 3-5 años en cuatro grupos de 24 unidades (niños y niñas en mismo número. no motivada por una especial agresividad pero que puede convertirse en cómplice de un proceso de destrucción. por parte de personas adultas. de llegar hasta el grado extremo de obediencia a la autoridad (no individuos sádicos) gente normal. o de dibujos animados. género. podemos citar un estudio sobre el prejuicio hacia las mujeres. incluso ante escenas de dolor creciente y peticiones de que se suspendiera el experimento. Dejo perplejos a los investigadores “la voluntad exasperada. más débil es su impacto. y ello con el fin de controlar la hipótesis de que cuanto más lejanas de la realidad son las representaciones. se les mostraba una diapositiva del cuadro y se les sometía a un cuestionario con cinco preguntas de evaluación sobre el cuadro mismo. mientras que el alumno era un colaborador del investigador y no recibía ninguna descarga (fingía recibirlas). Al alumno se le ataba a una silla y se le fijaba un electrodo en el pulso.cosa en un laboratorio de sicología. las variables independientes (X) manipuladas fueron en este caso dos: el género del artista ( a la mitad de las mujeres se les dijo que el autor era un hombre y a la otra mitad que era una mujer ) y el éxito del cuadro ( a la mitad de las mujeres se les dijo que el cuadro había obtenido un premio y a la otra mitad se le dijo que simplemente había optado a un premio). inducía a una persona a cumplir acciones que iban cada vez más en contra de su conciencia. El experimento se repitió con más de 100 sujetos. agresivos y no-agresivos). el profesor era un sujeto desconocedor. A un sujeto se le asignaba el papel de profesor a otro de alumno. Estudios basados en la observación los efectos imitativos de naturaleza agresiva inducidos en los niños después de la exposición a escenas de violencia transmitidas por la televisión. Las mujeres juzgaron más positivamente los mismos cuadros cuando éstos eran atribuidos a hombres si eran cuadros que no habían ganado el premio. un representante de la autoridad. un grupo tuvo la función de control. La violencia era representada tanto por escenas recitadas en vivo por actores como por filmaciones televisivas de esas escenas grabadas en la realidad. en este caso en la figura de un profesor universitario. de diferente edad. En realidad. se invitaba al laboratorio a dos personas para tomar parte en un estudio sobre “memoria y aprendizaje” y el investigador que dirigía la prueba explicaba que se trataba de un estudio sobre los efectos del castigo sobre el aprendizaje. mientras que este prejuicio negativo hacia la artista-mujer no se daba en el caso de los cuadros que habían sido declarados ganadores de premios… un trabajo que es equivalente al del hombre es juzgado inferior hasta que no recibe un reconocimiento oficial. Experimentos basados en la opinión de los sujetos. tenía que aprender de memoria una lista de asociaciones de palabras por cada error se le administraba una descarga de intensidad creciente. Las mujeres leían una breve biografía sobre el artista. de diferentes clases sociales. Una de las dificultades por parte de las mujeres de alcanzar el mismo éxito social que los hombres se debe a un prejuicio negativo hacia las mujeres por parte de las mujeres mismas. convencido de que participaba en un experimento sobre aprendizaje. El experimento estaba dirigido a comprender hasta que punto una persona está dispuesta a obedecer a la autoridad. En estas circunstancias. extracción social… La serie de experimentos aclaró algunos de los mecanismos de obediencia a la autoridad. Los otros tres fueron expuestos a una escena recitada con un actor que cumplía acciones violentas e 49 .

la variable independiente está constituida por los objetivos del grupo. y en particular sobre las modalidades de desarrollo del sentido del “nosotros” y del “ellos”. Los dos grupos volvían a interactuar enseguida. El niño después era sometido a una experiencia de frustración. los dos autores crearon en los profesores expectativas positivas con respecto a algunos alumnos. Se confirmó sólo parcialmente la hipótesis de la relación entre realismo de la escena y comportamiento agresivo: los niños expuestos a las escenas reales mostraron más agresividad que aquellos expuestos a los dibujos animados. La mayoría de las acciones agresivas de los niños reproducía las vistas en las representaciones. Durante el año escolar se volvieron a hacer test y estos alumnos efectivamente fueron progresando como había avanzado el falso resultado del test de inteligencia. la segunda los grupos los dictaba el monitor y eran totalmente separados del otro grupo (se elegían nuevos amigos dentro del grupo) y en la tercera los dos grupos competían. La relación profesor-alumno. Los niños expuestos a las escenas violentas manifestaron reacciones agresivas en doble medida respecto al grupo de control. Experimentos que se realizaban en campamentos. su expresión facial. se falseo el resultado a los profesores. En este estudio.inusuales contra una muñeca de goma hinchable. creando un conflicto de intereses entre los grupos. su forma de actuar –seguramente de forma totalmente inconsciente – comunica a los alumnos sus expectativas. Experimentos de campo. y la dependiente. a los dos grupos en conflicto se les colocaba frente a objetivos que no podían alcanzarse por el grupo solo. En la aplicación experimental. y demostraron que éstas inducían una efectiva mejora en el rendimiento de esos alumnos. Otro a una grabación sobre una filmación televisiva de las mismas acciones y el tercero a escenas similares de dibujos animados que reforzaban la irrealidad de la escena. El resultado hay que atribuirlo a alguna forma de interacción inconsciente entre profesor y alumno: “el tono de voz del profesor. Al final la cuarta fase. pero la diferencia resultó ser moderada. Se hizo un test de inteligencia a los alumnos de un colegio de un barrio pobre y de inmigrantes. sino que requerían la colaboración del otro grupo. 4. con diferentes fases. la hostilidad se deshacía y se formaban vínculos que transpasaban los límites de los grupos anteriores. Más predisposición de agresividad por parte de los varones. El primero sobre las dinámicas de grupo. señalando al azar a cinco alumnos de cada clase como alumnos que podían progresar rápidamente.5. por razones éticas. la primera se agrupaban al azar. Dos ejemplos.2. Esta comunicación puede 50 . afirmando que los niños “desaventajados” de las minorías étnicas americanas tienen a menudo un rendimiento escolar deficiente porque eso es exactamente lo que se espera de ellos. Las expectativas de A en relación al comportamiento de B pueden influir en B hasta el punto de que éste lleva a la práctica en efecto el comportamiento esperado. Los resultados evidenciaron una fuerte influencia del efecto de la imitación. es decir sobre los mecanismos que llevan a la formación de la solidaridad hacia los miembros del propio grupo (ingroup) y de la hostilidad hacia aquellos que están fuera de él (outgroup). la mitad representada por juegos agresivos y la otra por juegos no agresivos. por el tipo de relaciones interpersonales. Segundo experimento “la profecía que se autocumple”. La dinámica relacional entre los grupos se transformaba rápidamente de amistosa rivalidad a abierta hostilidad. El experimento demuestra que las relaciones interpersonales están condicionadas por el contexto estructural en el que las personas son colocadas y tienen que actuar. luego era llevado a una sala donde tenía ante si diferentes oportunidades de juego.

e indicaremos: con R la aleatorización de los sujetos en los grupos.ayudar al alumno a cambiar su concepción de sí mismo. sin entrar en consideraciones sobre la estructura de lo que se define como diseño experimental.6. Manipulación de la variable independiente. las características técnicas y organizativas que definen el experimento: el número de grupos experimentales. sólo en pequeñas variaciones accidentales. tenemos los denominados cuasiexperimentos. Dos elementos que caracterizan el método experimental: la asignación de los sujetos a los grupos y la manipulación de la variable independiente. La aleatorización es la forma más común de obtener grupos que difieran. 4. podemos concluir afirmando que el primer elemento no puede faltar (si falta nos situamos en la investigación basada en el análisis de la covariación. Se forman parejas (tríos. como veremos algunos autores introducen casos particulares de esta situación en los denominados experimentos ex post facto ). grupos…) de sujetos idénticos para algunas variables clásicas. Asignación de los sujetos a los grupos. sus motivaciones y sus capacidades cognitivas. sobre todas las variables. También se utiliza un procedimiento que emplea aleatorización casual y emparejamiento.6 experimentos y cuasi experimentos La distinción entre experimentos de laboratorio y experimentos de campo se basa en el contexto ambiental en el que se desarrolla el experimento.6. el modo en el que han sido formados. Si no se cumple la segunda condición. asignando después un componente de la pareja al primer grupo y el otro al segundo grupo (experimento Sampson y Laub). Volviendo a las dos características del experimento representadas por la manipulación de la variable independiente y por la aleatorización de los sujetos en los grupos. con X la variable independiente (“tratamiento” o “estímulo” en la terminología de la psicología experimental ).1. aunque. Combinándolos dan lugar a una multiplicidad de posibles diseños experimentales.1 Experimentos verdaderos Al describir los diversos tipos de diseños experimentales emplearemos la representación gráfica de Campbell y Stanley.1 Diseño “sólo después” a dos (o más ) grupos 51 . la eventual repetición de las observaciones. consistente en formar parejas de sujetos idénticos sobre características que se consideran relevantes para la cuestión estudiada. Cuando la asignación casual no es posible. el número y las modalidades de las variables independientes. con Y la variable dependiente (“observación” o “respuesta” ) 4. La variable independiente está representada por una variable nominal y su variación entre los grupos experimentales consiste en que cada grupo presenta una modalidad o categoría distinta de dicha variable. 4. Así se obtienen grupos equivalentes. Éste procedimiento es inferior a la aleatorización por eso se emplea cuando es imposible emplear ésta. un criterio alternativo que puede seguirse es el emparejamiento. y después se asignan por sorteo a los dos conjuntos los componente de cada pareja.

la exposición al estímulo. sean equivalentes.1. Por lo tanto. mediante aleatorización. Podemos atribuir. Se obtiene una variante de este diseño cuando la variable X adopta más de dos estados. además del registro de la variable dependiente después de la exposición al estímulo. y el otro por la ausencia de exposición al estímulo (grupo de control).2. tras la exposición a los distintos estadios de la variable independiente X. los dos grupos difieren sólo en el valor distinto de esta variable. sobre todas las variables.R X1 X2 Y1 Y2 Efecto causal : Y2 . Se trataría de: a) Subdividir por sorteo a los niños en dos grupos b) exponer a un grupo a la transmisión televisiva y no exponer al otro y c) examinar el comportamiento de los niños en la siguiente sesión de juego. por lo que se habla de diseño experimental a grupos multiples. valores medios iguales (salvo oscilaciones accidentales). X e Y: a) los sujetos se subdividen. como sucede con otros diseños experimentales que veremos en breve. pues. La aleatorización garantiza que los grupos. y c) se observa en los dos grupos el valor medio de la variable dependiente Y. en dos grupos. La variable dependiente Y se mide sólo después de la exposición al estímulo experimental y no antes y después de dicha exposición. b) se manipula la variable independiente de forma que en un grupo asuma la modalidad X1 y en el otro la modalidad X2. es decir. que presenten. el registro de la variable dependiente tras la exposición. también un registro antes de la exposición (de ahí X1 Y2 52 .6. Diseño “antes-después” a dos (o más ) grupos Y1 R Y3 X2 Y4 Efecto causal: (Y4-Y3) – (Y2-Y1) Este diseño experimental presenta. El efecto causal inducido por la variación de X se mide por la diferencia Y2-Y1. las dos modalidades de la variable independiente X están representadas por “presencia/ausencia”: es decir.Y1 El experimento se desarrolla en tres fases: R. X1 (grupo de control) X2 (escenas reales) X3 (filmaciones) X4 (dibujos animados) Y1 Y2 Y3 Y4 R 4. al efecto de esta manipulación la diferencia entre las medias de los grupos de la variable dependiente (Y2 – Y1) registradas después de haber provocado la variación de X. antes de la exposición al estímulo. Experimento de Bandura sobre la influencia de la violencia televisiva. uno por la exposición al estímulo experimental (que da lugar al grupo experimental). En el caso más simple. Éste es el más sencillo de los diseños considerados “experimentos verdaderos”. contiene todos sus elementos esenciales: la aleatorización.

El pretest no es esencial en los experimentos verdaderos. no obstante. por lo tanto. Podría afirmarse. Obsérvese que (Y4-Y2) (Y3-Y1) = (Y4-Y3) (Y2-Y1). Los dos registros de la variable dependiente también se denominan pretest y postest. Nos encontramo frente a un efecto de interacción entre pretest y estímulo. Diseño de Solomon a cuatro grupos Y1 Y3 R X1 X2 X1 X2 Y2 (diseño 2) Y4 Y5 (diseño 1) Y6 (Y4-Y2) : Efecto causal + efecto de eventual no equivalencia igual a (Y3-Y1) (Y4-Y2) (Y3-Y1): efecto causal depurado de la no equivalencia (Y4-Y3): efecto causal + efecto de eventual no invariación igual a (Y2-Y1) (Y4-Y3) (Y2-Y1) : efecto causal depurado de la no invariación. representadas por el género del artista y por su éxito. Sin embargo.4. con consecuencias sobre el postest que no pueden distinguirse de las diferencias producidas por la exposición al estímulo. especialmente si los dos test no se administran con mucha distancia el uno del otro. no se le escapará al lector la complejidad de un diseño tal y el coste mayor que conlleva el hecho de utilizar cuatro grupos para estudiar el efecto de sólo dos estados de la variable independiente. que este efecto de perturbación es igual en los dos grupos y que. sumando las ventajas del primero (ninguna interferencia por parte del pretest) a los del segundo (disponibilidad del prestes como punto de partida antes del estímulo).1. Diseño factorial Son aquellos en los que las variables independientes son más de una.6. Este diseño experimental une variaciones de la variable independiente entre los grupos y variaciones en el tiempo dentro del mismo grupo. En el estudio sobre el prejuicio hacia las mujeres teníamos una situación en la que las variables independientes eran dos. 4. Y también podría ocurrir que el pretest influya en los dos grupos de forma distinta. Con simples diferencias entre los seis valores de los pretest y postest (Y1…. 53 . Este diseño experimental combina los dos diseños anteriores.6.la denominación “antes-después”.1. Puede ser que sus respuestas no expresen sus opiniones reales sino lo que se socialmente deseable.Y6) se puede seraparar el efecto del estímulo del de la interacción entre pretest y estímulo. puesto que la aleatorización garantiza la equivalencia inicial de los dos grupos. El diseño experimental que sigue se ha propuesto precisamente con el objetivo de controlar este efecto. el pretest añade un control adicional sobre esta equivalencia. Puede influir en las respuestas del postest. Frecuente en el campo de los estudios de evaluación.3. no influye en las diferencias de los dos grupos. que puede distorsionar el experimento. Sin embargo. 4. El diseño pretest presenta algunas desventajas.

dentro de los cuales incluyeron a un individuo que fingía ser un sujeto experimental. el investigador nunca podrá saber si las diferencias que obtiene entre los grupos sobre los valores de las variable dependiente se deben a la no equivalencia inicial o al efecto del estímulo. Tras la discusión debía atribuirse una puntuación de popularidad-simpatía al resto del grupo. Como puede verse. Z1 dominantes.6. postest y grupos experimentales. diseño factorial 2x2. La principal ventaja del diseño factorial radica en el hecho de que coloca al investigador en condiciones de estudiar no sólo el efecto aislado de las variables independientes sobre la variable dependiente. Z2 sometido). uno por grupo). dos hombres. pues. X1 X1 R X2 X2 Z1 Z2 Y3 Y4 Z1 Z2 Y1 Y2 Si en cambio la variable independiente Z toma tres valores (dominante. si quisieramos añadir al diseño inicial 2x2 una tercera variable independiente (por ejemplo. se dice que las variables “género” y “comportamiento” presentan un efecto principal (main effect) no significativo. en grupos no equivalentes que difieren entre sí también por otras características. Uno adoptaba el papel de lider otro el papel de sumisión. representa evidentemente un grave menoscabo de la lógica experimental. Se trata de dos variables dicotómicas (X1 hombre. el diseño se convierte en 2x2x2 y los grupos serán ocho. Si inicialmente los grupos no son equivalentes. lo que significa que tenemos dos variables independientes (o factores). X2 mujer. observaciones. la edad también está dicotomizada en “joven” y “adulto”). pero que no emplean la aleatorización para crear comparaciones de las que poder deducir los efectos del tratamiento. pero que era un actor/actriz. Dada la imposibilidad de aislar el efecto del estímulo 54 . El hecho de que el investigador ya no pueda tomar como punto de partida la equivalencia de los grupos antes de su exposición al estímulo. neutro) el diseño deviene en 2 x 3 y se necesitarán 6 grupos (y seis actores. y que puede obtenerse sólo en un diseño factorial como el descrito.Cuatro grupos de discusión. y dos mujeres. cada una de las cuales asume dos valores. Resultado éste que no podría haberse obtenido por dos experimentos separados con una sola variable independiente. Resultado del experimento. además de por el tratamiento cuyos efectos están bajo examen. compuesto cada uno por 5-8 sujetos.2. sumiso. sino que permite estudiar también el efecto de la interacción entre las variables independientes. En términos estadísticos. el diseño experimental se complica rápidamente con el crecimiento del número de las variables independientes y de su número de categorías. mientras que su interacción sí que es altamente significativa. La comparación se basa. hombre y mujer era rechazados por el grupo cuando transgredían los estereotipos ligados al género. actor incluído. La hipótesis de los investigadores era que la puntuación estaba condicionada por los estereotipos sociales relativos a los comportamientos considerados convenientes para los hombres y para las mujeres. En este experimento las variables independientes son dos: género del actor X y su comportamiento Z. Cuasiexperimentos Son experimentos que tienen tratamiento. 4.

en la secuencia temporal. por sus estrictos límites. y no entre grupos. Diseño “antes-después” a un solo grupo Y1 X Y2 Efecto registrado: Y2 – Y1 Si sólo hay un grupo. acusándola de ser una categoría híbrida y confusa.6. Piénsese en todos los programas de evaluación que no disponen de un grupo de control. Entonces podíamos comparar los registros Y2 e Y1 atribuyendo la diferencia al efecto del estímulo. En cualquier caso. por tanto.2. situaciones a las que. y el sucesivo registro de la variable dependiente. si se produce una variación en la evolución de la tendencia de Y entre Y3 e Y4 simultáneamente a la variación de X. se deba no tanto al efecto del estímulo. es improbable que se deba al efecto del pretest 55 . La diferencia respecto al diseño precedente radica en el hecho de que. este diseño experimental es muy importante como sucedáneo del diseño experimental “sólo después” a dos (o más) grupos. de la variación de X en el tiempo y en el mismo grupo. sino las tendencias de Y antes y después del estímulo.2. Al mismo tiempo. Sin embargo. Por tanto. Por ello. mezclándose con el efecto del estímulo. se pueden aplicar diseños experimentales muy próximos a la lógica de los “experimentos verdaderos” y que producen resultados interesantes no alcanzables a través de la investigación basada en el análisis de la covariación. no obstante. se produce una variación de la variable independiente X y se registra si este hecho introduce una variación en la evolución de la tendencia de Y. Por lo tanto. llegados a un cierto punto. 4. Dicho esto. algunos autores llegan a negar legitimidad a la existencia misma de la categoría de los cuasiexperimentos. este diseño compara no ya los valores medios.1. es aconsejable recurrir a este diseño sólo cuando no es posible aplicar otros diseños experimentales o cuasiexperimentales.sino a una tendencia de Y ya en curso. en particular en todas las situaciones en la que los grupos son preconstruidos. En realidad. Es necesario proceder de tal forma que entre las dos observaciones Y1 e Y2 no se produzca otro hecho – además de las variaciones de X – que también pueda influir en Y. para evitar que la diferencia en el valor de Y antes y después de la exposición al estímulo.experimental de todos los demás efectos. Esta vez las dos observaciones se efectúan sobre el mismo grupo. 4. este diseño presenta la ventaja de estar poco perturbado por la influencia del pretest sobre el postest. es necesario que le pretest no influya en el postest. El diseño consiste en una sucesión de registros de la variable dependiente Y.2 Diseños en serie temporal interrumpida Se trata siempre de un diseño sobre un solo grupo. Se trata. no podemos tener un “verdadero experimento”. en el que teníamos dos grupos. el investigador no puede hacer deducciones causales sobre el efecto de la variable independiente sobre la dependiente. en la investigación social es a menudo imposible aleatorizar los sujetos en los grupos. uno expuesto al estímulo y uno no expuesto.6. y poco perturbado también por la concurrencia de acontecimientos externos incontrolados entre dos registros sucesivos. Con respecto al diseño anterior. no es excluye que este tipo de diseño cuasiexperimental pueda proporcionar contribuciones cognoscitivas útiles.

puesto que se trata de efectos presentes en ambos grupos que no influyen en las diferencia entre los dos. realizar el pretest.4.Y3. estaban disminuyendo. Ejemplo: evaluar clases de inglés audiovisual. Se trata de tomar dos grupos. ya no podemos hablar de experimento estamos ante la lógica del análisis de la covariación. Se trata de un diseño aplicable sólo en casos particulares. Existen situaciones de investigación que exentas de aleatorización y manipulación. La presencia del grupo de control elimina los efectos de perturbación debidos a acontecimientos entre el pretest y el postest y a la influencia del pretest sobre el postest. aunque no pueden ser 56 . pero el pretest proporciona informaciones sobre las diferencias preexistentes entre los grupos. Mediados de los 60 en Dinamarca.6.6. pero siempre puede manipular la variable independiente. o a la concurrencia de otros factores desconocidos. sino sobre la variación postest/pretest. y después volver a aplicar el postest a los do grupos. Cuando no puede manipular.3. 4. registrando los incrementos de conocimiento repecto al registrado antes de empezar. por lo que parece aceptable su atribución a una acción causal de X. 4.956. dado que permite que el investigador no trabaje sobre las puntuaciones absolutas de la variable dependiente. Un simple análisis antes-después habría sido engañoso para evaluar el efecto de esta medida sobre los delitos sexuales. La disponibilidad de la serie temporal de los datos con relación a la variable dependiente (tasa de delitos sexuales) permitió aplicar un “diseño a serie temporal interrumpida”.---Y1 Y2 Hemos atribuido el nombre de cuasiexperimentos a aquellas situaciones en las que el investigador no puede asignar al azar los sujetos en los grupos experimentales. Diseño “antes-después” a dos grupos sin asignación causal. en el estudio de los efectos producidos por un cambio normativo determinado. exponer a un grupo al estímulo y no exponer al otro. presentan un diseño que recuerda mucho al de los experimentos. Diseño “ex postfacto” X1 Emparejamiento X2 ----. Se empleó un diseño de este tipo para estudiar el controvertido efecto de la pornografía sobre los delitos sexuales. que indica su origen separado y su no equivalencia.2.2. puesto que éstos ya desde 1. una serie de medidas legislativas de liberalización de la prensa pornográfica condujo a una mayor difusión de ésta. que demostró la existencia efectiva de una contribución positiva a la tendencia de disminución de los delitos. una con la enseñanza innovadora y otra con la tradicional.1. Los dos grupos no son equivalentes. atribuible a la nueva normativa. que resienten sólo en parte el nivel de origen del pretest. Y1 X1 Y2 --------------------Y3 X2 Y4 Efecto registrado: (Y4-Y3) – (Y2 – Y1) Esquema parecido al del epígrafe 6. Dos clases. se les denomina Expostfacto (para remarcar que se basan en hechos ya acaecidos). por ejemplo.2 aunque desaparece la letra R con las flechas que dirigían a los dos grupos que indica la aleatorización y aparece una línea horizontal entre los grupos.

la posibilidad de construir experimentos diferenciados entre sí por un solo elemento. Una de las formas que adopta la reactividad es el efecto del experimentador: las expectativas de quien realiza el experimento. fenómenos específicos que en condiciones naturales no podrían ser estudiados de una forma tan sistemática. estimulando una relación de autoridad innatural diferente a la de la vida real. la historia de la investigación social muestra que se han obtenido importantes avances con el método experimental. una de carácter metodológico: se trata del método de investigación que mejor permite enfrentarse al problema de la relación causal. Sabemos que el error de muestreo y la amplitud de una muestra son inversamente proporcionales. • Artificialidad se divide en dos aspectos: la artificialidad del ambiente y el de la reactividad de los sujetos experimentales. se suelen presentar en los manuales de metodología en el capítulo de experimentos. • La no representatividad. El hecho ya ha acaecido. por motivos de comodidad suelen ser elegidos dentro de un determinado ambiente. 4. confunden y distorsionan. que encubre la señal de los fenómenos menos llamativos. Planteamiento. ya que se inspiran en la lógica experimental tanto en el diseño como en el tratamiento de los datos. Esta limitación conlleva una escasa representatividad de la muestra. Por dos motivos. recordemos la sumisión a la autoridad. se eligen otros sujetos con características lo más parecidas posible a las de este grupo. nos permite alcanzar una conclusiones acerca de la causalidad que no pueden conseguirse a través del análisis de la covariación. y por el ruido de fondo presente en la vida real.incluidos ni en experimentos ni en cuasiexperimentos. El experimento es aplicable sólo a determinados fenómenos y a determinadas situaciones sociales. por la amplitud de la muestra y por los criterios de selección de los sujetos experimentales La primera cuestión surge porque los experimentos sólo pueden realizarse sobre muestras muy reducidas. Artificialidad del ambiente. El otro problema es el de la selección de los sujetos. y se comparan las medias de la variable dependiente en los dos grupos. los sujetos ya han sido expuestos a un estímulo. Desventajas del método experimental en sus aplicaciones a las ciencias sociales bajo dos títulos generales: artificialidad y no representatividad. Hay cuestiones que pueden ser estudiadas sólo con este método. extrayéndolos del flujo de la vida cotidiana. La flexibilidad de este método. Reactividad de los sujetos experimentales. La segunda ventaja se refiere a la naturaleza de los problemas que permite afrontar: el método experimental permite aislar. El objetivo del experimento es la causa-efecto A pesar de todas las desventajas vistas. tiene con ver con el hecho de sentirse observados. Los grupos experimentales no pueden aspirar a ser muestras representativas de la población. pero no expuestos al estímulo. los resultados no son a menudo generalizables a la población total. desarrollándose en un laboratorio.7 VENTAJAS Y LIMITES DEL EXPERIMENTO Ventajas. por la coexistencia de otros factores que los esconden. 57 . influyendo inconscientemente en el comportamiento de los sujetos. comportándose quizá de forma diferente a como lo harían de forma natural.

58 .El experimento es un método de investigación social que se presta muy bien al estudio de problemas específicos.

) Ni pregunta ni respuesta estandarizada.2. Dichas preguntas se plantean directamente a los individuos que constituyen el objeto de la investigación. el entrevistador sabe que en el curso de la entrevista debe tocar el tema del interés por la política pero puede formular las preguntas como considere más oportuno. Pregunta y respuesta estandarizada. Ya Marx en el año 1.1. para conocer la distribución de un número determinado de variables en una población determinada. La interpelación a un individuo consta de dos elementos: la pregunta y la respuesta. 5. poco. Criterio objetivista frente a criterio constructivista 59 . 5. bastante. pero el verdadero salto cualitativo en el ámbito de las técnicas de encuesta se realizó al consolidarse el concepto de representatividad y la introducción de los procedimientos de muestreo. bla.1 La encuesta por muestreo en la investigación social Dos formas de recoger información: observar y preguntar. un modo de obtener informaciones: a) preguntando.880 utilizó el cuestionario. (Si es sobre la condición social de los presos. respuesta libre. por teléfono… el denominador común es la pregunta. La formulación de preguntas suele ser de forma oral. bla. b) a los mismos individuos objeto de la investigación c) que forman parte de una muestra representativa d) mediante un procedimiento estandarizado de cuestionario y e) con el fin de estudiar las relaciones existentes entre las variables. sondeo electoral. Es decir. LA ENCUESTA POR MUESTREO Es la técnica de investigación social cuantitativa más difundida. investigación sobre la afición futbolística. La estrategia de recoger informaciones preguntando directamente a los sujetos implicados en los fenómenos sociales abarca situaciones muy diversas. a todos los sujetos se les plantean las mismas preguntas con la misma formulación. nada) Pregunta estandarizada. los mismos hinchas…) Las preguntas están estandarizadas.La entrevista estructurada . sino que un estudio realizado sobre una muestre oportunamente preseleccionada podría producir resultados igualmente exactos. (P: ¿le gusta la política ? R: mucho. en ocasiones escrita. Todo esto da lugar a tres instrumentos de investigación distintos: . al censo… Por encuesta de muestreo entendemos. Ambas pueden formularse de forma estandarizada o bien su formulación puede ser libre.5. a los presos. cara a cara. el afianzamiento del principio de que. (P: ¿le gusta la política? R: Depende.2 LA ESTANDARIZACIÓN O INVARIACIÓN DEL ESTÍMULO 5.La entrevista libre En este capítulo nos dedicaremos sólo al primer caso.El cuestionario . no era necesario estudiar toda la población. van desde la encuesta periodística al estudio de mercado.

la posición que podríamos definir como constructivista. viejos. 5. ignora que la sociedad es desigual. es decir. no puede dar testimonio de las realidades en las que vive por debajo o por encima del nivel consentido por el cuestionario.Primer dilema es el que contrapone a los que consideran que la realidad social existe fuera del investigador y es plena y objetivamente cognoscible por éste. 60 . el cuestionario y por consiguiente la encuesta por muestreo. que son clasificables y estadarizables. clandestinos… 5. Posición objetivista. considera que existen sino unas leyes como en el mundo físico. y los que ven en el acto mismo de conocer una alteración de la realidad. Dejando fuera a los analfabetos. Enfoque uniformista frente a enfoque individualista Segundo dilema confronta las posiciones que podríamos llamar uniformistas e individualista. sino “construido” o “generado” en la interacción entre el sujeto que estudia y el sujeto estudiado. el dato social puede ser registrado objetivamente. para la cual el dato social no es observado. indigentes. pero quién nos garantiza que la uniformidad de los estímulos corresponde a una uniformidad de los significados. Hay dos. el cuestionario es igual para todos y se administra a todos del mismo modo. conducen hacia el mismo punto: la neutralidad del instrumento de investigación (del que también forma parte el entrevistador). le coloca al nivel del hombre medio. incluso la más ligera modificación en las palabras puede distorsionar la respuesta.2. la relación entrevistado-entrevistador debe estar despersonalizada. si unas uniformidades empíricas. Uniformista. con un procedimiento no muy distinto al de la “observación” en las ciencias naturales y por otra. como si todos los destinatarios estuvieran dotados de igual sensibilidad. En segundo lugar. Limitaciones de un cuestionario o esquema estandarizado de investigación. que se consideran comparables porque todos los entrevistados han sido sometidos a las mismas preguntas y en situaciones de entrevista prácticamente uniformes. no cambiar el orden de las preguntas. la preocupación principal del entrevistador debe ser la de no alterar el estado del objeto estudiado. madurez. la invariación del estímulo. Esto nos lleva a la estandarización del instrumento de investigación. Dirigido a la comparabilidad de las respuestas. Individualista. En el momento en que el investigador elige el instrumento de recogida de las informaciones al que se dedica este capítulo. Según el criterio objetivista. recogido o registrado. hace una elección: la de privilegiar la búsqueda de uniformidad respecto a la búsqueda de la individualidad. en primer lugar. Uniforma al individuo. la búsqueda de lo que tienen en común los individuos y no de lo que les distingue: la elección de limitarse a estudiar ese mínimo común denominador en el comportamiento que puede ser uniformado. el cuestionario obliga al sujeto a un nivel determinado. es decir. es un acontecimiento único. cada acción social. con un lenguaje conductista.2. evitar cualquier cambio. Las soluciones que se dan tanto al primer dilema (despersonalizar la relación entrevistadoentrevistador) como al segundo (estandarizar las preguntas y las respuestas).3 El objetivo del mínimo común denominador El objetivo fundamental de la postura objetivista-uniformista es evidente.2. rapidez. unas regularidades en los fenómenos sociales y en los comportamientos humanos. cada caso.

Analizaremos el problema de la fiabilidad del comportamiento verbal desde dos puntos de vista. pero que por alguna razón se sienten obligados a contestar” y que contestan al azar. Falta de opiniones. ¿El comportamiento verbal es una fuente de exploración fiable de la realidad social?. Si una actitud tiene una fuerte connotación en sentido positivo o negativo en una cultura determinada. Los primeros son personas perfectamente coherentes en sus contestaciones a lo largo del tiempo. por tanto. que sobre algunas de estas temáticas. Es segundo es el de la falta de opiniones (o de las pseudo-opiniones) La deseabilidad social. Los antropólogos han abandonado la idea de que las contestaciones a las preguntas son un dato estable en el estudio del comportamiento humano. En la dinámica de la entrevista se crea una especie de presión por responder por la cual. tras aprender que lo que la gente dice que ha hecho o hará no corresponde al comportamiento efectivo. considerando el “no sé” como de incapacidad mental. Al entrevistado se le presenta una secuencia de afirmaciones y para cada una de ellas se le pregunta si está de acuerdo o en desacuerdo. una operación elemental. un cierto número de entrevistados no haya reflexionado nunca seriamente y que. no tenga una opinión al respecto. El investigador no puede distinguir cuáles de esas respuestas están basadas en opiniones profundamente arraigadas y emotivamente comprometidas y cuáles son simplemente opiniones superficiales. La técnica del cuestionario no es capaz de distinguir las opiniones intensas y estables de aquellas débiles y volubles. comparado a pesar de la individualidad de los sujetos y que puede ser registrado a pesar de la variabilidad de las dinámicas entrevistado-entrevistador. 5. los otros son individuos “sin una opinión real sobre el tema en cuestión. muchos entrevistados eligen al azar una de las respuestas posibles. y su redacción. que en una determinada cultura se da a una actitud o comportamiento individual determinados. Converse notó algunos hechos inexplicables. Es posible. es decir. una pregunta que se refiera a ella puede dar lugar a respuestas fuertemente distorsionadas. como la baja correlación entre las respuestas dadas a la misma pregunta por los mismos individuos en dos encuestas sucesivas.clasificado. 5. Converse acuño el término de non-attitude.4 Fondo y forma de las preguntas Un cuestionario puede parecer una secuencia banal y simple de preguntas. La pregunta estandarizada registra la opinión pero no su intensidad ni su convencimiento. que requiere gran empeño y una gran atención. Estos hechos sugerían que los entrevistados podían clasificarse en dos categorías de personas muy distintas: los estables y los que contestan al azar. 61 .. El primero es el que tiene que ver con la denominada deseabilidad social de las respuestas. Al estudiar los resultados de un panel. el cuestionario es percibido como un test de inteligencia. de una encuesta longitudinal realizada reentrevistando a las mismas personas en momentos sucesivos. es la valoración socialmente compartida.3 LA FIABILIDAD DEL COMPORTAMIENTO VERBAL Hay una segunda objeción de fondo que toca aspectos que tienen que ver con si la encuesta por muestreo es o no empíricamente practicable. pero la formulación de un cuestionario es una labor complicada y difícil. nacidas quizás en el acto de la pregunta misma.

Pero esta forma de proceder tiene un alto coste y no es practicable para grandes muestras. En manos de un buen entrevistador la pregunta abierta llega siempre a un resultado no ambiguo y dentro del marco de referencia deseado por el investigador. Podemos añadir que el primer punto puede ser sustituido para los investigadores noveles por la atenta consulta a los cuestionarios anteriormente empleados por otros investigadores. Son las preguntas más difíciles de formular y sus respuestas pueden estar fácilmente influidas por la forma en que la pregunta se expresa. para hacer posibles las comparaciones y los sucesivos análisis cuantitativos. Los comportamientos son inequívocos y además son empíricamente observables. título académico. En resumen: las respuestas a preguntas abiertas tienen que ser codificables ( o sea.Para la redacción de un buen cuestionario son necesarios: a) la experiencia del investigador. 5. Preguntas relativas a propiedades sociodemográficas básicas. juicios y valores. la espontaneidad de la respuesta. b) el conocimiento de la población a la que se administra el cuestionario. 5.2 Preguntas abiertas y preguntas cerradas. estado civil) La mayoría de estas preguntas se plantean en todas las encuestas por muestreo y para ellas existen formulaciones estándar a las que conviene adaptarse. Preguntas relativas a actitudes. Es una de las primeras decisiones del investigador en el momento de formular una pregunta. un campo más sólido que el anterior. Si bien con algunas variaciones.4. La pregunta cerrada. sentimientos. su clasificación en un número finito y limitado de categorías. valoraciones. si le confiere carácter de pregunta abierta o de preguntas cerradas. A posteriori conlleva un alto grado de arbitrariedad por parte del codificador. Los autores han propuesto diversas clasificaciones al respecto. con la elección de la contestación de entre las opciones propuestas. se registra lo que dice que hace o ha hecho. opiniones. La ventaja es la libertad de expresión.4. Pregunta abierta. si no hay una precodificación. si se quiere llegar a la matriz-datos. 62 . Se refieren a motivaciones. es aquella en la que al entrevistado se le presenta además de la pregunta. en cambio. actitudes y comportamientos Iniciamos el tema con la cuestión de las preguntas. lugar de nacimiento. Nos situamos en el campo de las acciones. edad. profesión. y c) la claridad de las hipótesis de investigación. clase social originaria. estamos todavía a mitad del camino que conduce a la matriz de datos. estandarizadas). Copiar preguntas de otros cuestionarios no es plagio. éstas pueden reconducirse en último término a la distinción entre propiedades sociodemográficas básicas. Descripción de las características sociales básicas del individuo (género. por la manera de plantearse por parte del entrevistador… Pregunta relativas a comportamientos. tendrá que haber una postcodificación.1 Datos sociodemográficos. actitudes y comportamientos. orientaciones. La pregunta abierta es aquella que el investigador plantea dejando plena libertad al entrevistado en la formulación de la respuesta. Mientras en el caso de la pregunta cerrada. ya hemos alcanzado el objetivo final de la encuesta en la investigación cuantitativa: la matriz de datos (clasificación de las respuestas dentro de un esquema estandarizado válido para todos los entrevistados) con la pregunta abierta. un abanico de posibles respuestas de ente las que se le invita a elegir la que considere más apropiada. Es necesaria una fase ulterior la denominada “codificación” de las respuestas: es decir. por su colocación en el cuestionario.

El entrevistado tiende a elegir entre las propuestas. Es. 1. Cuando los sujetos estudiados son varios centenares o miles. 5. accesibles sólo a través de una entrevista en profundidad. aclara al entrevistado cuál es el marco de referencia presupuesto y ofrece el mismo marco a todos los entrevistados. ya que el primero no puede aportar explicaciones. por lo que la pregunta abierta se ha ido abandonando progresivamente en las grandes encuestas de muestreo. etc. b) La pregunta cerrada facilita el recuerdo c) Estimula el análisis y la reflexión.Sencillez en el lenguaje. La pregunta cerrada presenta algunas ventajas. a) la pregunta cerrada ofrece a todos el mismo marco de referencia. se impone la opción de la estandarización del instrumento de investigación. es decir. c) Las respuestas propuestas no tienen el mismo significado para todos Por lo dicho aquí. como veremos más adelante. pues. Una misma pregunta puede tener interpretaciones distintas. 63 . a la sintaxis y al contenido mismo de las preguntas. empleando las mismas estructuras de significado en contextos diferentes con las mismas reglas interpretativas?. cuando los entrevistados tienen un nivel cultural muy bajo y están poco habituados al lenguaje abstracto de las respuestas precodificadas. Las encuestas por muestreo sobre grandes muestras se realizan actualmente con cuestionarios de preguntas cerradas..¿Cómo podemos – se pregunta Cicourel – controlar que los entrevistadores utilicen todos el mismo marco teórico de referencia e interpreten cada hecho. a través de sus respuestas preestablecidas. y la investigación utiliza un gran número de entrevistadores. cuando se trata de cuestiones delicadas.5 Formulación de preguntas La manera en que se formula la pregunta puede influir en la respuesta. la pregunta cerrada. En algunos casos la pregunta cerrada no es practicable: cuando las posibles alternativas de respuesta no están perfectamente claras para el investigador. La táctica de añadir al final de la lista la opción “otros” es necesaria. a) el lenguaje del cuestionario debe adecuarse a las características de la muestra estudiada. la pregunta cerrada implica una condición absolutamente esencial: que todas las alternativas posibles están presentes en el abanico de respuestas ofrecidas al entrevistado. por motivos esencialmente prácticos de costes y de factibilidad. cuando éstas son demasiado numerosas o tratan de cuestiones demasiado complejas. de forma idéntica. incluso pequeños cambios durante la expresión verbal de las preguntas pueden producir variaciones sensibles en las respuestas. b) el cuestionario autocumplimentado exige un lenguaje más sencillo que el cuestionario con entrevistador. Tres limitaciones: a) Deja fuera todas las alternativas de respuesta que el entrevistador no ha previsto. para investigaciones sobre muestras de dimensiones reducidas. dispersos en un amplio territorio. persona entrevistada. Se mantiene vigente. Sugerencias ligadas al lenguaje . pero poco eficaz. b) Las alternativas propuestas por la pregunta cerrada influyen en las contestaciones.

se recomienda que no sean más de cinco. también puede hacerse una pregunta que implique un conocimiento específico. 20. sobre todo si es negativo 7. 16. Más frecuente en personas menos instruidas. Evitarlos. Número de las alternativas de respuesta. dado que a) facilita el recuerdo. 12. y también hace más difícil el malentendido. como aquellas sobre cuestiones queno estén lo bastante articuladas. Preguntas embarazosas. c) favorece una respuesta más articulada. Comportamientos asumidos.Palabras con una fuerte connotación emotiva. Precisión en el tiempo. La concreción del caso facilita en cambio la reflexión. Preguntas tendenciosas. el entrevistador debe poner el acento e su profesionalidad científica. Descartado. Deseabilidad social de las respuestas. Las preguntas deben construirse de tal forma que produzcan diferencias en las respuestas del total de los entrevistados. Las actitudes son por naturaleza mucho más imprecisas. Es pues una buena regla. 15. 14. y muchos darán repuestas al azar antes que pedir explicaciones. No se puede preguntar a quién votó si antes no hemos preguntado si votó. Deben ser concisas. Además de preguntar si se mantiene al corriente de la política (actitud) y si lee los periódicos (comportamiento). 9. Intensidad de las actitudes. b)da más tiempo al entrevistado para pensar. 3. Expresión en jerga. si se presentan oralmente. 2. Concreción – abstracción. puesto que los entrevistados sienten vergüenza a la hora de admitir que no entienden. puede irritar al entrevistado. Utilizar puntos de referencia temporales relativos a acontecimientos más relevantes que el estudiado. La precisión en un periodo de tiempo definido facilita el recuerdo y hace más difícil la superposición del comportamiento ideal al real. Extensión de las preguntas. la identificación con el problema real. Sintaxis lineal y simple 8. Establecer límites temporales al recuerdo. La pregunta abstracta puede dar lugar con facilidad a respuestas genéricas o normativas. Falta de opinión y “no sé”. ambiguas y expuestas a respuestas normativas que los comportamientos. Evitar el uso de términos ambiguos. Comportamientos y actitudes. Deben evitarse tanto las preguntas explicitamente múltiples. O personas que por pereza no se terminan de leer las baterías de preguntas y contestan siempre el “bastante de acuerdo”. o superficiales. 18. la extensión de la respuesta está directamente relacionada con la extensión de la pregunta y. Definiciones ambiguas. Tendencia a elegir las respuestas que expresen acuerdo a dar contestaciones afirmativas más que negativas. Preguntas sintácticamente complejas. No pueden ser demasiado numerosas. cuando el objeto de la pregunta lo permite. 6. 10. 5. 4. aunque cuando se trata de cuestiones complicadas puede ser preferible la pregunta más larga. 19. 17. El registro de la intensidad requiere una profundización mediante ulteriores preguntas. Las consideraciones son similares a las del punto anterior. Preguntas con respuesta no unívoca. Efecto memoria. 64 . Hay cuestiones delicadas que son extremadamente difíciles de investigar con el instrumento del cuestionario. y además.c) incluso en presencia de un entrevistador tampoco hay que contar con sus intervenciones explicativas. Preguntas no discriminantes. Deben evitarse 11. 13. debería estudiarse a través de preguntas abiertas. centrar la pregunta sobre un comportamiento en lugar de quedarse en el ámbito de la opinión. Aquiescencia.

a la que el entrevistado puede contestar independientemente de las otras preguntas. como las relativas a las características sociodemográficas. 5. Extensión del cuestionario en torno a los 45 minutos en cara a cara y sobre los 25 minutos si es telefónica. 65 . El segundo criterio a tener en cuenta tiene que ver con el interés y el cansancio del entrevistado. Hay que decir que esta dependencia es sobre todo relevante en lo que se denomina “análisis de una variable”. para centrarse progresivamente en los aspectos más específicos. La relación es asimétrica. son las baterías de preguntas y tiene como objetivo: a) ahorrar espacio y tiempo b) facilitar la comprensión del mecanismo de respuesta c) mejorar la validez de la respuesta d) permitir que el investigador. se recomienda poner las preguntas más complicadas en las partes centrales de la entrevista. Cuando el comportamiento a estudiar se refiere no sólo al pasado. según la técnica denominada “de embudo” que consiste en formular primero preguntas amplias. Éste es un requisito básico de cientificidad para esta técnica de investigación social. Un tercer criterio es el de la secuencialidad de la entrevista. Es importante distinguir entre el caso en que se formula en términos absolutos y aquel en que se formula en términos relativos. el entrevistador que tiene experiencia y el entrevistado que no sabe porqué es interrogado. en el sentido de que cada elemento de la batería es una entidad autosuficiente. el cuestionario debe estar estructurado de tal manera que se mantenga viva la atención en todo momento. en cada presentación de datos extraídos de un cuestionario. a la mitad del cuestionario preguntas potencialmente embarazosas. Orden de la pregunta. que fluya la entrevista como una conversación natural. el investigador aporte también la formulación exácta de la pregunta que los ha producido. 21. el hecho de que siempre. En conclusión. sigue siendo perfectamente válida la sugerencia que hemos avanzado al principio de este tema. a veces se pueden utilizar diarios o instrumentos análogos. El efecto contaminación. En el orden de las preguntas hay que seguir el paso de preguntas generales a particulares. se ha demostrado que la atención y el interés del entrevistado siguen una curva creciente hasta la mitad de la entrevista y después decrece.6 BATERIA DE PREGUNTAS Es frecuente el caso de preguntas que al ser formuladas todas del mismo modo. se presentan al entrevistado en un único bloque. La primera parte del cuestionario consistirá en que el entrevistado se sienta a gusto y hacerle entender cómo funcionará la entrevista. para evitar basarnos en el recuerdo. Conviene tener en cuenta ante todo la dinámica de la relación entre entrevistado y entrevistador.Presentar al entrevistado listas de posibles respuestas. al principio preguntas fáciles. consideradas de forma aislada. en ciertos casos la respuesta a una pregunta puede estar influida por las preguntas que la preceden. en la fase del análisis de los datos pueda construir índices sintéticos que resuman en una única puntuación las repuestas dadas a las diversas preguntas de la batería. dejando para el final las más tediosas pero que no requieren una reflexión. La primera tarea pues será tranquilizar al entrevistado. hay quien sugiere colocarlas al final. sino también al presente y al futuro. en la lectura de los porcentajes de respuesta a cada una de las preguntas. Las respuestas están fuertemente influenciadas por la manera en que se formulan las preguntas. es decir. los temas tratados en el cuestionario se desarrollen en un orden lógico. En los ejemplos anteriores cada una de las preguntas de la batería se formulaba en términos absolutos.

en cambio. Para cada uno de ellos.7. usted debe decirme si lo considera un problema muy importante. a medida que se los lea. la desconfianza hacia los extraños a causa de la creciente criminalidad… Junto a estas dos formas siempre ha habido espacio para los cuestionario autocumplimentados. La pregunta que implica una comparación (es decir. será conveniente una especial vigilancia por parte del investigador y del entrevistador al formular y al proponer este tipo de pregunta. 5. la principal ventaja de las baterías de preguntas. apta para operacionalizar esa particular actitud a examen. conlleva también el mayor peligro de este tipo de formulación. puesto que permitir diferenciar sus distintas posturas. aquella que se formula en términos relativos) es a menudo mejor a efectos de la valoración del punto de vista del entrevistado. la técnica más importante la constituye el cuestionario postal). En principio lo más común eran las entrevistas cara a cara pero éstas fueron sustituidas en los años ochenta por las entrevistas telefónicas. 5. la saturación de los ciudadanos respecto a cualquier tipo de entrevista.7 MODALIDADES DE RECOGIDA DE DATOS Tres modos de administrar un cuestionario: la entrevista cara a cara. de su actuación. En el caso de las escalas. de los cuatro motivos antes mencionados que justifican la organización de las preguntas en batería. la entrevista telefónica y el cuestionario autocumplimentado (dentro de éste. debido a el rápido incremento del coste de las entrevistas. El tono insistente de la batería y la repetición del esquema de respuesta pueden producir fácilmente dos de los errores de repuesta más comunes: el de las preguntas dadas al azar (seudeopiniones) y el de las respuestas mecánicamente iguales entre sí (response set). O bien se le puede pedir que coloque a los políticos de las lista por orden de preferencia.Una pregunta en términos relativos es. Por ejempolo. el más importante es el cuarto: se plantean al entrevistado baterías de preguntas precisamente con el objetivo de condensar las respuestas en una puntuación única. Por ejemplo se le puede presentar al entrevistado una lista de políticos. constituida por la posibilidad de comprimir en poco tiempo y en poco espacio una serie de múltiples estímulos. aquella en la que la respuesta nace de una comparación con las otras respuestas posibles. “ a continuación le voy a leer…. Cuáles considera usted que son los tres más importantes”. depende gran parte de la calidad de la entrevista. que se aplica en particular en el ámbito de la denominada “medición de las actitudes”. “a continuación le voy a leer una serie de problemas de nuestra sociedad. Términos absolutos. Un procedimiento que en la investigación social hace especialmente uso de las baterías es el de la técnica de las escalas. pidiéndole que haga su evaluación de cada uno de ellos (puntuar de 1 a 10) éstas son preguntas en términos absolutos. o que elija a los tres que más le atraigan: y éstas son preguntas en términos relativos. Por tanto. de la manera que plantea y conduce la relación con el entrevistado.1 Entrevista cara a cara El entrevistador asume una posición fundamental. En conclusión. importante. consideremos la pregunta sobre los “problemas más importantes del país”. poco importante o nada importante” Términos relativos. 66 .

Facilita enormemente el trabajo de la preparación de los entrevistadores y su supervisión. Presenta menos resistencias a la concesión de la entrevista y mayor garantía de anonimato. Una actitud pasiva. la modalidad más difundida de administración de los cuestionarios.7. Una persona con sentido común. Con el mismo coste cubre también a los entrevistados localizados en las áreas periféricas del país. Permite utilizar directamente el ordenador en la fase de recogida de datos. que se ubica claramente dentro de la corriente objetivista. Motivaciones. aburrida y desmotivada del entrevistador sólo puede repercutir negativamente en el entrevistado. a través del tono de voz del entrevistador. y de que en el mundo existe toda una amplia gama de opiniones y de comportamientos. deberán distribuirse instrucciones escritas y deberán preverse encuentros preparatorios preliminares. de sus gestos faciales. Ante todo al entrevistador se le debe informar del tipo de interacción existente entre él mismo y el entrevistado. Desventajas: 67 . todos con idéntica legitimidad. Preparación. estandarizando su comportamiento y limitando el margen de discrecionalidad mediante una fase de formación. Entrevistas Telefónicas En los últimos años se ha producido un boom de entrevistas telefónica. Deberá tener una actitud amistosa pero a la vez neutral.La técnica que estamos presentado es la del cuestionario estandarizado. En todo caso. Cuál es la disposición psicológica del entrevistador hacia su trabajo y hacia la entrevista en cuestión. ama de casa y de clase media. Costes muy inferiores a los de la entrevista cara a cara. que logre transmitir implícitamente al entrevistado la idea de que no hay respuestas correctas o equivocadas. Expectativas. de los mecanismos de aquiescencia y de influencia subliminal que suelen crearse. Rasgos que deben presentar los entrevistadores: Características. Un perfil ideal lo presenta una mujer casada de mediana edad. orientada a una permisividad. Las expectativas se transmiten a menudo de forma inconsciente en la dinámica de la entrevista. El problema es el de reducir el efecto del entrevistador. encuentros de control durante la encuesta. para limitar su variabilidad subjetiva e interpretativa y evitar que se den indicaciones discordantes. En investigaciones de gran magnitud el entrevistador debe inhibirse de cualquier comportamiento que pueda influir en el entrevistado. sino que se dedique tiempo y relevancia considerable también a la exposición de los objetivos de la investigación 5.2. De ahí que en los encuentros preliminares de instrucción para los entrevistadores no se traten sólo las cuestiones prácticas. Se hacen necesarias instrucciones detalladas sobre cómo debe comportarse en estos casos. Las ventajas se resumen en los siguientes punto: Gran rapidez de realización. énfasis al leer las preguntas o las alternativas de respuestas. diplomada. así como la intervención de supervisores a los que los entrevistadores puedan dirigirse en caso de necesidad.

la que se hace en una clase de estudiantes. Podemos distinguir dos casos fundamentales de autocumplimentación : la encuesta de grupo y la individual. en ella es necesario diferenciar entre situaciones con y sin vínculos sobre la devolución del cuestionario rellenado.El entrevistado se siente menos implicado en la entrevista La relación con el entrevistado se deteriora antes (debe ser mucho más corta que un cara a cara) Resulta imposible emplear en el curso de la entrevista material visual. en ella se reduden en gran medida las dos limitaciones recordadas antes: la presencia de una persona encargada durante la cumplimentación. De todas las limitaciones.3. convierte este instrumento en muy adecuado para estudios a gran escala. 5. La primera ventaja es el enorme ahorro en los costes de investigación. sin que haya un entrevistador. la principal limitación es que no lo rellena el entrevistador. hace menos probables los errores más burdos. 68 .7. Cuestionarios autocumplimentados Es el cuestionario que el sujeto rellena solo. por ejemplo. Un caso de devolución vinculada es. La presión por responder (sobre el entrevistado) y la ansiedad por el correr del tiempo (en el entrevistador) condicionan enormemente la dinámica de la entrevista telefónica y justifican la opinión generalizada de que las respuestas dadas por teléfono son más superficiales que las obtenidas en una entrevista directa. La encuesta individual. La entrevista telefónica obliga a la simplificación de las cuestiones y de las problemáticas. El hecho de estar obligados a mantenernos en la superficie. además el hecho de que se controle que todos los cuestionarios repartidos sean rellenados evita el riesgo de la autoselección. disponible para las aclaraciones. y exige preguntas cortas y respuestas con un reducido número de alternativas. De esta forma se resuelven los errores de cumplimentación y la autoselección también se evita. La encuesta de grupo. Por otro lado su instantaneidad. Esta técnica de recogida de datos no ofrece ahorros extraordinarios respecto al procedimiento de la entrevista cara a cara. el hecho de que se puedan acumular en una única encuesta temas dispares y el consiguiente abaratamiento de los costes. persona instruida para esta tarea. el del censo. mientras que en la cara a cara una buena entrevistadora pueden conseguir con paciente insistencia que les reciba incluso una anciana indecisa. El entrevistador no puede recoger datos no verbales Algunos sectores sociales más marginales no tienen teléfono Los ancianos y las personas con título académico inferior suelen estar muy subrepresentadas en la entrevista telefónica. La limitación del tiempo disponible obliga a una simplificación de los interrogantes. Por otra parte la ausencia de un contacto personal en la entrevista telefónica hace más formal la relación. de no poder hacer entrevistas “largas” o profundizar demasiado en los temas. hace que este instrumento resulte poco adecuado cuando la investigación requiere una información detallada. Una segunda limitación radica en la autoselección de los que contestan. no podemos contar con la certeza de que no hay errores de cumplimentación. las más graves son la primera (falta de contacto) y la última (presión por el tiempo). la inmediatez con la que se obtienen los resultados y se pueden alcanzar grandes muestras de la población.

mejor resultado un segmento específico Tipo de solicitud. que puede guiar. Babbie clasifica de adecuada una tasa del 50%. Tanto en los cuestionarios telefónicos como autocumplimentados es necesario reducir al mínimo las preguntas abiertas. Ventajas: Ahorros en los costes Mayor flexibilidad para contestar por parte del entrevistado Mayor garantía de anonimato respecto a la entrevista cara a cara Ausencia de distorsiones debidas al entrevistador Accesibilidad a entrevistados residentes en zonas muy distantes del centro de recogida de datos o aisladas Desventajas Bajo porcentaje de respuestas Distorsión de la muestra debido a la autoselección Nivel académico de la población estudiada: debe ser medio-alto. 5. el cuestionario a rellenar y un sobre para la devolución con franqueo a cargo del remitente.Pasando por último.4. Características de los entrevistados. al caso de la cumplimentación individual sin vínculos con la devolución del cuestionario. Extensión del cuestionario. En el cuestionario autocumplimentado la ausencia del entrevistador excluye uno de los requisitos previos de la pregunta abierta: en efectos. el caso que queremos tratar con cierta atención es el del cuestionario postal. El problema principal de esta técnica lo representan las devoluciones de los cuestionarios. adjuntando una carta de presentación de la investigación. a) Envio del cuestionario con carta de acompañamiento b) Envio de la carta de solicitud c) una segunda carta de solicitud con una copia del cuestionario y d) llamada telefónica de solicitud. que son muy inferiores a los de la entrevista cara a cara. ésta tiene sentido en una relación dinámica con el entrevistador. Consiste en enviar por correo el cuestionario a una lista de nombres que representan a la población estudiada. La tasa de éxito repecto a las contestaciones depende de varios factores. El más completo consta de cuatro momentos. Entrevistas computarizadas (electrónicas) Abordaremos muy brevemente las entrevistas que utilizan el ordenador en la fase de recogida de datos. podemos mencionar cuatro: Institución que patrocina la investigación. familiaridad con la comunicación escrita Falta de controles sobre la cumplimentación Imposibilidad en cuestionarios complejos Extensión del cuestionario: no puede superar ciertos límites. 69 . buena una del 60% y nuy buena una del 70% o más. estimular y grabar.7. no es fácil superar el 50%.

El entrevistado mismo lee las preguntas en la pantalla y escribe las respuestas en el teclado. El pre-test. Un primer encuentro entre el equipo de investigación y los entrevistadores. se añade otra ventaja importante: la posibilidad de efectuar encuestas longitudinales. El estudio exploratorio.8 ORGANIZACIÓN DE LA RECOGIDA DE DATOS Fases que preceden a la recogida de datos mediante encuesta: las entrevistas exploratorias preliminares. con la que se conoce el pretest. Teleentrevista. etc. A este encuenttro le seguirán las entrevistas de prueba. por ello se prevé una especie de ensayo general. el ordenador pasa a ser un instrumento dinámico de interacción entre el centro de recogida de datos y el sujeto entrevistados. Los investigadores –según Schuman y Presser – deberían comenzar con entrevistas de preguntas abiertas y utilizar sus respuestas para construir las alternativas de las preguntas cerradas. se contará con supervisores que tengan la función tanto de asesoramiento como de control. Gracias a la posibilidad del ordenador de gestionar la entrevista según una programación previa. Es indispensable identificar las posibles modificaciones a realizar antes del inicio de la auténtica recogida de datos. por parte de una empresa de sondeos. de la dotación de un ordenador portátil para cada entrevistador puede amortizarse rápidamente con el ahorro en las fase de codificación e introducción de los datos antes mencionados. lee las preguntas en un ordenador personal portátil y transcribe las respuestas en el teclado. en lugar de disponer del cuestionario en un soporte de papel. Después de la formulación del cuestionario en su versión definitiva comenzará la encuesta verdadera. El entrevistador. encuestas repetidas en el tiempo a los mismos sujetos. Simultáneamente a la encuesta. Después se procede a la redacción del cuestionario. En su presentación el entrevistador deberá preocuparse por dejar claro: a) quién ha encargado la investigación b) cuáles son sus objetivos c) por 70 . La preparación y la supervisión de los entrevistadores. La inversión inicial. La ventaja económica más evidente de esta técnica radica en la eliminación de la figura del entrevistador. Cuando el cuestionario está listo en una versión casi definitiva. Las limitaciones de los cuestionarios autocumplimentados y el de las encuestas longitudinales (saber que le están entrevistando a lo largo del tiempo puede alterar el comportamiento del sujeto estudiado). Son determinantes la forma en que se presenta el entrevistador. Desaparecen las fases de codificación y de introducción de datos. Problemas. El contacto inicial con los sujetos entrevistados. el investigador debe conocer perfectamente el problema objeto de estudio antes de empezar a redactar las preguntas. Para poder formular las preguntas adecuadas. los rechazos. una de las finalidades del pretest es ver si las preguntas y respuestas son las adecuadas.Capi. con el objetivo de presentar la investigación. la preparación de los entrevistadores y el contacto inicial con los sujetos que van a entrevistarse. el entrevistador puede transmitir por módem al final de la jornada de trabajo su archivo de entrevistas al centro de recogida de datos. 5. la prueba del cuestionario. el tiempo que dura. describir su diseño e ilustrar detalladamente el instrumento de investigación. es decir. Si se modifica el pretest debe probarse de nuevo. se añade la ventaja de agilización en el uso de cuestionarios complejos. tanto en términos de apariencia exterior como de motivaciones que expone. tras lo cual se celebrará un segundo encuentro para discutir sobre el funcionamiento del instrumento. se abre la fase de prueba.

Ahorro sobre los costes de investigación. La falta de control sobre las fases de la recogida de los datos puede colocar la investigador en la imposibilidad de valorar la calidad de los datos. Análisis secundario. a partir de los resultados de los estudios y no a partir de los datos. En primer lugar. Limitaciones. a viejos interrogantes. 5. rigor científico. 71 . que hace hoy fácilmente accesible y utilizables bases de datos recogidas en cualquier parte del mundo. Hemos presentado el caso en el que el mismo investigador: a) produce los datos y b) los analiza al mismo tiempo. integración y síntesis de estudios que tienen un mismo objeto de análisis. así como las encuestas repetidas a lo largo de tiempo. Además han surgido nuevas técnicas de elaboración estadística que permiten responder hoy en día.qué nos dirigimos precisamente a él d) resaltar la importancia de su colaboración. Pueden producir investigaciones hechas a partir de los datos disponibles en lugar de hipótesis teóricas previas. podrían decir. Ventajas. Metaanálisis. Es una propuesta que se ha consolidado en los últimos años en los países en los que la investigación social está más desarrollada y ha producido ya un cuerpo muy amplio de logros empíricos que plantea con urgencia el problema de nuevas formas de síntesis. La argumentación para ganarse al entrevistado es la del anonimato. recoge los datos y después los analiza. Puede que ya no sean visibles eventuales errores cometidos en la fase de memorización o de tratamiento de los datos. no es el único posible. con nuevos instrumentos de análisis. así como e) darle seguridad sobre el anonimato de sus respuestas. es una investigación realizada sobre datos de encuesta por muestreo recogidos procedentemente y disponibles en la forma de la matriz de datos original. Hasta el momento se han desarrollado dos tendencias.1. Durante varias décadas la investigación social ha avanzado según el modelo tradicional del investigador que plantea el problema. Se entiende por metaanálisis un método de selección. Este hecho ha sido favorecido por el desarrollo de la informática. porque normalmente el análisis de los datos se limita a una parte de los que éstos. formula el diseño de la investigación. en su conjunto. cada vez son más frecuentes las investigaciones realizadas sobre bases de datos preexistentes. posibilidad de realizar estudios de gran envergadura con pocos recursos.9 ANÁLISIS SECUNDARIO Y ENCUESTAS REPETIDAS EN EL TIEMPO El recorrido de la encuesta por muestreo que se ha presentado hasta el momento. En segundo lugar. otros dos elementos son la institución que encarga la encuesta y la figura del entrevistado.9. se ha hecho evidente que investigaciones efectuadas en el pasado ofrecen aún amplios márgenes para nuevas y originales profundizaciones. Análisis secundario Es posible hacer una investigación original con datos ya recogidos por otros. En la actualidad. que a medida que pasa el tiempo va formulando nuevos interrogantes. 5. Y ello por varios motivos. La comunidad científica también se ha organizado promoviendo agencias que reunen recursos para esta fase tan cara y que luego ponen los datos al servicio de los investigadores. Por una parte. por los continuos desarrollos teóricos de cada disciplina.

Debe cumplirse además la condición de que dichas muestras sean comparables entre sí. Un estudio efectivo debería repetirse durante décadas por eso se confian estos estudios a instituciones permanentes. o bien para responder a nuevos interrogantes con viejos datos. pero no sobre los mismos sujetos.9.1 Estudios transversales 72 . la única forma de efectuar un estudio longitudinal. reducción del tamaño de la muestra que se registra en cada nueva oleada. consistentes en registrar las mismas informaciones en momentos temporales diferentes. 5. El metaanálisis. como en el tiempo. 5. evitando entrevistar a las mismas personas. (panel en inglés). así como recoger la variación en el tiempo de informaciones procedentes de la misma fuente. para asegurar que las posibles diferencias surgidas entre las diversas encuestas se deban a cambios efectivos en la población y no a variaciones en la composición de la muestra. La repetición de la recogida de datos sobre los mismos sujetos no representa. El problema general de todos los diseños de investigación que incluyen la variable tiempo radica en su coste. ver cómo varían éstas con el paso de los años. sin embargo. 5. Encuestas transversales repetidas. repitiendo en el tiempo el registro de sus opiniones políticas. es una vía para incluir el factor tiempo en la indagación. El metaanálisis aplica procedimientos estadísticos para llegar a síntesis de los resultados de las investigaciones consideradas. Plantean algunos problemas específicos. La mortalidad de la muestra. es un “análisis del análisis”. Otra posibilidad la ofrece la conexión de base de datos censales y administrativos. con el fin de llegar a una integración de los resultados. sino en distintas muestras de individuos. Tenemos pues la encuesta longitudinal. Por ejemplo si queremos estudiar la relación existente entre el conservadurismo político y edad. que consiste en una encuesta transversal normal en la que a los sujetos se les plantea. Otra solución la constituye la encuesta (transversal) retrospectiva. sin embargo. consistente en unir datos individuales de fuentes distintas. de este modo se pueden relacionar informaciones individuales de distintas fuentes registradas en tiempos distintos.2. o podemos estudiar a lo largo del tiempo una muestra constituida siempre por los mismos sujetos.El análisis primero es le análisis original de los datos de una investigación. como al hablar de experimentos. es el análisis estadístico de una amplia colección de resultados derivados de estudios sobre los individuos.10 BASES DE DATOS EN ESPAÑA Y EN EL EXTRANJERO. (encuestas del CIS).10. podemos registrar el conservadurismo político de una muestra de sujetos de distintas edades y ver cómo varía al variar la edad. El primer tipo son estudios transversales y el segundo tipo estudios longitudinales. una serie de preguntas relativas a su pasado. son las encuestas (transversales) repetidas. Encuestas repetidas en el tiempo Tanto al introducir el concepto de variable. el análisis secundario es el reanálisis de los datos para responder a las preguntas originales con mejores técnicas estadísticas. en cambio. cuando la indagación se repite en el tiempo sobre los mismos sujetos. hemos apuntado el hecho de que una variable puede “variar” tanto entre los casos.

se han llevado a cabo también diversas encuestas nacionales de salud de satisfacción del usuario con los servicios sanitarios. durante cuatro meses adicionales. En el contexto latinoamericano. cabe mencionar la Encuesta sobre la población activa. que se realiza anualmente en 17 países de América Latina.996. Otro ámbito de reciente aplicación. facilitan datos individuales sobre participación política. A través de la colaboración con el CIS. son entrevistados de nuevo. El Instituto Nacional de Estadística. Entre las encuestas. las reformas sociales. es otra institución pública que dispone de datos individuales. En el ámbito sanitario. la desigualdad y la marginación social. desde 1. percepciones y opiniones sobre líderes y grupos políticos o de evaluación de 73 . es una de las encuestas transversales repetidas de referencia internacional. aunque a menudo considerados en la categoría de estadísticas oficiales. son también una rica fuente de datos individuales. Entre los numerosos estudios existen diversas series de encuestras transversales de tipo electoral. valores y actitudes sociales y políticas. esta encuesta también se produce en España. desigualdad de género.990 a 1. Las series del American National Election Study ( ANES) que se inició en 1.960. ha publicado también cinco informes sociológicos sobre la situación social en España. Los barómetros se realizan con una periodicidad mensual o bimensual y recogen información sobre aspectos políticos. aunque su finalidad principal sea la actividad estadística pública y la difusión de datos estadísticos. género o desigualdad territorial. distribución de la riqueza. Los censos longitudinales que se realizan cada 10 años en Estados Unidos. además otras series monográficas sobre la pobreza. Desde 1. de 1. La Fundación Foessa que se creó en 1. económicos y coyunturales. Los datos de estos paneles rotativos son tratados normalmente como estudios transversales repetidos. y temas relacionados con el medio ambiente.600 estudios.En España el Centro de Investigaciones Sociológicas (CIS) es uno de los principales organismos públicos dedicado a la producción de estudios sobre la realidad social y política de España.965 con el patrocinio principal de Cáritas. en este caso microdatos. el Latinobarómetro. es el relacionado con las cuestiones de defensa y el ejército.964. El Centro de Investigaciones sobre la Realidad Social. después de un paréntesis de ocho meses. preelectorales y postelectorales. la Oficina del Censo ha producido las IPUMS en consonancia con sus esfuerzos de difusión de los datos. economía. y del que se disponen datos individuales transversales. los cambios de valores. La CPDS utiliza un diseño de paneles rotativos que se caracteriza por una muestra de hogares entrevistados durante cuatro meses consecutivos y. los llamados barómetros de opinión pública. Se trata de ficheros ASCII con estructura de campos que recogen para cada registro individual de la encuesta los valores que toma cada variable. políticas sociales. cultura y participación política.948. que es trimestral y está dirigida a las unidades familiares la hace el INE desde 1. Otra serie de microdatos producida por la oficina censal de los EEUU es cl Current Population Survey (CPS) se utiliza extensamente para el estudio de tendencias. realizó encuestas de opinión sobre diversos temas sociopolíticos y para todo el territorio español. Los temas principales de estos informes sociológicos son la situación económica y política. como son las encuestas. Un ejemplo de ello son las muestras de microdatos integrados de uso público. de cultura política o las de coyuntura política y social. integración y pactos comerciales.963 ha realizado más de 1. Los microdatos son los ficheros que contienen los datos individuales de una estadística. El cuestionario recoge preguntas de temas variados como: democracia e instituciones políticas.

las relaciones interraciales. la familia. la Fundación Jaume Bofill. la religión o la moral. de tipo privado. Las entrevistas personales se realizan cada año a cerca de 6. con información sobre cada trabajo específico. Fue diseñada para investigar los factores determinantes de los ingresos familiares. La cuarta ola se realizó entre 1. se inició en 1. la educación. Con la intención de medir el grado de apoyo y las actitudes públicas hacia el Mercado Común Europeo y las instituciones comunitarias. El tamaño de las muestras de estos estudios oscila entre 1.995-1. centradas únicamente en el ámbito electoral y de pocas oleadas de seguimiento. la religión. es seguida a lo largo de su vida hasta que exista un cambio en la composición del hogar.990 y 2. La Encuesta Mundial de valores se realizó en 10 países de Europa Occidental y repetida en otros 12 países en la primera ola entre 1.990-1. las relaciones sexuales.981 y 1. atributos y comportamientos sociales y políticos de los ciudadanos europeos.000 familias. el Eurobarómetro toca temas variados.968 entrevistando a una muestra de 4. Otro proyecto europeo de estudios transversales que está en la actualidad en su etapa inicial es la Encuesta Social Europea (ESS). y también incluyen variables soicodemográficas como la edad. El ampliio cuestionario de la GSS incluye aspectos como el empleo. el género. son también recopilados bajo el mismo formato de event history. es otra encuesta transversal que se repite en el tiempo y que incluye España. La encuesta se repitió y fue ampliando el número de países en 1. como posibles cambios en el estado civil. Las series del Eurobarómetro.970 se lanzó una serie de encuestas que con el tiempo se han ido ampliando tanto por sus objetivos temáticos como por la cantidad de países incluidos en el proyecto. A escala autonómica. La encuesta mundial de valores. Entre los estudios del CIS existen algunas series de encuestas longitudinales. la ocupación. está realizando un estudio panel sobre las desigualdades sociales en Cataluña.983.política públicas. entre ellos España. Las encuestas longitudinales empezaron en EEUU en el año 1.993 y otra vez en 1.000 y 2. la ocupación laboral y el nivel educativo. 74 . han ido creciendo en número de países hasta cubrir los 15 estados miembros de la Unión Europea.2 Estudios longitudinales La experiencia en España es escasa debido al alto coste tanto económico como organizativo.972 con una periodicidad anual o bianual. la fertilidad. en 1. el origen étnico. es otro ejemplo de estudio longitudinal se realiza en 12 países de la UE.000. o al subsidio de paro.800 unidades familiares se caracteriza por una sobrerrepresentación de las familias con bajos ingresos. trayectorias laborales e ingresos ayudas familiares o de amigos y caracteríticas sociodemográficas. Otros datos. de 30 años de duración. Los temas son variados. el acceso a las ayudas de asistencia pública. es un proyecto comparado que se llevará a cabo cada dos años en 24 países europeos. se realizan entrevistas cada dos años. 5. e incluye preguntas sobre actitudes y comportamientos.10.966. Posiblemente una de las encuestas sociales más conocida es la General Social Servey (GSS) que realiza en EEUU desde 1.997. El Panel de Hogares de la UE.500 entrevistados. Panel study of income dynamics. Los datos de estas encuestas reflejan la fecha de inicio y salida de las historias laborales de cada individuo. entre ellos España y que analiza el cambio de la continuidad de las actitudes.

5. pero contrata la recogida de los datos a una empresa de sondeos. información sobre sus padres.988 y su evolución en los estudios. la experiencia militar. la difusión de la investigación social que impone muestras cada vez más numerosas.000 estudiantes de último curso de educación primaria en 1. Los acontecimientos de los que se compone la trayectoria incluyen la educación postsecundaria. Antes era importante que incluso ante una clara separación de investigador y entrevistador hubiera un contacto entre ambos para saber el entrevistador las motivaciones.. 75 . En la NELS se entrevistan a 25. son las partes vulgares que se subcontratan. estilo profesional e impersonal. el investigador se limita a analizar datos ya recogidos por otros: es el caso de análisis secundario. el empleo. pero el proceso de recogida de la información estaba dirigido y controlado paso a paso por el investigador. la formación y disolución de la familia.11 NUEVAS TENDENCIAS Y NUEVOS RIESGOS La encuesta por muestreo es la técnica de investigación más difundida e sociología y probablemente en la investigación social en general. ambiente de aprendizaje. Había antes una separación entre la función del investigador y la función del entrevistador. Los entrevistadores profesionales realizan diferentes entrevistas en nada de tiempo. las empresas especializadas en encuestas. característica de las familias. Esto no existe cuando los datos los facilita una empresa. y el de la recogida de datos. las causas son varias: la disponibilidad de archivos de datos ya recogidos y listos para su elaboración sobre los fenómenos sociales más diversos.También existen series de estudios con datos longitudinales sobre educación y resultados educativos. Actualmente los modelos más comunes son otros dos. Se separa enormemente el momento de la elaboración teórica. el del análisis de los datos. Los peones de investigación. En los últimos años se han manifestado algunas tendencias que se contemplan con preocupación. gestionables sólo por organismos especializados. Otro caso muy frecuente es aquel en el que el investigador prepara el cuestionario. lo que va marginando la investigación local.

la escala es el conjunto de los elementos. cada una tiene un significado 76 . en la que la unidad de análisis es el individuo. Likert y Guttman 6. Los manuales de metodología y la práctica básica de la investigación social se han centrado durante años en los tres modelos de las escalas de Thurstone. Se trata de aplicaciones complejas y de difusión limitada (las escalas de Rasch). ese cuasi indica la imposibilidad de alcanzar el objetivo de atribuir pleno significado numérico a las puntuaciones de las escalas. es decir.CAPITULO 6. el concepto general es una actitud y los conceptos específicos son opiniones. una expresión empíricamente registrable de ella. Pero la medida de las actitudes si bien constituye el campo de aplicación más importante de la técnica de las escalas. Ante todo. En una pregunta cerrada. son semánticamente autónomas. Una escala está formada por varios elementos. la técnica puede ser utilizada no sólo para registrar las propiedades de los individuos a través de sus respuestas a una serie de estímulos en función de las respuestas de los individuos. La aplicación más frecuente de la técnica de las escalas en el campo de la sociología y de la psicología social la constituye la denominada medida de las actitudes. Actitud es aquel conjunto de tendencias y sentimientos. Podríamos decir que la actitud es el concepto general. han conducido recientemente a la elaboración de modelos estadísticos capaces de producir variables para las que se realiza es “igualdad de intervalos” que equivale a la existencia de una unidad de medida. inquietudes y convicciones de una persona hacia una determinada cuestión. empleando una noción ya introducida podemos decir – limitándonos siempre el caso más frecuente – que una escala esta constituida por una batería de preguntas. no es el único.1 LA OPERACIONALIZACIÓN EMPÍRICA DE LOS CONCEPTOS COMPLEJOS Con la expresión “técnica de las escalas” traducimos el término inglés scaling y nos referimos a un conjunto de procedimientos creados por la investigación social para “medir” al hombre y a la sociedad. que en el caso más difundido están constituidos por preguntas.2 Preguntas de respuesta graduada: La autonomía semántica de las respuestas. prejuicios y nociones preconcebidas. por ejemplo podemos atribuir a las profesiones una puntuación de prestigio social. La primera consiste en presentar unas posibilidades de respuesta que. sin embargo nuevos desarrollo teóricos. Una escala es un conjunto coherente de elementos (items) que se consideran indicadores de un concepto más general. o bien establecer una jerarquía de popularidad entre los políticos. temores. por lo que podemos decir que el cuerpo central de las técnicas de la investigación social no va más allá de las escalas cuasicardinales. se pueden adoptar tres formas de proponer tales alternativas. Las variables que produce la técnica de escalas son las denominadas cuasicardinales. El elemento es el componente individual. La opinión es una de las formas en las que la actitud se hace patente. en tanto que ordenables. y las opiniones son sus indicadores. Los primeros intentos de registrar actitudes mediante el uso de escalas se remontan a mediados de los años veinte. a partir de las respuestas y de las opiniones expresadas por los entrevistados. ideas. LA TÉCNICA DE LAS ESCALAS 6. junto con los nuevos recursos de cálculo aportados por la informática. cuando las alternativas de respuesta ofrecidas al entrevistado están ordenadas. es decir.

poco. aunque todos los investigadores están de acuerdo en tratarlas como si fueran variables cardinales. 1. hechos o partidos. Nada Tipo de municipio de residencia. no necesita relacionarse con el significado de las otras alternativas presentes en la escala. 77 . Semiurbano 4. Rural Intervalos de autoposicionamiento: En política suele hablarse de izquierda o de derecha. Esta práctica es. Diploma universitario 5. Es presumible que la subdivisión que el sujeto realiza mentalmente sobre el continuum consista en una subdivisión de éste en espacios iguales. controvertida. Ninguno 2. Semirrural 5.tres veces al mes 5. Nunca 2. Licenciatura. ayudándose de esta ficha ¿dónde colocaría su posición política?. nada…) Por último están las escalas de intervalos de autoposicionamiento en las que sólo dos categorías extremas están dotadas de significado. 2. Una vez al mes 4. mientras que entre ellas se coloca un continuum en el que el entrevistado ubica su posición. Poco 4. Educación Primaria 3. Un segundo caso es aquel en que las categorías de respuestas son de autonomía semántica parcial (mucho. este procedimiento es subjetivo. sino ante variables que hemos denominado cuasicardinales. Por ello no nos encontramos ante verdaderas variables cardinales. 3…). generalmente asignando a las categorías valores numéricos en secuencia simple ( 1. Izquierda 1 2 3 4 5 6 7 Derecha 8 9 No sé 99 Querría pedirle ahora su opinión sobre algunas instituciones. Dos. En la práctica de la investigación social es bastante común tratar como variables cardinales también las variables de segundo y del primer tipo. graduado de 0 a 100 grados. puede servirse de ella para darnos su opinión: Mucha simpatía o una opinión muy positiva coloque la ficha a 100 o a 95-90 Mucha antipatía o una opinión muy negativa coloque la ficha a 0 o a 5-10 Opinión intermedia. en torno a los 50 o 40-60 . válida para todos los sujetos estudiados así como para el sujeto que estudia.Cuasiurbano 3. bastante. para ser comprendido. y al respecto existe un amplio debate entre los investigadores sociales. Educación Secundaria 4. Preguntas con respuesta de autonomía semántica parcial: ¿Le interesa a usted la política? 1.Dos o tres veces al año 3. Cuasirrural 6. esta figura representa un termómetro. Bastante 3.acabado intrínseco que. en otras palabras no se dispone de una unidad de medida externa. Una o más veces a la semana ¿Cuál es su título de estudios? 1. Mucho 2. sin embargo. Preguntas con respuestas semánticamente autónomas: ¿Ha ido a la iglesia en el último año? 1. por lo que esta técnica debe garantizar equidistancia entre las categorías. Urbano 2.

si la escala está compuesta por muchas preguntas. tienen menor peso cuando la escala se basa en más repuestas. En primer lugar. o bien no hacerlo. Inicialmente se proponían siete alternativas: muy de acuerdo. un único registro carece de precisión. puesto que no consigue discriminar entre las distintas posiciones de los sujetos respecto a la propiedad considerada. Nunnally cita tres razones por las que las escalas de varios elementos son superiores a las de un único elemento. por varios elementos. 6. es el primero que se la pasa por la cabeza a un profano cuando debe atribuir una puntuación total basándose en las puntuaciones de pruebas individuales: hacer la suma de los puntos de las pruebas individuales. se plantea el problema de la conveniencia de ofrecer explícitamente al entrevistado una opción central neutral. obligando al entrevistado a tomar una posición. En conclusión: las escalas compuestas por un único elemento son menos válidas. No hay acuerdo entre los expertos sobre si un formulación es preferible a la otra. que. Por último.3 ESCALA DE LIKERT Likert lo propuso a principio de los años 30. menos fiables. La oferta del punto neutral puede favorecer la fidelidad del registro en los casos en los que existan efectivamente posiciones intermedias. Es recomendable la opción “no sé” para evitar seudoopiniones. esta técnica es el procedimiento más utilizado en el estudio de las actitudes y se ha desarrollado y enriquecido notablemente respecto a las propuestas iniciales de Likert. Ej. atribuirle un punto a cada pregunta. menos precisas. estás podrían plantearse como una elección binaria (Si/No). Test escolar de 30 preguntas. Tradicionalmente el formato de las preguntas individuales de las escalas de Likert está representado por una serie de afirmaciones para cada una de las cuales el entrevistado debe decir si está de acuerdo y en qué medida. bajo está denominación colocamos una amplia variedad de escalas. El objetivo de la escala es captar la diversidad entre los entrevistados respecto a la propiedad que es registrada En las entrevistas telefónicas que implica la imposibilidad de utilizar soportes visuales ha contribuido la uso de preguntas formuladas a través de una sucesión de elecciones binarias. Se le puede preguntar al entrevistado si está de acuerdo o en contra de una determinada afirmación. Una escala está compuesta normalmente por varias preguntas o.La opción central neutral. cada pregunta está más expuesta a los errores accidentales. El procedimiento es simple e intuitivo. la complejidad de los conceptos que se pretenden registrar hace improbable su cobertura con un único indicador. En segundo lugar. de acuerdo. pero también puede ofrecer una escapatoria a quienes prefieren no decantarse o no exponer claramente lo que piensan. El número de categorías de respuesta. para ser más exactos. en cambio. parcialmente de acuerdo. Cuando la variable es de autonomía semántica parcial. que traduciremos como escalas aditivas. 78 . Si la escala está compuesta por pocas preguntas conviene ofrecer al entrevistado una amplia gama de posibilidades de respuesta y viceversa. dudoso. después se le pregunta en función de la respuesta si mucho o sólo bastante… aunque está formulación lleva a resultado no diferentes de los obtenidos con una sola pregunta que contenta desde el principio todas las alternativas graduadas.

Una vez sometidos los entrevistados a las preguntas de las escala. que sirve para juzgar el grado total de coherencia interna de la escala. y el coeficiente alfa. por tanto definir algún criterio empírico para asegurarnos de que el requisito de una dimensión común a todos los elementos sea efectivamente reconocible incluso en la percepción de los entrevistados. A continuación la escala es sometida a un muestreo de entrevistados (segunda fase). Para la correlación elemento-escala. Si las dos variables covarían. Su fórmula es : nr A = ----------1 + r (n-1) donde n es el número de los elementos de la escala. el coeficiente de correlación cobra un valor elevado. Esta comprobación se realiza en la tercera fase. 79 . esto no sólo vale para las escalas de Likert. se plantea el problema de valorar la capacidad efectiva de la escala para conseguir el objetivo para el que fue construida. El coeficiente de correlación es una medida que cuantifica el grado de relación existente entre dos variables cardinales. que en caso de ausencia total de correlación es cero. absolutamente en contra. Se han elaborado algunos criterios para valorar la coherencia interna global de la escala. Por ello es importante que se incluyan las respuestas “no sé”. La coherencia interna de la escala: el Alfa-Cronbach. En la primera fase. que se basa en la matriz de relación entre todos los elementos y en su número. a veces a cuatro. la premisa que lo sostiene es que todos los elementos que la componen estén correlacionados con un mismo concepto latente. Esos conceptos suelen ser complejos. si las variables no están correlacionadas. y r es su correlación media. Después se han reducido a cinco. La correlación elemento-escala.parcialmente en contra. En general esta técnica exige un alto nivel educativo de los entrevistados. se calcula la puntuación de cada sujeto sobre toda la escala así como el coeficiente de correlación entre esta puntuación y la puntuación sobre cada elemento individual. Es necesario. Los instrumentos básicos que en ésta se utilizan son dos: la correlación elemento-escala. el coeficiente tiene un valor bajo. Se trata de índices que resumen esta coherencia y entre los más conocidos se encuentra el alfa de Cronbach. y que las afirmaciones no vayan todas en el mismo sentido (para obligar a los entrevistados a reflexionar. se establecen las dimensiones de la actitud estudiada y se formulan afirmaciones que cubran los diversos aspectos del concepto general que se quiere destacar. Debemos asegurarnos de la unidimensionalidad de la escala. y bajo esta perspectiva han sido elegidos los elementos en la primera fase. Remontándonos a la clasificación precedente. que sirve para identificar los elementos de la escala que no son coherentes con los otros. más que inductivo. Es muy recomendable seguir una estrategia de tipo deductivo. se trata de preguntas con respuestas de autonomía semántica parcial. La construcción de la escala se produce en cuatro fases: a) formulación de las preguntas b) administración de las preguntas c) selección de las preguntas y determinación del grado de coherencia interna de la escala d) control de la validez y de la unidimensionalidad de la escala. Como sabemos. en contra. contiene múltiples dimensiones que la escala debe ser capaz de cubrir. puesto que la coherencia de las respuestas exigirá expresar consenso en unas ocasiones y disenso en otras.

En definitiva. sobre la base de esta primera prueba son eliminados los elementos incoherentes y se establece la aceptabilidad de la escala. que los elementos impliquen dos propiedades distintas. éste no es suficiente para garantizar la unidimensionalidad de la escala.Alfa no es un coeficiente de correlación. y el objetivo es explicar estas correlaciones a través de la existencia de factores subyacentes. y de este modo elevará la correlación media entre los elementos r. que no requiere los 80 . con el objetivo de crear un instrumento aplicable también a poblaciones distintas de aquellas para la que la escala fue construida. Un alfa inferior significa que los elementos de la escala tienen poco en común. o bien que su número es demasiado bajo. el investigador tendrá en cuenta tanto las correlaciones elementos-escala como el coeficiente alfa. Nunnally sugiere un umbral de 0. mayor es la coherencia interna de la escala. acumulando en el curso de su utilización sucesivas pruebas de validez (validez predictiva.70 para poder aceptar la escala. la escala no es sino un aspecto de la investigación. Las saturaciones. Al eliminar los elementos más insatisfactorios de la escala. siempre y cuando esta operación produzca un aumento en el valor de alfa. la correlación entre las notas en álgebra y las notas en geometría de un determinado grupo de estudiantes (si un estudiantes va bien en álgebra también va bien en geometría) podría ser reconducida al hecho de que ambas notas están influidas por un factor subyacente. etc. Elevado número de elementos que son suministrados a una muestra limitada de casos. su popularidad se atribuye a su simplicidad de su estructura teórica y a su facilidad de aplicación. una escala para registrar la autoestima. en el mismo instrumento de registro (usualmente un cuestionario) pueden coexistir varias escalas. Es posible. por ejemplo. El punto de partida para el análisis lo constituye una matriz de correlación entre las variables observadas. aun en ausencia de unidimensionalidad. El análisis factorial. toma un valor normalmente positivo. entre 0 y 1. se eliminarán los elementos (ítems) que presenten una menor correlación elemento-escala. por frase) como prueba del hecho de que efectivamente es capaz de registrar la propiedad para la cual ha sido construida. tenga como fin precisamente establecer que todos los elementos son indicadores de la misma propiedad. cuanto más altos son los valores. La escala se aplica. Cuarta fase. a diversas investigaciones. pero correlacionados entre sí: lo que produciría valores satisfactorios de correlaciones elemento-escala y del coeficiente alfa. incluso muy distintas. aunque tenga esa apariencia. que hemos presentado en la tercera fase. por grupos conocidos. Las escalas de Likert son las más difundidas. Aunque el procedimiento de “análisis de los elementos”. la religiosidad. son los coeficientes de correlación entre el elemento de la escala y el factor subyacente. Eliminará los elementos con correlación elemento-escala demasiado baja. En el planteamiento tradicional la construcción de la escala es una operación que tiene una autonomía propia: se construye. el objetivo del análisis factorial es reducir una serie de variables relacionadas entre sí a un número inferior de hipotéticas variables independientes entre sí. Una técnica muy eficaz para el control de la unidimensionalidad la constituye el análisis factorial. Por ejemplo. Nos enfrentamos ahora al problema de los controles de unidimensionalidad de la escala. concomitante. Entre los sociólogos y politólogos se ha ido afirmando un punto de vista más simplificado de la técnica de las escalas: las escalas en este caso están constituidas por una decena de elementos aproximadamente. la ansiedad. Comenzamos por los controles de validez y con este fin introducimos una diferencia entre la aplicación clásica de la técnica de las escalas y una aplicación simplificada. por ejemplo. la de los controles sobre la validez y la unidimensionalidad de la escala.

Segundo problema se refiere a la falta de reproducibilidad de la escala. El problema reside en establecer cuántos errores puede tolerar una escala para poder ser aceptada y cuáles son los procedimientos a seguir para poder minimizar dichos errores. que serán consideradas “errores”. como vecino de casa… mientras que quién no lo aceptaría como amigo personal. podemos distinguir tres-cuatro fases: la formulación de las preguntas. Si indicamos con 1 la respuesta positiva y con 0. la negativa. Su escala constituye una sucesión de elementos que presentan dificultad creciente. las respuestas a cada uno de los elementos es una característica típica del escalograma de Guttman. ¿ y a casarse con él?. de manera que quien ha contestado afirmativamente a una pregunta debe de haber contestado también afirmativamente a todas las que la preceden en la escala de dificultad. Puntuación asignada a cada uno de los elementos. lo que explica se gran éxito en los años 50-60. De ahí la definición de esta escala como escalograma o escala acumulativa. ¿ y cómo amigo personal?. Como visitante 1 1 1 1 0 Como vecino 1 1 1 0 0 Como amigo 1 1 0 0 0 Me casaría 1 0 0 0 0 Puntuación 4 3 2 1 0 Las respuestas posibles dan lugar a una matriz dividida en dos triángulos. 0000. En la construcción de la escala de Guttman. a las que se les asigna arbitrariamente 1. su administración. que luego son tratadas como escalas cardinales. 2. probablemente también está dispuesto a tenerle como amigo personal. uno constituido por respuestas todas positivas y el otro por respuestas todas negativas. el análisis de los resultados con la 81 . En cada aplicación real se producirán también respuestas al margen de las secuencias previstas en el modelo. “Escala de distancia social” ¿Estaría ustede dispuesto a aceptar un negro como visitante de su país?. que es uno de los puntos débiles de la técnica de Likert. a partir de la puntuación de la escala. la puntuación final de la escala es global y no hay manera de averiguar a qué combinaciones de respuestas corresponde una puntuación determinada. Es evidente que quién está dispuesto a casarse con un negro. Desventajas. de “autonomía semántica parcial” en el caso más frecuente de cinco modalidades. en principio sólo deberían ser posibles las secuencias: 1111. Esta técnica sólo utiliza elementos dicotómicos. que adopta el nombre de reproducibilidad ( a partir de la puntuación se pueden “reproducir” las respuestas a cada pregunta). Ejemplo. Si los elementos de la escala están perfectamente escalonados. Esta posibilidad de reducir. 6. … 5. Es por ello que sea muy posible que dos puntuaciones idénticas correspondan a respuestas muy distintas.4 ESCALOGRAMA DE GUTTMAN Nace con el fin de proporcionar una solución al problema de la unidimensionalidad de la escala.potentes recursos de cálculo de los ordenadores modernos. probablemente tampoco está dispuesto a casarse con él. Cada elemento es una variable ordinal. 1100. 1110. ¿y cómo vecino de su casa?. sólo son posibles algunas secuencias de respuestas.

el hecho de que las preguntas deban proyectarse teniendo en cuenta cuál será la forma final de la escala: un conjunto de elementos de intensidad creciente. con el fin de obtener un batería de elementos con creciente dificultad. Se trata de decidir si son lo suficientemente reducidos como para garantizar la “escalabilidad” de los elementos. Para la fase de la formulación de las preguntas. Guttman propuso un índice. Su formulación es la siguiente: Nº errores Nº errores Nº respuestas exactas Cr = 1 . es un error la secuencia correcta debería ser 11100. descartar los menos coherentes con el modelo.-------------------------= 1 ------------------------------= -------------------------Nº total respuestas Nº elementos x Nº casos Nº total respuestas Este índice se puede tambièn interpretar como la proporción de respuestas “exactas” sobre el total de las respuestas.90. 10110 con una puntuación final de 3.eliminación de los elementos que indican demasiados errores. Edward propuso calcular un índice de repoducibilidad marginal mínima (MMR) con la siguiente fórmula: Suma proporción de respuestas en la categoría modal MMR = ----------------------------------------------------------------N Donde N es el número de elementos de la escala. Los errores se identifican comparando la secuencia observada con la correcta teórica que debería obtenerse manteniendo la puntuación total del caso. En segundo lugar. carácter binario de las elecciones. cualquiera que sean las secuencias de las respuestas. Fase de administración. en primer lugar. de que las respuestas deben darse de forma binaria. Se 82 . que llamó coeficiente de reproducibilidad. las respuestas que no se integran en las secuencias previstas en el modelo. establecer un índice de escalabilidad de la escala y establecer su aceptación o no. El coeficiente de reproducibilidad de cada elemento no puede descender por debajo de su proporción de respuestas en la categoría modal. Si la escala presenta un coeficiente de reproducibilidad inferior a 0. Dos observaciones. en identificar los que hemos llamado “errores” de la escala. y la definición de un índice global de aceptación de la escala. recalculando el índide Cr cada vez. se eliminan progresivamente los elementos con mayor número de errores. Las preguntas deben cubrir toda la extensión del continuum de la actitud subyacente. El coeficiente de reproducibilidad de la escala es la media de los coeficientes de reproducibilidad de cada uno de los elementos. remitimos a lo que ya hemos dicho acerca de la escala de Likert sobre la importancia de la reflexión conceptual. El procedimiento consiste. el hecho técnico y en algunos casos simplificador. el objetivo de esta fase es el de evaluar la escalabilidad de todos los elementos. por tanto hay dos errores. o sea. que mide el grado de desviación de la escala observada respecto a la escala perfecta. Ej. Esto implica que el coeficiente puede estar inflado debido a una distribución marginal de las respuestas muy asimétrica. Este índice indica el valor mínimo por debajo del cual el coeficiente de reproducibilidad de la escala no puede descender. Medidas de reproducibilidad.

¿qué significa esto (madre. se basa en las asociaciones que establece el entrevistado entre este concepto y otros propuestos de forma estandarizada a todos los entrevistados. En segundo lugar. la técnica de Guttman es aplicable cuando se está en presencia de actitudes bien definidas y escalonables.sugiere. patria. 83 . cuando los sujetos estudiados son personas inteligentes. su escala se considera ya superada por las de tipo probabilístico. para aumentar la sensibilidad del instrumento se pide que se clasifique la intensidad de cada opinión en una escala de siete puntos.5 DIFERENCIAL SEMÁNTICO Se desarrolló en los años 50. instruidas y con capacidad verbal está forma puede ser válida. que la distancia entre las puntuaciones 2 y 4 sea igual a la distancia que media entre las puntuaciones 5 y 7. Ésta es la crítica más importante al modelo de Guttman. como en el caso anterior de la participación política. El escalograma de Guttman ha constituido un punto fundamental en el desarrollo de la técnica de las escalas. También Guttman recomendó inspeccionar atentamente las secuencias erróneas. en tanto que son poco descriminantes y que elevan artificialmente el coeficiente de reproducibilidad de la escala. ¿es duro o blando?. la respuesta suele ser que conoce el significado pero no sabe explicarlo. Osgood propone una técnica para extraer los significados que determinados conceptos adquieren para los entrevistados. el modelo es rígidamente determinista. se le pide a la persona que diga lo que significa. Cuando la actitud se vuelve compleja resulta difícil escalonarla en secuencias acumulativas: las categorías se pueden superponer. por tanto. 6. comparar el Cr con el MMR. además de ser superior al 0. Nos limitamos a presentar tres.90. Por último. Se plantea una serie de preguntas cómo. La primera es evitar elementos con tasas demasiado elevadas (superiores al 80%) de aceptación o rechazo. Se han realizado diversas sugerencias para mejorar el rendimiento de esta técnica. En segundo lugar. es también netamente superior al segundo. mientras que la realidad social sólo puede interpretarse correctamente a través de modelos probalísticos que contemplen la posibilidad de error y el paso gradual entre las posiciones. por lo que los errores al final resultan numerosos. se puede afirmar que la buena reproducibilidad de la escala se debe a una efectiva escalabilidad de sus elementos y no a la distribución marginal de las respuestas. “De esta forma el diferencial semántico es esencialmente una combinación de asociaciones controladas y de procedimientos scaling. El objetivo era crear un instrumento para determinar con la máxima estandarización. Con personas dotadas de menor capacidad de verbalización este sistema puede ser limitado. sólo si el primero. recomendadas por el mismo Guttman. De hecho. dado que la presencia repetida de una secuencia no prevista en el modelo puede ser síntoma de otra dimensión subyacente bajo esos indicadores. Normalmente. Guttman sugirió emplear un número suficientemente elevado de elementos. como las escalas de Rasch. guerra) para ti?. Ahora bien. ¿es rápido o lento?. mostrando que una escala de sólo cuatro elementos puede producir valores elevados de Cr aunque los elementos sean estadísticamente independientes entre sí. La puntuación final que se obtiene sobre la variable latente sigue siendo esencialmente una variable ordinal: tampoco en este caso tenemos ningún elemento para decir. el significado que los conceptos adquieren para los individuos.

antipático 36. Se recomienda al entrevistado que conteste de forma instintiva. 1.Partido socialista 1 Viejo Fuerte Limpio Rápido Cercano Intolerante Abierto Intransigente Ganador De izquierdas Alegre Ineficiente (Tabla 1) Osgood también mantiene una lista de atributos bipolares que no debe tener relación con el objeto evaluado. Mojado – Seco 27.pequeño 3. Duro – blando 6. Luminoso – oscuro 37. Amarillo. Sagrado – Profano 28.Luminoso. En este caso. Cercano – Lejano 48. Amable – Grosero 16. Profundo. Relajado – Tenso 29. Caliente – Frio 34. Perfumado. Negro – Blanco 20 Amargo – Dulce 21. Tranquilo. Feliz – Triste 22. Alto – Bajo 10.Rico –Pobre 32. Limpio – Sucio 9. Vacío – Lleno 24. Bello – Feo 4. el perfil tiene por objeto el concepto y consiste en las valoraciones medias de los entrevistados.desagradable 19. Rápido – Lento 45. Ancho . sin reflexionar demasiado sobre cada pareja. Alto – Bajo 31.Superficial (Tabla 2) “el perfil” es una representación gráfica consistente en unir con una línea la puntuación media obtenida por ese objeto en cada pareja de atributos de la tabla 1.Azul 5. Áspero – Suave 47.en voz baja 17. Punzante – Apacible 49.Estrecho 2 3 4 5 6 7 Joven Débil Sucio Lento Lejano Tolerante Cerrado Indulgente Perdedor De derechas Triste Eficiente . En voz alta.apestoso 40. Rojo – Verde 14. Honesto. Espeso – Fino 35.Inquieto 11. Fresco – Rancio 44. y por tanto debe ser siempre la misma: incluso parejas de adjetivos aparentemente ajenos al caso en examen resultan útiles para extraer significados más profundos e incluso inconscientes que tiene el objeto para el entrevistado.Deshonesto 41. Valiente – Cobarde 30. Sabroso – Insípido 12. Simpático . Anguloso – Redondeado 39. pero se pueden obtener también perfiles individuales. Sano – Enfermo 50. Grande . es decir. De valor – sin valor 13. Agudo – Soso 23. Dulce – Ácido 7. Joven – Viejo 15. Activo – Pasivo 42. Pesado – Ligero 26. Rugoso – Liso 43. Agresivo – Pacífico 25.Ofuscado 33. de 84 18. Fuerte – Débil 8. Bueno – Malo 2. Grave – Soprano 38. Justo – Injusto 46. Agradable.

no restan interés a la técnica como instrumento para revelar la estructura de las actitudes. la exploración de la dimensión de los significados. tal como querría ser”. la riqueza del punto de vista multidimensional. obteniendo así para cada individuo unas puntuaciones globales sobre las tres dimensiones mencionadas. ni actitudes hacia determinados objetos cognitivos como los partidos políticos o los inmigrantes. …). la potencia (duro-blando. principalmente entre los años treinta y los años sesenta. La forma más importante de utilización del diferencial semántico es. Si pedimos a un entrevistado que coloque un determinado objeto cognitivo sobre 30 parejas de adjetivos. A través del análisis factorial se puede determinar cuáles son las dimensiones fundamentales que están tras los juicios de una determinada muestra de personas entrevistadas.6 TEST SOCIOMÉTRICO Se propone un objetivo bastante distinto del que tienen en común las técnicas presentadas hasta ahora. tan ambicioso como ingenuo. A partir de esta aportación al estudio de las dimensiones del espacio semántico. Las técnicas sociométricas nacieron con el fin de revelar las relaciones interpersonales existente dentro de un grupo de individuos. De hecho. 85 . La distancia entre los dos perfiles permite conocer el grado de autoestima del sujeto. estas objeciones. pidiéndole que coloque en una batería de atributos bipolares primero el objeto cognitivo “Yo. la evolución en el tiempo de esta distancia puede emplearse para seguir los progresos del paciente durante una psicoterapia. no tienen como finalidad revelar variables latentes como la religiosidad o la depresión. tal como soy” y luego “Yo. los valores sobre cada atributo bipolar pueden sumarse. 6. Estos tres factores se enumeran aquí por orden de importancia: el primero es el más relevante y parece representar lo que en las técnicas tradicionales de escalas se denominaba generalmente la “actitud” hacia un determinado objeto cognitivo. Muchos investigadores no comparten esta afirmación generalizadora. como sucedería con una escala aditiva tipo Likert. las opiniones individuales resultarán estar naturalmente guiadas por la visión de conjunto (el “significado”) que el entrevistado tiene del objeto propuesto. rápido-lento.los sujetos entrevistados basados en las respuestas de un único individuo. fuerte-débil…). Probablemente. de “medir al hombre y a la sociedad”. con el objetivo. aquellos procedimientos elaborados por las ciencias del comportamiento. La técnica se ha empleado como instrumento para revelar la autoestima del entrevistado. sin embargo. Pueden identificarse tres dimensiones fundamentales que subyacen a las diversas opiniones: la evaluación ( relacionada con las parejas bueno-malo. positivo-negativo…). sino que queremos incluir las principales técnicas de las escalas. es decir. No obstante. Osgood y sus colaboradores afirmaban que las tres dimensiones identificadas de la evaluación. la actividad (activo-pasivo. En este capítulo no sólo nos ocupamos del estudio de las actitudes. de la potencia y de la actividad rigen el espacio semántico de los individuos en la gran mayoría de los casos. en un sector de estudios que se había movido hasta entonces en una perspectiva unidimensional. la contribución más original del diferencial semántico al reconocimiento de las actitudes resida en el hecho de que puso en evidencia la multidimensionalidad de los significados al introducir. y para citar una aplicación de la técnica. independientemente de la cultura de los sujetos estudiados.

y pasados tres meses desde el inicio del curso entrevistó a cuatro profesores por clase. elegidos entre los que enseñaban todos los días. puesto que el radio de elección del sujeto debe estar limitado. Junto con los análisis para definir el estado relacional de los individuos se efectúan luego elaboraciones dirigidas a la ilustración de la estructura sociométrica del grupo. los líderes. más una persona aislada. ya que todas las preferencias se producen en el interior. 12 presenta un lider el 12. poniéndoles en orden de preferencia. etc. las redes de comunicación. Una primera elaboración la representa el análisis del estatus sociométrico individual. los estudiantes aislados. la existencia de estratificaciones sociales. poniéndoles en orden empezando por el que menos deseas. los que te han elegido entre los que querrían tenerte con ellos el año que viene. mostrando la existencia de dinámicas desconocidas para los educadores. administró un cuestionario sociométrico a las clases: éste relevó con nitidez el mapa de las interrelaciones entre los chicos. etc. el grupo se articula en tres subgrupos (todas las primeras preferencias de los sujetos y casi todas las segundas se agotan dentro de cada subgrupo). la organización jerárquica informal. los otros dos grupos presentan una estructura muy paritaria. que giran entorno al tema de la preferencia-rechazo hacia al resto de los pertenecientes al grupo. entre tus compañeros. 4. Adivina cuáles son.El test sociométrico nace con el objetivo de estudiar. entre tus compañeros. y se registran las preferencias/rechazos en las casillas correspondientes a cada pareja. religiosas. los cotilleos. 11. las relaciones interpersonales que se establecen dentro de grupos pequeños. ¿Cuáles son. Adivina cuáles son. los que te gustaría volver a tener en tu clase el año que viene? Indica cuantos quieras. pidiéndoles que describieran las relaciones que se habían establecido entre los alumnos: las amistades. que funcionan como intermediarios. los que no te gustaría volver a tener en tu clase el año que viene?. de genero. etc. 8. barreras étnicas. El test sociométrico se presta en general al estudio de grupos estructurados. La elaboración de los datos es tan sencilla como la administración del cuestionario. Se construye una matriz cuadrada que tenga en los datos izquierdo y superior la lista de los componentes del grupo. 3. Su campo de aplicación ideal lo representa una clase escolar. Por ejemplo. los subgrupos. para identificar los puntos de tensión. 1. Bastin. las órdenes. El test sociométrico consiste en un cuestionario compuesto por pocas preguntas. de aislamiento y de afinidad. Indica cuantos quieras. 4 y 10) es un grupo cerrado. ¿ Y cuáles son. es poco adecuado para el análisis de grupos informales. con el fin de identificar las relaciones de dominación-dependencia. La técnica se revela útil como instrumento de diagnóstico individual. Y como herramientas para el estudio de la psicología de los grupos. que se efectua analizando para cada individuo el número de preferencias efectuadas y de rechazos recibidos. El grupo formado por los sujetos 5. Eligió 12 clases del primer año de un centro escolar. de edad. con sistematicidad y procedimientos estandarizados. como instrumento para captar la estructura relacional del grupo. Se pueden construir sociogramas distintos según las preguntas consideradas. los que te han colocado entre los que no desean para el año que viene. Dos de los tres grupos están conectados entre sí por los sujetos 6 y 11. las vías a través de las cuales pasan las informaciones. lingüísticas. en cambio. entre tus compañeros. Los profesores se mostraron incapaces de desentrañar las redes de relaciones existentes entre sus alumnos. mientras que el tercero (2. Es de gran utilidad para el estudio de la dinámica de una 86 . 2.

elaborada por Moreno con un fin de renovación social más que de investigación científica.7 ESCALAS UNIDIMENSIONALES Y ESCALAS MULTIDIMENSIONALES En los primeros epígrafes del Capitulo hemos trazado el itinerario recorrido por las ciencias sociales en los diversos intentos de “medir” al hombre y su mente: pero hemos hablado únicamente de las escalas denominadas “unidimensionales”. juzgará positivamente también al otro. aplicado a 12 candidatos a las elecciones primarias.clase escolar. La tarea es fácil de realizar midiendo con un centímetro las distancias sobre el mapa y convirtiéndolas luego en kilómetros. Poco a poco su utilización por parte de los investigadores se redujo sensiblemente. interpretadas como medidas de proximidad. Los autores utilizaron la técnica de las escalas multidimensionales para identificar cuáles eran las dimensiones que estaban tras la opinión expresada. A partir de las 87 . que recibió un fuerte impulso también por el desarrollo de la informática y de las nuevas posibilidades ofrecidas por los ordenadores para la gestión y el análisis de datos de tipo relacional. 6. por ejemplo. juzga positivamente a no. la investigación llevada a cabo en 1. Imagínemos que tenemos frente a nosotros un mapa geográfico. Supongamos que nos enfrentarnos al problema contrario: tenemos la tabla con las distancias en kilómetros y queremos reconstruir las posiciones de las ciudades sobre el mapa. Finalmente. Considérese. La técnica nació inicialmente para estudiar las relaciones afectivas existentes dentro del grupo. La problemática a la que se enfrenta la técnica de las escalas multidimensionales se parece al proceso de construcción del mapa a partir de las distancias. Más recientemente. eso significa que los dos candidatos están cercanos en el espacio mental de los entrevistados: si un sujeto juzga positivamente a uno. La técnica propuesta por Moreno fue muy popular en los años cincuenta y sesenta cuando se empleó en múltiples campos. Y consiste en partir directamente de las observaciones. ¿con quién te gustaría jugar? ¿a quién invitarías a cenar?. basados en la estimación de las capacidades.968 acerca de la opinión de los electores sobre los candidatos a las elecciones presidenciales estadounidenses de ese año. Ésta es la técnica de las denominadas escalas multidimensionales. Hay otra forma de enfrentarse al problema de los conceptos complejos subyacentes a un conjunto de observaciones. Otro campo de aplicación ha sido el laboral. preguntándonos cuántas y qué dimensiones latentes están detrás de ellas. de las situaciones de investigación en las que se presume que existe una única dimensión fundamental subyacente bajo un conjunto de observaciones. Este espacio conceptual puede imaginarse como un espacio físico definido por dimensiones. y que se nos pide que construyamos una tabla con las distancias en kilómetros entre las ciudades. existe una alta correlación entre las puntuaciones obtenidas. Las preferencias de los entrevistados fueron recogidas con el “termómetro de los sentimientos”. Si. en parte por la disgregación de la construcción teórica de la “sociometría”. Posteriormente la técnica se ha desarrollado para estudiar también las relaciones funcionales. por ejemplo. la aproximación al estudio sistemático de las redes de relaciones sociales ha cobrado un nuevo vigor dentro de la network analysis (análisis de redes). de las competencias y de la utilidad ¿con quién querrías estudiar?. La tarea es más difícil que la anterior. ¿a quién elegirías para tu equipo de fútbol?. es decir. pero existen procedimientos geométricos que nos permiten enfrentarnos a ella. Estas técnicas de análisis toman como punto de partida las correlaciones entre los estímulos. también podemos mencionar estudios sobre la organización militar. esta técnica también se ha utilizado existentes dentro de las organizaciones formales.

es necesario dar un nombre a estas dimensiones. 88 . el problema es comprender si existe un espacio común a todos los que han contestado: a continuación.proximidades-distantes entre determinados objetos se nos plantea el objetivo de reconstruir el espacio conceptual en el que estos objetos son colocados. Ante todo. se trata de identificar cuántas dimensiones tiene este espacio: por último.

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->