P. 1
Técnicas investigación social 1pp

Técnicas investigación social 1pp

|Views: 12.708|Likes:

More info:

Published by: Joaquin Garcia Neches on Sep 02, 2011
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as DOC, PDF, TXT or read online from Scribd
See more
See less

07/09/2015

pdf

text

original

Sections

  • 1.1Khun y los paradigmas de la ciencia
  • 1.2Tres cuestiones de fondo
  • 1.3Positivismo
  • 1.4Neopositivismo y postpositivismo
  • 1.5.1Los inicios
  • 1.5.2Max Weber: Objetividad y orientación hacia la individualidad
  • 1.5.3. Desarrollos posteriores
  • 2.1.1. Hipótesis
  • 2.1.2 Diseño de la investigación
  • 2.1.3 Observación empírica y resultados del análisis
  • 2.2.1. Diseño de la investigación y recogida de datos
  • 2.2.2 Hipótesis
  • 2.2.3Interpretación del material empírico
  • 2.3.1 Planteamiento de la investigación
  • 2.3.2. Recogida de datos
  • 2.3.3Análisis de los datos
  • 2.3.4. Resultados
  • 2.4Dos formas diferentes de conocer la realidad social
  • 3.1.1. Las cinco fases del proceso de investigación
  • 3.2.2 Hipótesis
  • 3.2.3. La transformación de la teoría en hipótesis
  • 3.3 De los conceptos a las variables
  • 3.4.1. Los distintos tipos de unidad de análisis
  • 3.5Variables
  • 3.6.1. Variables nominales
  • 3.6.2. Variables ordinales
  • 3.6.3. Variables cardinales
  • 3.7 CONCEPTOS, INDICADORES E ÍNDICES
  • 3.8 Error total
  • 3.9.1Fiabilidad
  • 3.9.2. Validez
  • 4.1 CONCEPTO DE CAUSA
  • 4.2.1. Covariación entre variables independientes y dependientes
  • 4.2.2. Dirección causal
  • 4.2.3. Control de las variables superfluas
  • 4.2.4. Análisis de la covariación y experimento
  • 4.3.1. Análisis de la covariación
  • 4.3.2. Experimento
  • 4.4.1. La solución científica
  • 4.4.2. La solución estadística
  • 4.5.1. Experimentos de laboratorio
  • 4.5.2. Experimentos de campo
  • 4.6.1.2. Diseño “antes-después” a dos (o más ) grupos
  • 4.6.1.3. Diseño de Solomon a cuatro grupos
  • 4.6.1.4. Diseño factorial
  • 4.6.2.1. Diseño “antes-después” a un solo grupo
  • 4.6.2.2 Diseños en serie temporal interrumpida
  • 4.6.2.3. Diseño “antes-después” a dos grupos sin asignación causal
  • 4.6.2.4. Diseño “ex postfacto”
  • 4.7 VENTAJAS Y LIMITES DEL EXPERIMENTO
  • 5.1 La encuesta por muestreo en la investigación social
  • 5.2.1. Criterio objetivista frente a criterio constructivista
  • 5.2.2. Enfoque uniformista frente a enfoque individualista
  • 5.2.3 El objetivo del mínimo común denominador
  • 5.3LA FIABILIDAD DEL COMPORTAMIENTO VERBAL
  • 5.4Fondo y forma de las preguntas
  • 5.5Formulación de preguntas
  • 5.6BATERIA DE PREGUNTAS
  • 5.7.1Entrevista cara a cara
  • 5.7.2. Entrevistas Telefónicas
  • 5.7.3. Cuestionarios autocumplimentados
  • 5.7.4. Entrevistas computarizadas (electrónicas)
  • 5.8ORGANIZACIÓN DE LA RECOGIDA DE DATOS
  • 5.9.1. Análisis secundario
  • 5.9.2. Encuestas repetidas en el tiempo
  • 5.10 BASES DE DATOS EN ESPAÑA Y EN EL EXTRANJERO
  • 5.11 NUEVAS TENDENCIAS Y NUEVOS RIESGOS
  • 6.1 LA OPERACIONALIZACIÓN EMPÍRICA DE LOS CONCEPTOS COMPLEJOS
  • 6.2 Preguntas de respuesta graduada: La autonomía semántica de las respuestas
  • 6.3 ESCALA DE LIKERT
  • 6.4 ESCALOGRAMA DE GUTTMAN
  • 6.5 DIFERENCIAL SEMÁNTICO
  • 6.6TEST SOCIOMÉTRICO
  • 6.7ESCALAS UNIDIMENSIONALES Y ESCALAS MULTIDIMENSIONALES

PARTE I LA LOGICA DE LA INVESTIGACION SOCIAL TEMA 1. LOS PARADIGMAS DE LA INVESTIGACIÓN SOCIAL.

1.1 Khun y los paradigmas de la ciencia Paradigma fue utilizada tanto por Platón en el sentido de modelo como por Aristóles en el sentido de ejemplo. Desde sinónimo de teoria a articulación interna de una teoria, desde sistema de ideas de orden precientífico a corriente de pensamiento o escuela, desde procedimiento de investigación ejemplar a equivalente a método. La reflexión de Khun tiene como objeto el desarrollo histórico de las ciencias y constituye un rechazo a la concepción tradicional de la ciencia entendida como acumulación progresiva y lineal de nuevos logros. Según Khun, existen momentos revolucionarios enlos que la relación de continuidad con el pasado se interrumpe y se inicia una nueva construcción, cita el desarrollo de la física óptica, para la cual la luz estaría constituida por fotones (ondas y particulas) teoría que nació en este siglo porque antes se enseñaba que la luz era un movimiento ondulatorio transversal. En el siglo XVII la concepción dominante era la de la óptica newtoniana, según la cual la luz estaba constituida por corpúsculos materiales. El paso de una visión teórica a otra es tan global y tiene consecuencias tan radicales sobre la disciplina implicada, que Khun no duda en utilizar el término "revolución" y habla precisamente de "revolución científica". ¿Qué entiende Khun por paradigma?. Con este término designa una perspectiva teórica: a) compartida y reconocida por la comunidad de científicos de una determinada disciplina. b) Fundada sobre adquisiciones que preceden a la disciplina misma c) Que actúa dirigiendo la investigación en términos tanto de: C1) identificación y elección de los hechos relevantes a estudiar como de C2) formulación de hipótesis entre las que situar la explicación del fenómeno observado, y de C3) preparación de las técnicas de investigación empíricas necesarias. Sin un paradigma una ciencia no tendría orientaciones y criterios de elección: problemas, métodos, técnicas son igualmente legítimos. El paradigma representa la guía para la ciencia: proporcionan a los científicos no sólo un modelo, sino también algunas indicaciones indispensables para construirlos. En cuanto aprende un paradigma el científico adquiere teorías, métodos y criterios. Es algo amplio y también más general que una teoría: es una visión del mundo. Khun define ciencia normal como aquellas fases de una disciplina científica durante las cuales predomina un determinado paradigma, que es compartido por la comunidad de 1

científicos. Khun subraya que el paradigma es una característica definitoria de las ciencias maduras. Se abre la posibilidad dentro de una determinada disciplina, de varios paradigmas, y la sociología pasa de ser preparadigmática, a ser una disciplina multiparadigmática. Sigue siendo fundamental en el concepto de paradigma su carácter preteórico, en último término metafísico, de "visión que orienta"; de imagen del mundo, o mejor aún, como escribe Friedrichs, de "imagen fundamental que una disciplina tiene de su objeto" que guía y organiza tanto la reflexión teórica como la investigación empírica, y como tal precede a ambas. 1.2 Tres cuestiones de fondo Nos limitaremos a un examen de carácter histórico sobre la evolución de la disciplina. Sabemos que entre las funciones de un paradigma está también la de definir los métodos y las técnicas de investigación aceptables en una disciplina. Existen dos grandes marcos generales de referencia que han orientado históricamente la investigación social desde su nacimiento: la visión "empirista" y la "humanista". Se trata de dos divisiones orgánicas y fuertemente contrapuestas de la realidad social de los modos de conocerla, que han generado dos bloques coherentes y muy diferenciados entre sí de técnicas de investigación. Son concepciones generales sobre la naturaleza del a realidad social, del hombre y sobre el modo en que éste puede conocer aquélla. Tales interrogantes pueden ser reconducidos a tres cuestiones fundamentales: ¿existe la realidad (social)?, ¿Es conocible?, ¿Cómo puede ser conocida? … en otras palabras: Esencia, Conocimiento, Método. La cuestión ontológica. Concierne a la naturaleza de la realidad social y su forma. Se nos interroga sobre si los fenómenos sociales son "cosas en sí mismas" o "representaciones de cosas" La cuestión epistemológica. Relación entre el quién y el qué. Concierne a la cognoscibilidad de la realidad social, y ante todo pone el acento sobre la relación entre estudioso y realidad estudiada. Si el mundo social existe en cuanto tal independientemente del actuar humano, será legítima la aspiración de alcanzarlo, de conocerlo con distancia objetiva, sin temor de alterarlo en el transcurso del proceso cognoscitivo. Las características (la forma) que el conocimiento puede adquirir están estrechamente ligadas a la respuesta dada a este problema: éstas pueden ir desde "leyes naturales", deterministas dominadas por las categorías de causa-efecto, a leyes menos imperativas, a generalizaciones de distinta forma, a ninguna forma de generalización. La cuestión metodológica. Es la cuestión del "cómo". Se refiere a la instrumentación técnica del proceso cognoscitivo. Resulta difícil separar las concepciones sobre la naturaleza de la realidad social de las reflexiones sobre su cognoscibilidad, y éstas de las técnicas utilizables para su conocimiento. 1.3 Positivismo

2

El paradigma positivista es: el estudio de la realidad social utilizando el marco conceptual, las técnicas de observación y medición, los instrumentos de análisis matemático, los procedimientos de inferencia de las ciencias naturales. Por marco conceptual entendemos las categorias de "ley natural", de causa-efecto, de comprobación empírica, de explicación… Por técnicas de observación y medición entendemos: el uso de variables cuantitativas incluso para fenómenos de naturaleza más cualitativa, los procedimientos de medición aplicados a orientaciones ideológicas, capacidades mentales, estados psíquicos. Finalmente, por procedimientos de deducción entendemos: el proceso que a partir de lo conocido permite avanzar hipótesis sobre lo desconocido, y por tanto el paso de la observación particular a la ley general, la utilización de la teoría para fines de previsión, la inferencia a partir de la muestra a la población total. La ciencia es universal y el método científico es único. Las ciencias de la sociedad no son distintas de las de la naturaleza y el modo de pensar positivo que ha llevado a conquistas tan grandes en el campo de la astronomía, de la física, de la biología, está destinado a triunfar también cuando se pasa de los objetos naturales a los sociales: a la religión, a la política, al trabajo. El primer intento de aplicar esta perspectiva teórica global a la investigación empírica fue el de Durkheim. Comte no se ocupó de cosas sino de conceptos. Durkheim sin embargo se esforzó por traducir los principios del pensamiento positivo en praxis empírica, es el primer científico social, el primer sociólogo positivista verdadero. La primera regla , que es la fundamental, impone considerar los hechos sociales como cosas. Hechos sociales, que tienen las mismas propiedades que las cosas del mundo natural. Y de ello se derivan dos consecuencias. Por una parte, los hechos sociales no están sujetos a la voluntad del hombre, sino que ofrecen resistencia a su intervención, lo condicionan y lo limitan. Por otra, precisamente como los fenómenos del mundo natural, los hechos también funcionan según sus propias reglas. Poseen una estructura determinista que el hombre, a través de la investigación cientifica puede descubrir. De ahí la asunción, no obstante sus diferentes objetos, de una unidad metodológica sustancial entre mundo natural y mundo social. La primera afirmación, es pues, existe una realidad social fuera del individuo. La segunda afirmación, es, esta realidad social es objetivamente conocible. La tercera afirmación, es, esta se puede estudiar con los mismos métodos de las ciencias naturales. La manera de proceder de este conocimiento es fundamentalmente inductivo, entendiendo por inducción "el paso de los particular a lo universal", de la observación empírica, de la identificación de regularidades y repeticiones en las fracciones de realidad empíricamente estudiada, se llega a generalizaciones o a leyes universales. En el procedimiento inductivo está implícita la asunción de una orden y una uniformidad de la naturaleza, de principios organizadores de carácter universal, y el cometido científico es, precisamente, descubrirlos. Con respecto a la forma de este conocimiento en la mayoría de los casos adoptarán las características de un nexo causa-efecto. 1.4 Neopositivismo y postpositivismo Dentro de la visión positivista se ha desarrollado, a lo largo del siglo XX, un proceso continuo de revisión y adaptación, movido justamente por la conciencia de sus propias

3

limitaciones intrínsecas y del intento de superarlas. La tranquilizadora claridad y linealidad del positivismo del siglo XIX deja libre el terreno para un positivismo del s. XX mucho más complejo, articulado y en algunos casos no exento de contradicciones y puntos oscuros; sin dejar sin embargo de cumplir con algunas premisas de base, como el realismo ontológico y la posición preeminente que defiende la observación empírica como medio para conocer dicho mundo. Los dos momentos del neopositivismo son, el periodo que va de los años treinta a los años sesenta y del postpositivismo con el que se suele identificar su evolución a partir de finales de los años sesenta. Una de las primeras revisiones del positivismo del siglo XIX la llevó a cabo la escuela conocida con el nombre de positivismo lógico, que ha dado origen al neopositivismo. Este movimiento se formó en torno a las discusiones del "Circulo de Viena" y sobre cuyas posiciones se formó un grupo análogo en Berlín. La emigración a EEUU de algunos representantes acreditados de esta escuela difundió el pensamiento neopositivista y su influencia sobre las otras disciplinas, la sociología incluida. En EEUU se desarrolló, a partir de los años treinta, un rico filón de investigación sociológica empírica. La nueva visión asigna un papel central a la crítica de la ciencia, pasando al del análisis crítico de cuanto es elaborado en las teorías de cada disciplina. De ahí el rechazo a las "grandes cuestiones" y a todas las metafísicas definidas exentas de sentido en tanto que indemostrables. En cambio se dedica la máxima atención a los problemas metodológicos de cada ciencia, a la sintaxis de su lenguaje y de sus elaboraciones teóricas, ala crítica de sus tesis y a los procedimientos de validación de las elaboraciones conceptuales a través de la verificación empírica. Se otorga importancia a las cuestiones epistemológicas, es comprensible la influencia que tuvo sobre la metodología de las ciencias, incluidas las ciencias sociales. Uno de los postulados el neopositivismo es que el sentido de una afirmación deriva de su verificabilidad empírica, de la posibilidad de poder formular a partir de ella una definición operativa para controlar su validez."El siginificado de una proposición es el método de su verificación". La principal consecuencia fue su forma de hablar, un lenguaje extraido de las matemáticas y las estadísticas, el lenguaje de las variables. La variable con sus características de neutralidad, objetividad y operatividad matemática, se convertía así en la protagonista del análisis social, de esta manera se despersonaliza. Ya nada podía ser como antes, la concepción de la ciencia del s.XX estaba muy lejos de las sólidas certezas del positivismo del s. XIX, en el que dominaba la concepción "mecánica" de la realidad, la seguridad en las leyes inmutables, la fe en el progreso científico. La mecánica cuántica, la relativización del espacio y del tiempo efectuada por Einstein, introducen elementos de probabilidad y de incertidumbre sobre puntos cruciales, como el concepto de la ley causal, la objetividad-inmutabilidad del mundo exterior e incluso sobre las categorias clásicas del espacio y el tiempo. El momento crucial de este cambio se localiza en el paso de la física clásica a la cuántica, perdiéndose la certidumbre de la ley, que quiebra el ideal clásico de la ciencia como sistema acabado de verdades necesarias. Las teorías científicas ya no están destinadas a explicar los fenómenos sociales mediante esquemas de naturaleza lógica coercitiva, y la ley determinista es sustituida por la ley probabilística, que implica elementos de accidentalidad, la presencia de perturbaciones y fluctuaciones. Si esto es válido para el mundo natural, será más válido para el social.

4

La comparación entre teoría y descubrimiento empírico no puede darse en positivo. las operaciones de medición. nunca válida definitivamente. pero sin menoscabar la centralidad de las cuantitativas. la de la objetividad del dato obtenido. del a etnometodología. Y la comprobación positiva no se da en tanto que los mismos datos podrían ser compatibles también con otras hipótesis teóricas. pero no repudía el fundamento empirista. tiene en su base el lenguaje de siempre. El nuevo positivismo. y la analogía de fondo entre el método de las ciencias sociales y el de las ciencias naturales. Pierde las certidumbres. Se mantiene. Los procedimientos operativos.Categoría de falsabilidad. y siempre expuesta al riesgo de una posible falsación. No existe la discontinuidad que hemos identificado en el paso desde el positivismo del s. es decir. y de que. ha recorrido un largo camino desde la interpretación ingenua de las leyes deterministas del positivismo originario. Criterio de validación empírica de una teoría o hipótesis teórica.. es decir. no sufren variaciones de fondo.1 Los inicios La visión inicial de la "sociología comprensiva" debe a Max Weber a principios de este siglo. clasificando bajo el término general de "interpretavismo" todas las visiones teóricas para las cuales la realidad no puede ser simplemente observada. sino que depende de la teoría incluso el simple registro de la realidad depende de la ventana mental del investigador. bajo un único título podemos incluir la investigación social. sino que tiene que ser interpretada. la centralidad del método "científico" en la investigación social.5. La orientación postpositivista dice que la observación de la realidad no es una fotografía objetiva. 5 . de la cuantificación y de la generalización. las modalidades de obtención de datos. El hombre no puede conocer sino sólo conjeturar. cuando dice que las leyes son probables y abiertas a revisión. mediante la constatación de que los datos no contradicen la hipotesis. 1.XIX al del s. Este procedo no conlleva una anulación del espíritu empirista. la afirmación de que no existe una línea clara de separación entre conceptos teóricos y datos observados. Se produce una importante apertura a las técnicas cualitativas. mediante la prueba de que la teoría es confirmada por los datos: sino que se realiza solamente en negativo. tanto la elaboración de la metodología como los primeros intentos de investigación empírica. El positivismo moderno. y que ha dado lugar a las diversas corrientes del interaccionismo simbólico.XX. seguida por la reinterpretación del planteamiento original que se ha ido concretando a partir de los años sesenta sobre todo en la sociología americana.5 Interpretativismo 1. con la "no falsificación" de la teoría por parte de los datos. De este planteamiento se deriva un sentido de provisionalidad de cada hipótesis teórica. diferentes entre sí pero unidas por la atención común a la interacción individual. Por tanto. La tesis de la teoricidad de las observaciones empíricas. así como la neutralidad del lenguaje observador. de condicionamientos sociales y culturales. derrroca incluso la última de las certezas positivistas. por tanto. fundado sobre las bases de la operacionalización. de la sociología fenomenológica. son simplemente compatibles con ella. las elaboraciones estadísticas.

en primer lugar. al no darse esta separación entre observador y realidad estudiada. Nosotros explicamos la naturaleza mientras que entendemos la vida síquica. el quiere salvar la objetividad de la ciencia social tanto en los términos de su "neutralidad valorativa". para las ciencias del espiritu. en el que indagación procede de manera objetiva para llegar a la explicación causal de los fenómenos. aun así no se puede impedir que éstos intervengan en la elección de los problemas que hay que estudiar. es decir. encaminadas a la identificación de leyes generales y ciencias idiográficas. No de intuición. y que devuelve por tanto al hombre su libertad.Dilthey aúna en su polémica tanto el idealismo hegeliano como el positivismo comtiano. "la capacidad de realizar la distinción entre el conocer y el valorar. Si las ciencias histórico-sociales no pueden admitir en su interior presupuestos de valor. es decir. es de método. sino de interpretación: entender el objetivo de la acción. Las ciencias sociales. aun partiendo de una orientación hacia la individualidad. La relación de los valores viene a designar la dirección particular del interés cognoscitivo que mueve la investigación. Una vez establecida la neutralidad valorativa como primera condición para la objetividad de las ciencias sociales. Se trata de comprensión racional de las motivaciones de la acción. Esta última "no es un principio de valoración. el de la comprensión. aun reconociendo la realidad del condicionamiento. Dilthey realiza en su Introducción a las ciencias del espíritu una celebre distinción entre ciencias de la naturaleza y ciencias del espíritu. es decir. Weber insistió en la necesidad de que las ciencias histórico-sociales estén libres de cualquier juicio de valor. el punto de vista específico en el que ésta se coloca. Windelband. según Weber. de la interrelación individual. el conocimiento se producirá solamente a través de un proceso muy distinto. que así se mantiene también en el curso del proceso cognoscitivo. La preocupación de Weber es no caer en el individualismo subjetivista y en el psicologismo. los valores siguen estando presentes. basando su diferencia justamente en la relación que se instaura entre investigador y realidad estudiada. como en los de la posibilidad de llegar a enunciados con cierto carácter de generalidad. La neutralidad valorativa de las ciencias histórico-sociales sigue siendo un fundamento irrenunciable. se distinguen de las ciencias naturales por su "orientación hacia el individuo" Orientación que.5. 1. delimitando su propio campo. Incluso privados de una función valorativa. entre el cumplimiento del deber científico de ver la realidad de los hechos y el cumplimiento del deber práctico de defender los propios ideales. También el componente 6 . Y para Weber el método es el de "comprender". asumiendo un papel orientativo con respecto a la investigación. sino un principio de elección: sirve para establecer un campo de investigación. siendo más evidente en él la conciencia del problema que la capacidad para darle una respuesta unívoca. captar las dimensiones del propósito y la intención de la acción humana. Weber se adhiere en este punto a la distinción de Rickert entre "juicio de valor" y "relación de valor". introduce la separación entre ciencias nomotéticas. aún así no se puede impedir en su interior presupuestos de valor. orientadas a captar la individualidad de los fenómenos. Mientras que el objeto de las ciencias naturales lo constituye una realidad externa al hombre. su unicidad e irrepetibilidad. que tendrían en común "la misma fe en la historia como progreso necesario a través de fases igualmente necesarias" a partir de una visión de la historia entendida como "construcción del hombre. cumpliendo con lo que podríamos llamar una "función selectiva". Éste es el principio al que debemos atenernos más solidamente. independencia de los juicios de valor.2 Max Weber: Objetividad y orientación hacia la individualidad.

Las uniformidades que el investigador persigue y encuentra en su interpretación de la realidad social no son las leyes.3.5. no deben ser confundidos con la realidad. sino una cuestión de conexiones causales concretas. Todo comportamiento tiene una racionalidad íntima propia. debemos observar dicha interacción para entender la sociedad. mucho más compleja. cuando se trata de la individualidad de un fenómeno. No hablemos. que han determinado un acontecimiento individual cualquiera. Weber se movió en un plano macrosociológico. presente en el Verstehen. una abstracción que nace del reconocimiento empírico de uniformidad. pues. y su interacción es la que crea las estructuras. no es una cuestión de leyes. el Estado. de enunciados de posibilidad. 7 . El movimiento en EEUU en los años 60 desarrolla la perspectiva weberiana en su dirección natural. Estos han sido construidos de modo ideal heurístico. 1. es decir. Desarrollos posteriores Todas las posteriores perspectivas tienen en común las características fundamentales del planteamiento weberiano: el fuerte convencimiento antideterminista. en cambio. por tanto. escribe Weber. en una perspectiva "micro". la posibilidad de una selección de entre la infinidad de los elementos determinantes. y la cuestión causal. procede a coordinarlos dentro de un marco coherente. Si la sociedad está edificada a partir de las interpretaciones de los individuos. de leyes. ontológica entre las ciencias naturales y las ciencias sociales es la irreductibilidad de las segundas a los métodos de investigación de las primeras. a cualquier forma de evolucionismo. También la crítica respecto a cualquier intento de explicar la acción humana a partir del sistema social y de los factores de condicionamiento presentes en él proviene de las aportaciones de Weber. la oposición a cualquier filosofía de la historia. Para Weber el número y el tipo de las causas. aislando algunos elementos dentro de la multiplicidad del dato empírico. Los tipos ideales. son ideales en el sentido de que son constucciones mentales del hombre. En definitiva. ¿cómo es posible llegar a un conocimiento objetivo con caracteres de generalidad? Para Weber los tipos ideales son formas de actuación social que pueden encontrarse de modo recurrente en la manera en que los individuos se comportan. ficciones exentas de vida. sino de conexiones causales o mejor dicho utilizando una expresión tomada de Boudon. De este modo. pero sí es alcanzable el de esbozar las condiciones que los hacen posible. son modelos teóricos que ayudan al investigador a interpretarla. ¿Cómo puede nacer la objetividad desde esta orientación individualista? Si el punto de partida está representado por el individuo y por el sentido subjetivo de su acción. La realidad es. es de hecho siempre infinito. Son cáscaras vacías. la religión. tradicional y racional-legal ha existido nunca en su forma pura.de identificación con el otro. El tipo ideal es. Los tres tipos ideales de poder identificados por Weber. Esas formas se reconstruyen a través de un proceso de abstracción que. la burocracia. la diferencia fundamental. contradictoria y desordenada. el poder carismático. tiene como fin la interpretación racional: identificarse con el otro "para comprender". resulta inalcazable el objetivo de establecer los factores determinantes de un acontecimiento social o un comportamiento individual determinados. el poder. desarrollan una función heurística en el sentido de que dirigen su conocimiento. interesado en comprender fenómenos macroestructurales como la economía. en una perspectiva de historia comparada.. un sentido interior.

privilegiar la segunda ha significado excluir del ámbito de las consideraciones teóricas aquellos interrogantes que no fueran inmediata y simplemente traducibles a procedimientos empíricamente comprobables. En segundo lugar.6 Críticas. Las nuevas corrientes a partir de los años 60 neocomprensivas pusieron el acento. y una parte relevante de sus exposiciones metodológicas está dirigida al intento de conciliar causalidad y comprensión. En la tensión entre teoría y comprobación empírica. especialmente en el periodo del neopositivismo. Dos criticas de fondo. en detrimento de la profundización del contexto de los descubrimientos. adoptar "el lenguaje de las variables". se desplaza la atención del contenido al método. por tanto. conviertiéndose aquí en el objeto primario de la investigación. Asímismo. ars inveniendi. acentuando los problemas de comprobación o de confirmación de la hipótesis en la actividad científica. silenciaba precisamente la dimensión individual. hemos visto que se prestaba una gran atención y cuidado a la formulación y el desarrollo de técnicas y procedimientos empíricos. Las diferencias de fondo implican también una diferencia de técnicas y de procedimientos de investigación. se reducen los límites de la exploración teórica. Se trata de un proceso de reducción progresiva (reduccionismo) que ha atravesado varias fases. por el contrario.El programa "subjetivista" es ante todo una reacción frente al palnteamiento "objetivista" positivista. El enfoque subjetivista elaborará. que. que darán lugar al cuerpo de la denominada "investigación cualitativa" 1. En primer lugar. y nuevas tendencias. en el que el objetivo del científico social ya no es formular teorías y después comprobarlas empíricamente. dominado por el mito del método y el dato. en el carácter subjetivista del planteamiento original weberiano. es decir ars probandi. no descuida las grandes problemáticas sistémicas ni la dimensión institucional de la sociedad. perspectivas radicales. sino recoger y describir los datos con la ingenua ilusión de que los datos hablen por sí mismos. es decir. entonces tendrá que ser estudiada con métodos diferentes de los positivistas. el aspecto humano. procedimientos y técnicas propias de observación y de análisis de la realidad empírica. En Weber está todavía muy presente la tensión por la superación de la subjetividad: él no excluye la posibilidad de llegar a formas de generalización cognoscitiva. aun partiendo de la atención sobre el individuo. todo ello niega la posibilidad de ir más allá 8 . La primera consideración crítica sostiene que el subjetivismo extremo excluye la posibilidad misma de la existencia de la ciencia y en particular de la ciencia social. La realidad es una pura construcción subjetiva. de los problemas de la operacionalización de los conceptos a laos problemas prácticos de la obtención de análisis de datos privados de bagaje teórico y metodológico. En definitiva este proceso de reducción se concluyó desplazando la atención del método al dato. asimilando la realidad social y la acción humana a algo objetivamente estudiable. Si la vida humana es en su esencia distinta de la del mundo natural. La radicalización de esta tendencia ha llevado a una especie empiricismo antiespeculativo. por último. desplazaron la atención sobre el mundo de la vida cotidiana y la interacción intersubjetiva. Por lo que se refiere al paradigma positivista. El subjetivista no puede. por tanto.

de la lucha contra la pobreza y las desigualdades. de la linealidad. de la contradicción. basada en el orden y la racionalidad. El postmodernismo sería un "ir más allá" de los logros del modernismo. de la multiplicidad de verdades locales y contextuales. de los movimientos por los derechos civiles. Aparte de estas macroperspectivas. El modernismo. acusadas de totalitarismo homogeneizante. de la opacidad. Se consolidaron nuevas perspectivas teóricas. de la visión de múltiples facetas alternativas e irreconciliables. Éste sucedia a una década tumultuosa en la historia de las sociedades occidentales. la década de los sesenta. que encabezaba diversas escuelas de pensamiento y diversas visiones teóricas. El último cuarto del siglo XX ha representado un periodo de reto en la historia de la investigación. de las minorías. El postmodernismo. de las protestas estudiantiles. las microinteracciones entre los individuos. Corre el peligro de dejar fuera de su ámbito problemático los aspectos de la sociedad que. rechazo del carácter acumulativo de la ciencia. comenzó a desarrollarse y a crecer también la denominada microsociología. sobre la naturaleza y sobre la sociedad. También la no separación entre el estudioso y lo estudiado contribuye a esta negación. a favor de la paradoja. confianza en la ciencia. en la simplicidad de la explicación científica y en el carácter acumulativo del saber. a favor de planteamientos y lenguajes teóricos múltiples en una exaltación de la fragmentación y de la no unidad de la explicación científica. universales. de negación y represión de las diferencias entre las sociedades con el fin de perpetuar las aspiraciones hegemónicas del mundo y la cultura occidental. neoweberianos. identificación con los oprimidos. consideración del "poder" como categoría explicativa que está en el origen de todas las relaciones y la estructuras sociales. y d)exaltación de lo "Otro". compartían el hecho de poner en el centro de interés y de la investigación sociológica los pequeños hechos de la vida cotidiana. se acusa al enfoque interpretativo de excluir de sus intereses lo que debería ser objeto de la reflexión sociológica por excelencia: las instituciones. de las revueltas urbanas con fondo racial. Se les acusa de microsociologismo. de la simplicidad del conocimiento científico. podemos definir de manera muy simple este movimiento a partir de lo que rechazaba. del desarrollo y la difusión del movimiento feminista. aún teniendo también origen en la interacción individual. c) exaltación del as diferencias. celebración de las diversidades. en una crítica que podemos sintetizar brevemente en cuatro puntos: a) rechazo de teorías generales. En segundo lugar. las dinámicas interpersonales. 9 . han cobrado autonomía respecto a laos individuos y a sus elecciones. y el desarrollo de la teoría crítica y de nuevas perspectivas radicales que se colocaron en abierta polémica con la complaciente alianza entre neopositivismo y funcionalismo. con el nacimiento de enfoques neomarxistas. de imperialismo cultural. de lo distinto. entendido como heredero directo del Iluminismo: ejercicio crítico de la razón sobre el hombre. que había dominado hasta ese momento la elaboración teórica y la investigación social.del individuo y niega la objetividad del conocimiento. b) rechazo de la racionalidad. que. sin embargo.

2. exige una identificación y una implicación mayor. de Sampson y Laub Debate entre investigación cuantitativa y cualitativa ha sufrido diferente etapas.la delincuencia juvenil . en los sótanos de la biblioteca de la Law School de la Universidad de Harvard. en el origen de esta investigación se encuentra una curiosa coincidencia: el hallazo. de unas 60 cajas que contenían el material original de una imponente investigación longitudinal. manuales… Ahora ilustraremos los paradigmas fundadores. En los años 40. Existen múltiples posiciones intermedias y que. ante este inesperado hallazgo. al nacimiento de nuevas revistas científicas expresamente dedicadas al enfoque cualitativo. ha llevado a la elaboración de nuevas técnicas de recogida y análisis del material empírico. subrayando. Por otra parte. La primera investigación que analizamos es fácilmente atribuible a la inspiración y a la instrumentación técnica de la corriente neopositivista. en la que según algunos hay que buscar el origen del comportamiento antisocial. reflexiones.50.1.CAPITULO 2 INVESTIGACIÓN CUALITATIVA CUANTITATIVA E INVESTIGACIÓN 2. propuestas. en el que el investigador trata de "ver el mundo con los ojos del sujeto estudiado". a partir de los ochenta la investigación cualitativa experimentó un agitado desarrollo. también por exigencias didácticas. en la que los pasos cruciales. lo que éstos han generado sobre el terreno de la metodología.1. Años 20. una realizada bajo la inspiración del paradigma neopositivista y la otra con la insignia del paradigma interpretativo: hemos elegido.60 domino sobre todo la perspectiva cuantitativa. investigaciones. como la edad adulta. dos investigaciones realizadas sobre la misma temática .y con numerosos interrogantes en común.1 Paradigma Neopositivista: Crime in the making. descuidando tanto la infancia. Crime in the Making. Iniciaremos este capítulo describiendo dos investigaciones. examinaremos analíticamente las diferencias entre ambos enfoques. En los sesenta el problema se replanteó a partir de una serie de importantes contribuciones teóricas. como el inicio de la edad laboral y el 10 . es posible insertar amplias porciones de técnicas cualitativas. los estudios de sociología criminal se han concentrado sobre todo en esta edad. las diferencias entre los dos puntos de vista. Hipótesis Los delitos cometidos principalmente por adolescentes. 30 ambos criterios proporcionaron productos de alto valor y contribuyeron al avance de la disciplina. recogida a lo largo de 24 años (1939-63) Sampson y Laub. así como un radio de acción necesariamente más limitado respecto al planteamiento cuantitativo. sobre todo dentro del criterio cuantitativo. que ha avivado el debate metodológico. En esta comparación entre perspectiva cuantitativa y cualitativa haré referencia de forma sustancial a dos "tipos ideales" de investigación. para destacar mejor las diferencias entre los dos enfoques. el planteamiento rígidamente interpretativo. deciden reanalizar los datos para responder a los nuevos interrogantes que entretanto había planteado el desarrollo de la teoría y de la investigación a los estudiosos de la desviación de los menores. A continuación.

También se recogió información entre los vecinos.matrimonio. Todo ello en una visión global que se propone superar "el reducido marco de las perspectivas sociológicas y sicológicas hasta ahora dominantes en la criminología. La desviación oficial. escaparse de casa. policías y jueces. entre 10 y 17 años y sobre 500 jóvenes "normales". barrio y cociente intelectual. en último término.1. familia desestructurada. los segundos en escuelas públicas de la misma zona. hurto. continuidad en el tiempo del comportamiento. Datos recogidos sobre 500 autores de delitos jóvenes. varones. juegos de azar. sobre los argumentos: contexto familiar y delincuencia juvenil. …) referidos por los sujetos mismos. por sus padres y por los profesores. infancia antisocial…) como los mecanismos informales de control social operativos en ese momento del ciclo de vida. Este indice representaba la desviación no oficial. como un índice de desviación global ( con puntuación entre 1 y 26). Estos dos indicadores de desviación son. Los capitulos se desarrollan todos del mismo modo lineal. destacan: a) marco teórico b) observaciones empíricas c) resultados de los análisis d) vuelta a la teoría. sobre la base de un plano de correspondencia particularmente cuidadoso: para cada uno de los 500 autores de delito fue elegido un joven "normal" con las mismas características de edad. para pasar a estudios diacrónicos ( o "longitudinales" ) a través de los cuales se sigue a un grupo de individuos durante un periodo determinado.3 Observación empírica y resultados del análisis Indice del "comportamiento desviado no oficial". obteniendo información y datos sobre ellos en momentos sucesivos de su curso de vida. blancos. modelos comparados de crimen y desviación. Este punto de vista implica la necesidad de superar la formulación sincrónica o "transversal" (cross sectional) característica de estudios realizados sobre un grupo de individuos "fotografiados" en un momento determinado. origen étnico. Los primeros fueron localizados en dos correccionales. pueden introducir cambios radicales en la actitud social del individuo. La parte expositiva de los resultados de la investigación cubre cinco capítulos del libro. 2. Se les hizo un seguimiento sistemático entre 1939-48 con entrevistas a ellos mismos. con el fin de registrar los eventuales delitos cometidos. en parte a causa de la utilización de datos limitados a los adolescentes y a un momento determinado" para integrar la criminología en una perspectiva de "trayectoria vital". daños. 11 . Se registraron todos los comportamientos no sólo ilegales ( robo. se reunieron las informaciones procedentes de las distintas fuentes y se construyeron tanto índices de desviación para cada comportamiento. del grupo de los compañeros y de hermanos/as. trabajadores sociales. esbozan las líneas fundamentales de una posible "teoría del control social informal articulada por edades" en la que para cada edad se discuten tanto las variables de fondo tradicionalmente consideradas las causas del comportamiento desviado (pobreza. 2. y se consultaron los autos oficiales del sistema judicial. a sus familias y a sus profesores. papel de la escuela. beber. relaciones sociales adultas y cambio en el comportamiento criminal.1.2 Diseño de la investigación La investigación de Sampson y Laub es un análisis secundario de los datos recogidos treinta años antes. las variables dependientes de la investigación. Sampson y Laub.…) sino también de simple "mala conducta" (fumar. hacer novillos. estaba representada por la variable dicotómica colocada en la base del plan de muestreo de los 500 + 500 sujetos.

las variables estructurales básicas influirían sobre el comportamiento desviado no de modo directo. abandono. "dimensión de la familia". Ponen en relación los tres bloques de dos en dos. todas las relaciones empíricas encontradas entre las variables son resultados esperados de acuerdo con la teoría. a su vez. ¿Qué significa eso? Significa que las variables estructurales no tienen un efecto directo sobre el comportamiento desviado. pobre. "desviación de la madre"… Identifican cinco "variables procesales familiares". Estos resultados vienen a apoyar su "teoría integrada de los controles sociales informales". asumidas todas juntas como independientes. los autores extraen de sus datos la conclusión de que "los procesos familiares de control informal tienen un importante efecto inhibidor sobre la delincuencia de los adolescentes. Por ejemplo. el efecto de las variables estructurales básicas casi desaparece. Vuelta a la teoría. los dos autores plantean un modelo teórico construido en dos fases. Descripción de las variables por parte de los autores. hostilidad por parte de los padres. trabajo…) a las que Sampson y Laub otorgan un papel fundamental en el proceso que lleva a la desviación. con tres categorías: cómodo. una situación de disgregación familiar favorece episodios de abandono por parte de los padres (ausencia de control. marginal. entre variables procesales y desviación (el debilitamiento de los lazos familiares la favorece). como ya se ha precisado. facilita el surgimiento de comportamientos desviados. las variables de proceso o procesales hacen referencia a las relaciones informales (familia. sino que su acción está mediada por las variables procesales. etc. Los autores emplean el instrumento estadístico de la regresión múltiple. La variable dependiente de todo el modelo está representada por el comportamiento desviado. Sobre esta base. "estatus socioeconómico". clasificada en tres categorías. y comportamiento desviado como dependiente). se tratará de desviación "oficial" o de desviación "no oficial". y encuentran siempre fuertes correlaciones: entre las variables básicas y las variables procesales (correlación interpretable en el sentido de que las condiciones estructurales de la familia influyen en los lazos afectivos y la relación pedagógica). Pero a igual control y cuidado por parte de los padres hacia los hijos. Cuando se analiza el modelo completo (variables estructurales básicas y variables procesales familiares. criminalidad de los padres…) . favorece el comportamiento desviado). ligadas a la relación afectiva con los padres. Resultados del análisis. "nacimiento en el extranjero". según los casos. dada por el número de niños. "desviación del padre". cesa la influencia de la disgregación familiar sobre la potencial desviación de los hijos. con valor 1 cuando el niño ha crecido sólo con uno de los padres. Los autores calculan que del total del efecto de las variables estructurales sobre la delincuencia. 12 . las procesales familiares y las dos dependientes (comportamiento desviado). al empleo o no de castigos físicos. Ordenan las variables en tres bloques: las instrumentales básicas. De esta manera. y este hecho. un 73% está mediatizado por las variables procesales familiares. En resumen. dependiente. a la presencia/ausencia de supervisión materna y a situaciones de rechazo. sino mediatizado por las variables "intervinientes" representadas por el vínculo-control familiar. escuela. distinguen nueve variables estructurales básicas: "hacinamiento habitacional". "movilidad residencial". "trabajo de la madre".). Las variables básicas o estructurales son las variables clásicas (pobreza. entre variables básicas y desviación (la situación familiar precaria. etc. disgregación familiar.Los autores distinguen en cada capítulo entre variables básicas o estructurales y variables de proceso o procesales. la relativa al control familiar. por lo que concierne a la primera fase.

hemos fracasado en comprender adecuadamente a los individuos que están en las bandas. 13 .2 Paradigma interpretativo: Islands in the street. desviación y control social informal a lo largo del ciclo vital".En los capitulos sucesivos. en la adolescencia y en la edad adulta? Nosotros. Tras la aceptación por parte de una nueva banda. respecto a la mayoría del as investigaciones realizadas con observación participante. transición a la edad mediana 32-45.2. del trabajo. ya en edad más adulta. 17-25. del matrimonio. Al reconocer la importancia tanto de las "variables estructurales" como de las "procesales". dedicó al estudio 10 años.1. del grupo de compañeros. Diseño de la investigación y recogida de datos La investigación de Jankowski es un ejemplo de "observación participante". de los hermanos. Boston) de diversas connotaciones étnicas y de dimensiones distintas. que consisten en el estudio de un grupo específico. de una organización determinada. sin embargo. en las ciencias sociales así como en las políticas públicas. aclaran que las segundas son las que en último término explican la mayor parte de la variación tanto en la desviación en la adolescencia como en el proceso de salida del túnel de la delincuencia. nunca hemos comprendido completamente las bandas. Para empezar. 25-32. son el "explicar" asumido como objetivo en el primer caso y la insistencia en el "comprender" en el segundo. 2. Él. expresa elocuentemente la diferencia de planteamiento metodológico existente entre las dos investigaciones.York. durante los cuales participó plenamente en la vida de las bandas. compartiendo su cotidianidad. sucesivamente de cinco a diez dias. Infancia 0-10. edad adulta joven. y para cada fase destacan el papel del os factores que favorecen el surgimiento (o el mantenimiento) del comportamiento desviado y de los que. transición a la edad adulta joven. tienden a inhibirlo. de Jankowski ¿conseguiremos desarrollar y someter a control empírico un modelo teórico capaz de explicar el crimen y la desviación en la infancia. pasaba con ella un mes entero. Por ello decide estudiar bandas de diferentes ciudades ( Los Ángeles. Así llegan a lo que llaman "modelo teórico dinámico del crimen. N. al cual añadia resúmenes y reflexiones diarias y semanales. adolescencia 10-17. en cambio. La simple diferencia léxica entre ambos fragmentos. en los últimos tres años de la investigación transcurrió de tres a seis días con cada una de ellas. hasta el punto de llegar a ser herido en enfrentamientos con bandas rivales y de ser repetidamente detenido por la policia. 2. aplican un esquema de análisis relativamente parecido al papel de la escuela. decide desde el principio que su estudio debe ser comparado para entender lo que las bandas tienen en común y lo que en cambio es específico de cada una de ellas. introduciéndose en sus actividades. La recogida de datos. se llevó a cabo mediante registro de apuntes. Estudió 37 bandas. el hecho de que las bandas no hayan sido comprendidas como organizaciones ha impedido nuestra comprensión de su comportamiento. Dividen el curso de los primeros 45 años de edad en 5 fases. y en conclusión reformulan de manera detallada el modelo propuesto resumidamente al principio.

La banda es un sistema social cuasiprivado y cuasisecreto gobernado por una estructura de liderazgo que tiene roles definidos. evitando un fuerte condicionamiento teórico inicial: la teoría tendrá que ser descubierta en el curso de la investigación. la banda como organización. El autor elabora el concepto de carácter (término preferido al de personalidad). la banda y la comunidad. que se deriva de las características mismas del enfoque interpretativo que procede de modo esencialmente inductivo. La banda decidirá aceptar su ingreso si éste satisface las necesidades de la organización.2. Las áreas de renta baja de los suburbios metropolitanos americanos "están en realidad organizadas en torno a una intensa competición que llega hasta el conflicto. La finalidad es la de proporcionar servicios sociales y económicos a sus miembros.2.2 Hipótesis No encontramos la reflexión teórica sistemática que lleva a la elaboración de hipótesis que son controladas empíricamente. individualista y rebelde. El individuo pide entrar en la banda porque piensa que le conviene. Se limita a presentar su investigación y expone las conclusiones a las que su experiencia le ha llevado. El tercer aspecto. Éste tendría la connotación de un intenso sentido de la competición. de control y de valores compartidos. aislamiento social y necesidad de contar sólo con uno mismo. porque en la banda encuentran un sustituto de la familia. La reflexión de Jankowski se desarrolla en tres líneas: el individuo y su relación con la banda. obtendrá su apoyo. "La teoría ha interpretado hasta ahora a las bandas en términos de desorganización social: en una situación carente de orden. al cual debe proporcionar unos servicios. La banda debe ser aceptada por los residentes como parte integrante del barrio. Persigue sus objetivos sin importarle si son legales o no. la vida es una lucha en la que sobreviven sólo los más fuertes y de la cual se deriva un fuerte instinto de supervivencia. que puede obtener ventajas en términos económicos. A cambio. que a menudo llega a la agresión física y que está presente en todas las expresiones del comportamiento. de estatus y de poder. los individuos que viven en los barrios de renta baja entran en 14 .2. en términos de protección de la policia y de los "piratas rivales". 2. de lo que se derivaría individualismo. pues. expulsados con un sistema escolar demasiado poco formado académicamente. un orden social alternativo al tradicional y la banda surge como respuesta organizativa para aumentar la competividad de sus miembros. Yo. para el acaparamiento de los escasos recursos. o bien por imitación.no he encontrado confirmaciones empíricas para estas proposiciones. la relación de la banda con la comunidad en la que está incluida: la fuerte cohesión interna no es suficiente para garantizar su supervivencia: ésta solo puede estar asegurada por la integración de la banda en la comunidad local. la banda ofrece ese orden social y esa seguridad de los cuales sienten necesidad los jóvenes sin medios de los barrios".dice Jankowski . La capacidad de establecer estos vínculos será uno de los principales determinantes de la supervivencia a largo plazo de la banda. Él no ve en las bandas una desviación patológica de las normas sociales.3 Interpretación del material empírico ¿quién entra en una banda y por qué? Jankowski rechaza las respuestas tópicas por proceder de familias desestructuradas. está exenta de burocracia. sino que más bien interpreta la adhesión a ellas como una elección racional. de la desconfianza hacia los demás. y la de su propia supervivencia como organización. Las demandas que hace este individuo a la sociedad encuentran en la banda un posible instrumento de realización. Se desarrolla.

Su estrategia operativa es claramente distinta a la de Sampson y Laub:no partió con hipótesis las fue construyendo sobre la marcha. En este cuadro toma una importancia esencial el análisis sistemático de la literatura: ésta. La forma de proceder de Jankowski es totalmente distinta. la relación está estructurada en fases lógicamente secuenciales. por tanto. es decir. según un planteamiento deductivo (la teoría precede a la observación) que se mueve en el contexto de la "justificación". conclusiones teóricas. En el caso de la investigación cuantitativa inspirada por el paradigma neopositivista. no propone teoría e hipótesis empíricamente controlables. resultado del análisis. Sampson destaca por su geometría: exposición de la teoría.la banda por varias razones.3. al ver en ello un condicionamiento que podría inhibir su capacidad de "comprender" el punto de vista del sujeto estudiado. pero todas basadas en el cálculo de lo que se mejor para ellos en ese momento determinado. observaciones empíricas. entrelazadas.1 la relación establecida entre teoría e investigación. Elaboración teórica e investigación empírica proceden. de la corroboración empírica de la teoría formulada previamente. El resultado es radicalmente distinto al de la investigación precedente: el objetivo ya no está representado por "modelos causales" en los que las variables están conectadas entre sí por relaciones de causa-efecto. Las 6 motivaciones que ha encontrado: Incentivos materiales. En la investigación cualitativa que deriva del paradigma interpretativo.1 Planteamiento de la investigación Las dos investigaciones se diferencian desde la estructuración de las diversas fases que llevan desde el planteamiento del interrogante inicial hasta el último capítulo. Una geometría circular que de la teoría sale y a ella vuelve. de hecho.3 Investigación cuantitativa e investigación cualitativa: Una comparación Empleando como ejemplo las dos investigaciones apenas presentadas. 15 . cuando rechaza las explicaciones sicosociales tradicionales respecto a la decisión de entrar en una banda. el análisis de los datos. No hay introducción. Es la expresión de un orden conceptual que ha guiado la forma de proceder de los dos estudiosos y que nace de una visión de la investigación entendida como proceso racional y lineal. 2. la obtención de datos. 2. su formulación en forma de "modelo" empíricamente controlable. Parece apropiado hablar de "teoría que surge de los datos". en una clara aplicación del paradigma interpretativo. que en cada capítulo se reemplantea: marco teórico. la relación entre teoría e investigación es abierta. un cierre prematuro del horizonte. a favor de una lista articulada de motivaciones de tipo racional. Tabla 2. la vuelta a la teoría. la planificación de la investigación. Refugio y escondite. en los dos enfoques es muy distinta. Su capítulo teórico inicial es ya una mezcla de teorías y conclusiones. logra hacernos entender cómo llegó a esa conclusión a partir de las entrevistas realizadas y no sobre la base de un prejuicio teórico. queremos comparar analíticamente las respuestas que las técnicas cuantitativas y cualitativas han dado a los problemas más relevantes de la investigación social. de esa pérdida de peso de la teoría acumulada en la comunidad científica se deriva una importancia menor de la reflexión sobre la literatura. Nunca hay una separación entre teoría y resultados empíricos. es la que sugiere la hipótesis de las que partir. Diversión. El investigador cualitativo a menudo rechaza intencionadamente la formulación de teorías antes de empezar el trabajo sobre el terreno. a partir de la experiencia vivida. sino más bien por clasificaciones y tipologías. interactiva.

en cambio. Las dos formas de hacer investigación encuentran dos ilustraciones típicas y opuestas en las técnicas del experimento y de la observación participante. Tomemos el concepto de "disgregación familiar" en la investigación de Sampson y Laub. Entre ellas existen múltiples matices. como investigador. De esta doble perspectiva se derivan dos hechos. Estudiar a los individuos no es como estudiar a las hormigas o los átomos: si las personas saben que son observadas. La observación participante misma rara vez es perfectamente "naturalista". su transformación en variables empíricas observables. Un investigador cualitativo no se habría movido nunca de esta manera. él estudia lo que . mediante su "operacionalización". Y simétricamente. La segunda articulación de la relación entre estudioso y realidad estudiada se refiere a la relación del investigador con cada individuo estudiado. en cambio. cuantitativa i cualitativa es la relación general con el ambiente estudiado. En el enfoque positivista. por otro lado. habría utilizado lo de "disgregación familiar" como un concepto "orientador" que predispone a la percepción. es muy probable que se comporten de forma no natural. una diferencia básica entre paradigma neopositivista y paradigma interpretativo se encuentra en la definición del objeto de la investigación. propia del observador "científico" neutral y distanciado. Los autores operan con él del siguiente modo: valor 1 (disgregación) cdo. Uno de los problemas que debe afrontar el investigador social es el de la reactividad del objeto de estudio.Hay también un uso diferente de los conceptos. Más en general. le parece importante. y que hay que agotar no sólo en términos operativos sino también en términos teóricos. considera que el enfoque naturalista (intervecnción sobre la realidad en la que el investigador se abstiene de cualquier manipulación) es un requisito básico para realizar su investigación empírica. El planteamiento neopositivista no está preocupado por este problema ya que considera que el problema de la reactividad del objeto no representa un obstáculo básico. Otra diferencia entre inv. uno de carácter psicológico-cultural y otro que podríamos definir de carácter físico-espacial. la investigación cuantitativa no siempre es tan manipuladora como en el caso del experimento. es decir. en el sentido de que la presencia de un observador extraño no dejará a los sujetos totalmente indiferentes. todos los instrumentos del análisis cualitativo distintos de la observación implican siempre una intervención sobre la realidad. valor 0 en el resto de los casos. para comunicar. o al menos considera admisible un cierto margen de "manipulación controlada". Los conceptos que son elementos constitutivos de la teoría y al mismo tiempo son los que permiten que la teoría sea sometida a control empírico. El primero concierne a la interacción psicológica estudioso-estudiado. en la familia uno o los dos padres están ausentes. con la intención de ver la realidad social "con 16 . El investigador cuantitativo se coloca en un punto de observación externo al sujeto estudiado. esto permite registrar empíricamente el concepto pero también conlleva la desventaja de una fuerte reducción y empobrecimiento del mismo. Como hemos señalado previamente. en el curso de la investigación mism. sintetizable en el primer caso como "comprobación empírica de la hipótesis" y en el segundo como "descubrimiento del punto de vista del actor social". y presenta muchas graduaciones en su interior. por lo menos en forma de estímulo para hablar. La investigación cualitativa. para contar. la clarificación de los conceptos y su operacionalización en variables tienen lugar incluso antes de iniciar la investigación. lo más dentro posible del sujeto de análisis. Ya sólo el hecho de investigar el comportamiento humano puede implicar alteraciones del comportamiento mismo. El investigador cualitativo se sitúa. Se trata de técnicas de investigación cuyas diferencias son muy extremas.

se derivan otras dos características que distinguen a ambos enfoques. abierto. Por todo ello. En la vertiente cualitativa. sino que tiende a desarrollar una relación de identificación empática con los sujetos. Pero la exigencia de proximidad fisico-espacial con el objeto estudiado está presente en todas las técnicas cualitativas. idóneo para captar lo imprevisto. resulta evidente la diferencia radical entre ambos enfoques respecto al papel del objeto estudiado. se refiere a la interacción física entre estudioso y estudiado. La primera se refiere a la representatividad de los sujetos estudiados. de su cultura y valores. Suele ser por cuestionario. La investigación cuantitativa no suele prever contacto físico alguno entre estudioso y estudiado. En cambio. modelado en el curso del proceso. y en el otro por la proximidad y el contacto. de su experiencia. En el planteamiento cuantitativo. una vez construida la muestra de los 500 autores de delito y de los 500 no autores de delito. análisis secundario. se hace todo lo posible para reducir al mínimo su interacción con el investigador. que en la interacción empática con el sujeto estudiado se expone al riesgo de una implicación emotiva y. no necesita conocer físicamente a ninguno de los sujetos estudiados. La concepción de la investigación como "observación" y "estudio" implica una consideración de los individuos estudiados como objetos. una vez definidos algunos criterios de fondo a observar. Recogida de datos La diferencia entre los dos enfoques se basa en el grado en que los procedimientos están estructurados. Nunca se mantiene neutral o indiferente. En la investigación cuantitativa el investigador está preocupado por la posibilidad de generalizar los resultados. el individuo estudiado es considerado pasivo. y el uso de la muestra estadísticamente representativa es la señal más evidente de esta preocupación. al menos en el campo de las ciencias sociales. Nadie mantiene la posibilidad de un ideal absoluto de ciencia objetiva y libre de valores.2. por tanto. caracterizada en uno de los casos por la distancia y separación. éstos se mantenían para siempre y de forma rígida como los sujetos a estudiar. e incluso cuando no puede considerársele así. es un problema que también existe en la investigación cuantitativa ya que el investigador ve el mundo filtrado por las lentes de su punto de vista. En el caso cuantitativo el diseño de la investigación se construye teóricamente antes del inicio de la recogida de datos. al contrario. mientras que la investigación cualitativa es más flexible. En el caso de la investigación de Sampson y Laub. 2. la concepción de la investigación como "interacción" implica naturalmente un papel activo del sujeto estudiado. Sucede todo lo contrario en el caso de la investigación cualitativa.3. El segundo hecho. El caso de la observación participante sirve una vez más de ejemplo del punto de vista de la investigación interpretativa. experimento de laboratorio. Tenía además la libertad de entrevistar a quien quisiera. en la investigación cualitativa está desestructurado. Pero es igualmente cierto que el problema se le plantea mucho más marcadamente al investigador cualitativo. Esto pone de manifiesto el problema de la objetividad en la investigación cualitativa. en la que el encuentro entre estudioso y estudiado es una condición previa para la comprensión. el investigador era libre de elegir las bandas más adecuadas para su objetivo. de interpretaciones fuertemente unilaterales. la investigación cuantitativa tiene un diseño rígido. Podríamos decir que el 17 . En la investigación de Jankowski. y está rígidamente estructurado y cerrado. en cambio. De este planteamiento cerrado o abierto.los ojos de los sujetos estudiados". de alargar o acortar la observación según la conveniencia… Normalmente.

subjetivos. Al investigador cualitativo no le interesa en absoluto la representatividad estadística.investigador cuantitativo está preocupado por la representatividad del fragmento de sociedad que está estudiando. dado que el investigador asume informaciones distintas según el caso. los distintos grados de articulación y profundización. busca llegar siempre a datos hard: por ejemplo en el caso de la actitud hacia un representante político. es decir blandos. Al contrario. En la investigación cuantitativa todos los sujetos reciben el mismo tratamiento. que irán de un sobrio "no me gusta" a juicios ricos de color y matices personales. La investigación cuantitativa. con distinto nivel de profundización según la conveniencia. Naturaleza de los datos. objetivos y estandarizados. algunos activistas comunistas se mostraron desconfiados. precisos… atributos hard. no habían sido preseleccionados al inicio de la investigación. Los sujetos a entrevistar.3 Análisis de los datos El análisis de los datos representa quizás la fase de una investigación social en la que resulta más visible la diferencia entre el enfoque cuantitativo y el cualitativo. sin embargo. una matriz de números ordenados en filas y columnas donde se han codificado las mismas informaciones para todos los casos. relativos…así la popularidad de un hombre político se obtendrá siguiendo las perspectivas. Lo contrario puede decirse del investigador cualitativo. pidiendo a los entrevistados que le atribuyan una calificación del 1 al 10. El instrumento de investigación es uniforme para todos los casos o en cualquier caso uniformador. La investigación cualitativa no persigue este objetivo de estandarización. igual que algunos sacerdotes. que se decide sobre la base no ya de fórmulas matemáticas. éste empleo la técnica de la observación participante que acompañó con una serie de entrevistas con "observadores privilegiados". mientras que al contrario. los puntos de vista. Tomemos por ejemplo la investigación sobre "comunistas y católicos" llevada a cabo en un barrio de Bolonia a finales de los años setenta por un antropólogo americano. sociológica. que en un caso es descubrir las uniformidades del mundo humano y en el otro es comprender las manifestaciones en su individualidad. Esta uniformidad se produce porque el objetivo final de la recogida de informaciones es la "matriz de los datos". El segundo elemento diferenciador entre investigación cuantitativa e investigación cualitativa es el constituido por la uniformidad o no del instrumento de investigación. Si acaso le interesará una especie de representatividad sustantiva. En la investigación de orientación cuantitativa éstos son fiables. no se plantea el problema de la objetividad y de la estandarización de los datos. Se utilizaron tanto entrevistas en profundidad "no estructuradas" como entrevistas estructuradas (mismas preguntas a todos los sujetos). La investigación cualitativa. Este planteamiento distinto se atribuye a la diferencia del objetivo cognoscitivo. El fuerte impacto de la instrumentación matemática y estadística empleada en el caso 18 . aunque sea a costa de perderse el seguimiento de situaciones atípicas y de mecanismos no generalizables. 2. la cultura de los entrevistados. sino del juicio del investigador mismo.3. más que por su capacidad de comprender. la falta de homogeneidad de las informaciones es su principal elemento constitutivo. A lo largo de la investigación se dio cuenta de que su objetivo era inalcanzable. flexibles. respetando las formulaciones y las ópticas de cada uno. y se preocupa en cambio de su riqueza y profundidad… atributos soft. que antepone la comprensión. se revelaron como informadores preciosos individuos que no habían sido incluidos previamente entre los sujetos a entrevistar.

siempre a través de las variables de manera impersonal. Se hablará de medias de las variables. Distingue los episodios de violencia según sean expresiones de violencia individual o de violencia organizada (por la banda). por tanto. se pregunta las causas de la violencia en el comportamiento de los individuos que pertenecen a las bandas. la ambición. Él identifica cuatro factores desencadenantes de la violencia: el miedo. más exactamente de una perspectiva holística en el análisis del comportamiento humano. en el que falta un aparato estadístico-matemático. los autores llegan a la conclusión de que. de otras bandas. hemos "explicado estadísticamente" la variación de la variable "delincuencia". El autor creó. y del mismo modo trataría de obtener. En contraste. y la aportación de instrumentos informáticos. y los clasifica en su globalidad según diversos tipos. llegados a este punto. sino por el individuo en su totalidad.cuantitativo. trataría de obtener la variable dependiente "violencia". El objetivo del análisis. ambición. El enfoque interpretativo critica este modo de proceder. exhibición). 19 . será "explicar la variación" en los valores de las variables dependientes. Se pondría. en lugar de llevar a cabo su análisis por variables. del mismo modo en que en el enfoque cuantitativo el objetivo era "explicar la variación de las variables".. "los procesos de control social informal puestos en práctica por la familia y por el colegio proporcionan la clave interpretativa a fin de lograr la explicación causal de la delincuencia en la infancia y en la adolescencia. Esta acusación se hace en nombre de la irreductibilidad del "hombre" integral a una serie de variables distintas y separadas. asumiendo la necesidad de una perspectiva global. Un investigador cuantitativo. La investigación cuantitativa es variable-based. como meta. es "comprender a las personas". limitado al mero auxilio para la organización del material empírico. residentes de la comunidad. contrastan con la sobriedad de un análisis cualitativo. si todos los delincuentes proceden de familias con padre violento mientras que aquellos con padre no violento son todos no delincuentes. coherentemente con su ubicación dentro del paradigma interpretativo. residentes fuera de la comunidad. contra la propiedad en la comunidad y fuera de ella). de relaciones entre las variables. pues. Jankowski. frustración. Jankowski. él lo hace por sujetos. cada una de las cuales diferencia cuatro casos en función de los cuatro factores emotivos mencionados que desencadenan la violencia (miedo. con los instrumentos estadísticos oportunos. las cuatro variables independientes mencionadas. La diferencia más importante se localiza en la lógica que guía el análisis mismo. "explicar la variación" de la variable dependiente "violencia". puede ser interpretado en el sentido de que hemos encontrado la "causa" de la variable delincuencia. a lo largo de su trabajo. acusándole de asumir impropiamente el modelo científico de las ciencias naturales. captar la correlación entre las variables independientes y las variables dependientes. obtiene así una tipología de 48 tipos. de porcentajes de las variables. hecho que como veremos más adelante. identificando seis (violencia contra miembros de la misma banda. una clasificación constituida por 12 situaciones. con indicadores adecuados. la frustración y la exhibición. Sampson y Laub. Distingue también los contextos en los que esa violencia se realiza. le objetivo del análisis. la cualitativa es case-based. la investigación cualitativa adopta un planteamiento para el análisis de los datos completamente diferente. El objeto del análisis ya no está representado por la variable. El análisis de los datos se hará en efecto. es decir. Como puede verse. a partir de las variaciones de las variables independientes. desarrollan su investigación sobre la base de las correlaciones entre variables dependientes e independientes.

una de las cuales es el término bueno con el que no s identificamos. podemos sacar las siguientes conclusiones: mientras que.9 PCI 31. es decir. 2.8 las alternativas De ningún modo dicotómica 16. ésta nos sugiere que los militantes estudiados están repartidos de forma equilibrada entre "dicotómicos" y "articulados". Resultados.5 38.9 10. y atribuyendo a cada categoría un valor numérico. por lo que el esfuerzo par operar con los conceptos en términos matemáticamente tratables es máximo.7 100 DC+PCI 18.1 hablamos de perspectiva relacional. Pero tiene una sensibilidad más articulada para 51.4 38.9 3. En la investigación cualitativa. En un caso el lenguaje de las matemáticas es entendido como el lenguaje de la ciencia.2 100 Totalmente dicotómica Predominantemente dicotómica Concibe la realidad como lucha entre posiciones. permitiendo al lector "visualizar" a los entrevistados. En primer lugar. clasificando las respuestas a cada temática diferente en categorías. sino incluso dañina y es completamente ignorada. la "tabla" y la "narración".5 32. Con pocos números ilustra una importante carácterística de la ideología de los activistas como es la relación entre afiliación política y orientación ideológica. En segundo lugar. la cita confiere al dato una dimensión pictórica totalmente desconocida para la simple tabla. Las dos formas clásicas de presentación de los datos en las tradiciones cuantitativas y cualitativa son. respectivamente.9 25.7 Total 100 ¿Qué nos dice esta tabla? Si nos fijamos en la columna relativa al total de los entrevistados (DC +PCI). si consideramos separadamente a los militantes de DC y de PCI.4. y máxima es la utilización de las técnicas estadísticas para analizar los datos y para inferir generalizaciones de la muestra a la población. así como la fotografía de un personaje permite un 20 . entre los primeros los "dicotómicos" están en minoría (menos de un tercio). Una de las variables así obtenida se definió como "visión dicotómica de la realidad". estos datos presentan un límite doble. entre los segundos las visión dicotómica es preponderante (más de dos tercios). y la otra es el enemigo al que enfrentarse y eventualmente vencer y destruir" DC 5.3. Tabla 2. la tendencia a interpretar las fuerzas agentes en la sociedad en términos de "frentes contrapuestos… dos partes.Queda poco que añadir sobre las diferente relación que investigación cuantitativa y cualitativa tienen con las técnicas matemáticas y estadísticas. Pongamos como ejemplo una investigación realizada en Italia a mediados de los años sesenta sobre los militantes de base de la Democracia Cristiana y del Partido Comunista. Se estudió a 108 activistas (54 democristianos y 54 comunistas) mediante entrevistas conducidas de 6 a 7 horas. Sin embargo. el mismo hecho de reproducir las palabras del entrevistado permite "ver la realidad con los ojos de los sujetos estudiados" de un modo más efectivo. la formalización matemática es considerada no sólo inútil.6 25.

La conclusión de una investigación debería ir más allá de la simple exposición de distribuciones de variables o ilustraciones de casos. Ya que el objetivo de la investigación no debería ser sólo describir la realidad. "efectos" y "condiciones". mientras que la tipología representa el esquema teórico que une a los sujetos (lógica de la "clasificación"). Tras haber fragmentado al individuo en variables. En este caso el análisis de los datos se realiza con instrumentos cuantitativos. Si bien tabla y narración son dos formas típicas de presentar los resultados en la investigación cuantitativa y en la cualitativa. que el modelo causal enlaza las variables entre sí. con el fin de utilizar el "modelo" así obtenido como concepto-límite con el que iluminar e interpretar la realidad misma. La narración sirve para ejemplificar los resultados. en cierto sentido. Tabla 2. Mientras que la investigación cuantitativa se pregunta por los porqués. la tabla y la narración son dos formas de presentación elemental y. con la misma función que cumple una fotografía en un artículo de periódico. utilizables sólo por uno o por el otro tipo de investigación. una investigación llevada a cabo sobre una única situación específica. Será la lógica del mecanismo de causa-efecto la que guiará la mente del investigador cuantitativo: hemos dado un ejemplo de ello en la investigación de Sampson y Laub. (recordemos Jankowski). Como hemos tenido ocasión de decir en el capítulo 1. purificándolos. la investigación cualitativa no puede actuar sobre un número muy grande de casos. en la formulación de expresiones sintéticas que adoptan una forma cercana a la de las "leyes" de las ciencias naturales. El problema de las generalizaciones. la cualitativa se interroga sobre los cómo. En el enfoque cualitativo es más difícil encontrar maneras de sintetizar las informaciones suficientemente generales y compartidas por los investigadores. El investigador que sigue el enfoque interpretativo raramente utiliza la tabla para mostrar sus variables relevantes. sino también proporcionar sistematizaciones y síntesis de orden superior. por así decirlo. 21 . el tipo ideal es una categoría conceptual que no tiene un correlato exacto y específico en la realidad. Es muy común el caso de investigaciones de planteamiento neopositivista en las que la narración se emplea con fines ilustrativos. éstos no son instrumentos unilaterales. en los casos más afortunados. para que el lector pueda comprender mejor el universo real que está detrás del dato numérico. Es una construcción que. Podemos añadir finalmente.conocimiento muy distinto y mucho más completo respecto de la mera descripción de sus rasgos externos. fragmentada de los datos. aun naciendo de la observación de casos reales. Diferencia entre el enfoque cuantitativo y el cualitativo con respecto a los dos mecanismos de la "explicación" y de la "interpretación".1 hemos denominado perspectiva narrativa. los libera de los detalles y de los accidentes de la realidad para extraer sus características esenciales. en un nivel superior de abstracción. Mucho más raro es el caso contrario. sobre variables numéricas a través de tablas y análisis multivariados. Muy frecuentemente se presenta el denominado "estudio de caso". en tanto que se reacio a aplicar categorizaciones propias a las respuestas y a las actitudes de los entrevistados. y el interrogante del investigador siempre está guiado por la pregunta de "que causa qué" y bajo qué condiciones. Alcance de los resultados. el análisis cuantitativo aporta una primera síntesis a través de la correlación entre las variables y llega a una unidad conceptual en el modelo causal e incluso. debería poder establecer relaciones entre las variables o conexiones entre los casos. en la que las variables se pueden agrupar en "causas".

e incluso la estructura misma de su personalidad científica. que. caracterizados por divergentes planteamientos filosóficos de fondo. dice el autor. considero difícil. Ahora bien. sino imposible. 22 . no niega. utilidad e igual dignidad de los dos métodos. corresponde a la postura de quien habiéndose decantado por el paradigma neopositivista. son investigaciones realizadas sobre la base de una de las dos perspectivas. sin embargo.4 Dos formas diferentes de conocer la realidad social ¿ Es mejor hacer investigación social utilizando la perspectiva cuantitativa o la cualitativa? ¿Se puede afirmar que uno de los dos enfoques es superior al otro desde el punto de vista "científico"? Pueden distinguirse tres posturas al respecto. una mayor capacidad de generalización que los resultados de la investigación cualitativa. aunque como mera instrumentación auxiliar y adicional. más representativa será su muestra de la situación real y. indudablemente. por tanto. pues. más que de una reflexión filosófica y epistemológica nueva. La tercera postura. no difieren entre sí por meras cuestiones técnicas. En realidad. de la constatación pragmática de que indudablemente a la sociología y a la investigación social les han llegado contribuciones preciosas y fundamentales tanto de investigaciones cuantitativas como de investigaciones cualitativas. Y los defensores respectivos de las dos posturas afirman que la suya es la exacta. abarque un mayor número de sujetos. De las tres posturas presentadas comparto esta tercera. sino que son la expresión directa y lógica de dos visiones epistemológicas distintas. sostiene la plena legitimidad. me hace pensar que muy dificilmente y en casos raros se pueda mostrar una flexibilidad semejante. encontrando que son adecuadas para la fase exploratoria de la investigación. Cuanto más amplia sea la investigación. las dos formas de hacer investigación. por último. los resultados de la investigación cuantitativa presentan. sin embargo. A las técnicas cualitativas se les imprime un carácter precientífico. inversamente relacionadas. y que la antagonista es la equivocada. opte por un enfoque o por el otro ( o por ambos). En conclusión. Considero difícil que un mismo investigador sea capaz de llevar a cabo una investigación que utilice por igual instrumentos de producción y análisis de datos cualitativos y cuantitativos. La profundización tiene un coste. Su formación. y es el resultado. 2. paradigma neopositivista y paradigme interpretativo. El segundo punto de vista. Pero el número de casos está ligado a la posibilidad de generalizar los resultados. se sirven de técnicas tomadas del otro enfoque. más legítimamente podrán inferirse sus resultados a la población total. En mi opinión. que las técnicas cualitativas puedan aportar una contribución válida a la producción y el análisis de los datos sociales. y presagia el desarrollo de una investigación social que. y el precio a pagar se establece en términos del número de casos estudiados. Los procedimientos y los instrumentos utilizados son demasiado distintos. La primera es la de los que mantienen que enfoque cuantitativo y enfoque cualitativo. pero con un matiz importante.Profundidad y amplitud están. utilizar los dos planteamientos dentro de un mismo diseño de investigación. pues cumplen una función de estimulación intelectual en una especie de "tormenta de ideas". Esta postura ha crecido en los últimos años. los estudios que se citan como ejemplos de investigación que utilizan los dos enfoques. No creo que los métodos cuantitativos o cualitativos representen dos declinaciones puramente técnicas de un mismo modo sustancial de entender el mundo social y la finalidad de la investigación. muy difundido entre los científicos sociales de orientación cuantitativa. representan dos puntos de vista incompatibles en tanto que son inconmensurables epistemológicamente. según las circunstancias y las oportunidades. es decir.

es porque me he aupado a hombros de gigantes" dijo Isaac Newton. no hay reglas lógicas en cuyos términos se pueda construir una "maquina descubridora" que desempeñe la función creativa del genio" La labor del científico no consiste únicamente en producir teorías. esa misma exigencia de distintos ángulos visuales que en el museo nos hace girar alrededor de la estatua para poder captarla efectivamente en su totalidad. denominó respectivamente. Por una parte implica el control: "Los conceptos y los procedimientos empleados. el episodio de la iluminación repentina. y vuelve a la teoría. del proceso de investigación científica. Se elige una perspectiva. Por otra. y ni siquiera el más importante. 3. y los resultados de sus intuiciones deben poder ser comprobados también por otros". técnicas cuantitativas y cualitativas conducen a conocimientos diferentes. En el primer estadio no es posible establecer reglas ni procedimientos. Y esta fase. en tanto que existe la necesidad de una aproximación múltiple y diferenciada a la realidad social para poder conocerla efectivamente. Una de las definiciones más comunes de la ciencia es la de "acumulación sistemática de conocimiento". incluso por el más intuitivo de los sociólogos. Reichenbach. sino un enriquecimiento. El atributo "creativo" es importante en esta definición. tanto si se desarrolla sobre el plano del examen lógico-formal de la teoría como si aborda el tema de su congruencia con la realidad.1. sino también en ponerlas a prueba. La traducción empírica de la teoría 3. La investigación científica. atraviesa las fases de recogida y análisis de los datos.1.Para concluir.1 Estructura "tipo" de la investigación cuantitativa La investigación científica es un proceso creativo de descubrimiento que se desarrolla según un itinerario prefijado y según procedimientos preestablecidos que se han consolidado dentro de la comunidad científica. es un proceso colectivo. introdujo una distinción entre el momento de la concepción de una nueva idea y el relativo al modo en el que ésta es presentada. "El acto del descubrimiento escapa al análisis lógico. "La ciencia es pública no privada" escribió Merton. su perspicacia e inteligencia intuitiva. Pero esto no es un límite. y evoca las capacidades personales del investigador. Pero puede haber una infinidad de ellas. Es un itinerario trazado más o menos de la misma forma en todos los manuales de investigación empírica 23 . El marco de referencia colectivo que el científico social debe tener presente en la realización de su investigación se articula en dos momentos: la estructura lógica del itinerario de la investigación y la instrumentación técnica a utilizar. como no hay una representación absoluta y "verdadero" de la realidad. La primera regla fundamental de la investigación empírica es que debe desarrollarse dentro de un marco compartido colectivamente. contexto del descubrimiento y contexto de la justificación. debe seguir unas reglas muy precisas. deben estar estandarizados. Las cinco fases del proceso de investigación El itinerario "tipo" que un investigador social sigue en la realización de una investigación consiste en un recorrido cíclico que comienza por la teoría. implica la acumulación: " Si he conseguido ver más lejos. enfoque neopositivista y enfoque interpretativo. Capitulo 3. Pero éste no es más que un aspecto. No existe un retrato absoluto.

Generalmente se da el nombre de informaciones a los materiales empíricos brutos aún no sistematizados. El primero se refiere a la operacionalización de los conceptos. El segundo tiene que ver con la elección del instrumento y de los procedimientos de registro de los datos. sometiendo los textos a una plantilla de análisis del contenido… La matrizdatos representa el punto de partida para el análisis de los datos. La hipótesis representa una articulación parcial de la teoría. de transformación de las hipótesis en afirmaciones empíricamente observables. La teoría es "general" mientras que la hipótesis es "específica". denominada asímismo matriz "casos por variables" (C x V). ésta se obtendrá por ejemplo.Fases Teoría Procesos Deducción Hipótesis Operacionalización Producción de los datos Análisis de los datos Resultados Inducción (diseño de la investigación) Organización de los datos (matriz-datos) Interpretación La primera fase es la teoría. y el de datos. que será precedida por la organización y sistematización de los datos obtenidos. que suele consistir en 24 . estandarizando las respuestas de las entrevistas abiertas. o sea a la transformación de los conceptos en variables. Este proceso es muy complejo y puede ser dividido en dos momentos. codificando de forma sistemática las respuestas a los cuestionarios. de un "plan de trabajo" que establece las diversas fases de la observación empírica. en entidades registrables: por ejemplo. se pasará a la cuarta fase. La tercera fase es la de recopilación de datos y a ella se llega a través del proceso de operacionalización. pues. uniformando las fuentes estadísticas. en términos de generalidad. La segunda es la hipótesis. se podrá operacionalizar el concepto de éxito profesional a través de la renta o bien a través de la consecución de un empleo mejor que el paterno. Terminada la recopilación del material empírico. a esos mismos materiales organizados de tal forma que puedan ser analizados. y se coloca en un nivel inferior respecto a ella. la del análisis de los datos. es decir. y el paso entre las dos se produce a través del proceso de la deducción. es decir. etc. la matriz de los datos. La decisión sobre estos aspectos lleva a la definición de lo que se denomina el diseño de la investigación: la definición. En la investigación el proceso de organización de los datos consiste generalmente en transformar las informaciones en una matriz rectangular de números.

Aunque el esquema base prevé que la investigación no comience antes de un repaso exhaustivo de la teoría y la formulación de hipótesis muy precisadas. en la de una espiral. La proposición teórica enunciada. Abstracción y generalización: la teoría trasciende las expresiones empíricas específicas tanto desde el punto de vista conceptual (abstracción) como desde el del campo de aplicación (generalización). a la teoría.2.elaboraciones estadísticas realizadas con la ayuda de una calculadora o un programa de análisis estadístico. Deducida de regularidades empíricas: la teoría nace de la ( y se confirma en la) constatación de repeticiones en la realidad observada. Productividad de previsiones empíricas: de una teoría extraída de la observación de determinadas regularidades empíricas se pueden deducir acontecimientos en otros contextos diferentes. La quinta fase es la de la presentación de los resultados. Por último. comienza en la teoría y a la teoría vuelve. más que en la forma de círculo. en el que a partir de los resultados empíricos se comparan éstos con las hipótesis teóricas. que formulan un alto grado de abstracción y generalización respecto a la realidad empírica. el equilibrió entre deducción e inducción puede resultar diferente. que identifica tres ideales de suicidio: el suicidio egoista. y más en general. y ésta no es desarrollada ni toma cuerpo hasta la fase del análisis de los datos. cohesión social y suicidio tienen significado abstracto respecto a la realidad observada ). Fundamento teórico del suicidio egoísta: “Cuanto más elevada sea la tasa de individualismo en un determinado grupo social. mayor será la tasa de suicidios en ese grupo”. 3. para llegar a su confirmación o a una reformulación. Pero en cualquier caso el itinerario de referencia sigue siendo el trazado por el esquema. El esquema. a la cual se llega a través de un proceso de interpretación de los análisis estadísticos realizados en la fase anterior. que une individualismo y suicidio.1. el relativo a la teoría del suicidio de Durkheim. en la que teoría e investigación están conectadas en el proceso de acumulación del conocimiento sociológico. en tanto que la conexión que Durkheim propone se considera válida para un amplio conjunto de la sociedad. Ilustramos lo apuntado hasta aquí con el más clásico de los ejemplos. que son deducidas de regularidades empíricas y de las cuales pueden deducirse previsiones empíricas. Generalización. En la relación con la teoría. es una proposición causal. que presenta las características de abstracción ( conceptos mencionados de individualismo. hay sin embargo investigaciones que empiezan con un embrión de teoría. encomendadas únicamente a su moralidad personal. con la teoría de origen. Teoría Teoría es un conjunto de proposiciones orgánicamente relacionadas.2 De la teoría a las hipótesis 3. es decir. Otras veces se salta toda la fase de la recogida de datos en tanto que la investigación utiliza datos ya existentes. dedujo y controló empíricamente su teoría a través del 25 . tal proposición es deducida de uniformidades empíricas ya que Durkheim. por individualismo se entiende una situación social y cultural en la que la persona es plenamente libre en las elecciones de la vida. el suicidio altruista y el anómico. el investigador vuelve al punto inicial. mediante un proceso de inducción. en un proceso cíclico que podríamos visualizar. Conjunto de proposiciones: sistema coherente de afirmaciones que a menudo asume el carácter de proposiciones causales.

es especialmente elevado. difícilmente será susceptible de esas transformaciones. aunque las condiciones sociales y ambientales cambien. por una parte.2 Hipótesis Una proposición teórica debe poder articularse en hipótesis específicas. 26 . La hipótesis es una afirmación provisional aún por probar. la diferencia debería ser más marcada en las naciones en las que mayor ha sido el salto de la calidad de vida entre los que crecieron antes y después de la segunda guerra mundial. Por hipótesis entendemos una proposición que implica una relación entre dos o más conceptos. Por otra parte. 3. De la teoría general de Durkheim pueden deducirse una serie de hipótesis específicas. en la posguerra experimentó un persistente estancamiento económico que le llevó a grados de bienestar inferiores a los de muchos otros países europeos y claramente inferiores a los de la propia nación en la primera mitad de siglo. De esta teoría general pueden derivarse hipótesis específicas. Si la teoría es válida. debería ser máxima en Alemania: durante la primera guerra mundial los alemanes padecieron carestía. tendremos que encontrar en todos los países occidentales un fuerte distanciamiento entre jóvenes y ancianos respecto a la escala de valores. que se deriva de la teoría pero que espera al control empírico para poder ser confirmada. El caso de Inglaterra debería ser opuesto: antes de la 2ªGM era el país europeo más rico. su carácter de provisionalidad. El criterio de la controlabilidad empírica es el criterio mismo de la cientificidad. una fuerte inflación. demasiado confusas como para poder ser operacionalizadas. graves conflictos internos y la tragedia de la 2ªGM.3. la tasa de suicidio es más alta en las sociedades protestantes que en las católicas.2. Ello como consecuencia del hecho de que la orientación de los valores que se constituye en los años de formación tiende a mantenerse durante toda la vida. que se coloca en un nivel inferior de abstracción y de generalidad respecto a la teoría y que permite una traducción de la teoría en términos empíricamente controlables. Por ejemplo. respecto de la teoría. Causas: los cambios de las condiciones de vida en los años de formación de los ciudadanos. “Es mejor una teoría equivocada que una teoría vaga”. su menor abstracción ( o mayor concreción) en términos conceptuales y su menor generalidad ( o mayor especificidad) en términos de extensión. Si una teoría es imprecisa y confusa.análisis d elas fuentes estadísticas de su tiempo. a través de oportunas definiciones operativas. Estas hipótesis son empíricamente controlables. En las ciencias sociales el riesgo de teorías vagas. y es lo más obvio. tal proposición da lugar a previsiones empíricas. Mientras que en la posguerra conocieron un periodo de bienestar económico extraordinario y de paz social. depresión económica.2. Dos son las características distintivas de la hipótesis. Una segunda hipótesis se refiere a la desigualdad relevancia de este distanciamiento generacional entre los países. La teoría formulada por Inglehart sobre el cambio de valores de las generaciones crecidas en la posguera serían distintos de los de las generaciones precedentes: de una orientación predominante de sentido materialista a otra que ha sido definida como “postmaterialista”. La validez de una teorización depende de su convertibilidad en hipótesis empíricamente controlables. 3. Ante todo. La transformación de la teoría en hipótesis Presentamos a continuación algunos casos de traducción de una teoría en hipótesis específicas.

persiguiendo sus objetivos lo mejor que pueden. Un análisis detallado del perfil de abstencionistas reveló que se trataba en gran parte de mujeres que habían votado anteriormente a la Democracia Cristiana. a los que menos alcanza la capacidad movilizadora y comunicativa de los partidos. Sin embargo. Por ejemplo. Para explicar este resultado imprevisto los autores recurrieron a la teoría de las “presiones cruzadas”. por lo tanto. que mantiene “que la acción humana es canalizada por vínculos externos que no dejan espacio para hacer elecciones realmente importantes. en contradicción con ambas hipótesis. manteniéndose alejados de las urnas. el rendimiento se mantenía elevado. Sucede frecuentemente que las hipótesis se desarrollan después de haber recogido los datos. la mayoría inconscientes. investigación sobre abtencionismo electoral en Italia. debido a la disminuida capacidad de los partidos de movilizar a los electores a través de sus aparatos organizativos. que sirven de guía para el “diseño de la investigación”. 27 . y analiza sus datos para ver cuál de ellas se verifica efectivamente en el caso empírico analizado. expuestas a los flujos de las nuevas ideas. deberían ser más numerosos cuanto más rico es el país. en primer lugar. por consiguiente. aún reconduciendo la iluminación a los niveles del punto de partida. quisieron mostrar a los partidos su descontento y resentimiento. La práctica de la investigación no siempre se desarrolla tal como la hemos descrito: primero la elaboración de la teoría. que ve al individuo condicionado. finalmente. luego la definición de las hipótesis. Tomemos el caso de una investigación sobre las decisiones escolares individuales. categorías socialmente centrales. precede. En la primera hipótesis. Pero después. sino que están sometidos a efectos que les atraen hacia una meta determinada” El autor parte de tres hipótesis precisas de comportamiento. en segundo lugar. Los experimentos pretendían abordar un problema muy simple: controlar cómo variaba el rendimiento de los trabajadores de un determinado departamento al variar la iluminación. En la segunda hipótesis los autores se esperaban un mayor abstencionismo entre los jóvenes varones de las grandes ciudades del norte. aunque en este caso no tanto por factores estructurales externos como por factores psicológicos internos. sometibles a control empírico. En este caso la elaboración teórica. los autores se esperaban una mayor abstención en los estratos periféricos de la sociedad. Otras veces se recurre a la teoría después de haber analizado los datos. para explicar un hecho anómalo o un resultado inesperado.Los que abrazan los valores postmaterialistas. el punto de vista de la no intencionalidad. y. es probable que eluda el conflicto relativo a la elección… absteniéndose” Otras veces puede descubrirse una nueva teoría durante la fase empírica. el punto de vista “estructuralista”. que señalara el desacuerdo entre la parte más moderna del país y la vieja política. según la cual “cuando el elector es sometido simultáneamente a estímulos de igual intensidad pero dirección opuesta. el punto de vista de la “intencionalidad”. los autores sometieron a control empírico dos hipótesis: que el abtencionismo electoral sea un fenómeno de apatía política. no son empujados por efectos propulsores. Todas las hipótesis que hemos mencionado son fácilmente traducibles en términos operativos y. y se comparan con ellos a posteriori. sin embargo a su análisis. que “asume que los individuos actúan… conforma a ciertos propósitos. Al principio se constató que con el aumento de la iluminación crecía la productividad. o bien un fenómeno de protesta por parte de los electores que. los datos expresaron un resultado sorprendente. aún haciéndose después de la recogida de datos.

sino que quiere abarcar intencionadamente un amplio campo de problemáticas. toda la red teórica se hará concreta. Ése es. es decir. que llamamos unidades de análisis.3 De los conceptos a las variables. y los únicos instrumentos. Por ejemplo. en convertirlos en atributo o propiedad de objetos. es decir. además. sino el hecho de sentirse el centro de atención y objeto de experimento. y por tanto la investigación se mueve en un plano eminentemente descriptivo. la de las denominadas “relaciones humanas”. desconocido. pueden hacer referencia a construcciones mentales abstractas que son imposibles de observar directamente. universal o individual. que los conceptos son los “ladrillos de la teoría”. la teoría no está tan bien definida como para admitir hipótesis claras y precisas. Desde el concepto parte el puente que conecta la orilla teórica con la del mundo empírico observable. felicidad… Podemos decir. el autoritarismo puede ser operacionalizado a través de las respuestas a preguntas de actitud y asumir una puntuación de 0-5. como poder. en establecer las reglas para su traducción en operaciones empíricas. y que a través de la operacionalización de los conceptos se realiza la traducción empírica de una teoría. a menudo. se empezó a delinear una nueva corriente teórica dentro de la sociología del trabajo. Es el medio a través del cual el hombre puede conocer y pensar. Sobre la alteración de la secuencia regular teoría-hipótesis-observación hay que decir que en ocasiones la observación viene antes que las hipótesis por razones de fuerza mayor. “La teoría tiene un sentido para la ciencia empírica sólo en la medida en que logra conectarse con el mundo empírico provechosamente. Si la teoría es una red de conexiones entre entidades abstractas representadas por los conceptos. y puede incluir todo tipo de signo o procedimiento semántico. del hombre como de Dios. Se puede tener un concepto de la mesa como del número tres.Y se descubrió que la variable determinante a efectos de rendimiento laboral no era la iluminación. de los específicos objetos estudiados. el caso del “análisis secundario”. abstracto o concreto. Hay que señalar que. Con el término “concepto” nos referimos al contenido semántico (significado) de los signos lingüísticos y de las imágenes mentales. para permitir sucesivos análisis divesificados. la participación electoral y la criminalidad de 28 . y será posible establecer las mismas conexiones entre los conceptos transformadores en entidades empíricamente observables. se puede dar una definición operativa del poder de un cargo empresarial a través del número de subordinados que dependen de él. ¿Cómo podemos transformar estos conceptos en entidades empíricamente observables?. El primer paso del proceso de traducción empírica de los conceptos consiste en aplicarlos a objetos concretos. por ejemplo. Los conceptos. etc. El segundo paso para hacer empíricamente operativo el concepto-propiedad consiste en dar una definición operativa de él. los conceptos son los instrumentos. cercano o lejano. una vez que tales entidades se vuelven concretas. “el término tiene un significado muy general. del género y de la especie… de un periodo histórico como de una institución histórica (Renacimiento o Feudalismo). 3. cualquiera que sea el objeto al cual se refiere. A partir de los resultados de estos experimentos. y es el fundamento de toda disciplina científica. A veces el tema es nuevo. Otras veces la observación no parte de una teorización específica. para establecer tal conexión”. cuando se aplica un segundo análisis a datos recogidos por otros investigadores en un momento del tiempo precedente. por tanto. que consiste en conocer a través de conceptos universales.

en el recorrido más amplio que conecte teoría e investigación. por último en la aplicación de las mencionadas reglas a los casos concretos estudiados: está es la fase de la operacionalización en sentido estricto. que según los casos. como hicieron Gurr y sus colaboradores. Las ciencias naturales han impuesto el término medir para referirse a la operación general. las propiedades estudiadas. La definición operativa se hace todavía en el plano teórico. a propósito del término operacionalizar. para el caso de la clasificación o de la ordenació. nosotros hemos utilizado el término operacionalizar. que hemos utilizado al describir el paso de propiedad a variable. en la investigación empírica. se 29 . ordenación. el plan de trabajo empírico). cómputo) 3. Concepto Propiedad Variable Operacionalización (Clasificación. dado que “las partes de Francia que habían de ser el foco principal de esa revolución son precisamente aquellas en que más acusado es el progreso”. debemos establecer ante todo la unidad de análisis. Como ha escrito Marradi. consiste en una clasificación o en una ordenación. la operacionalización es un “hecho”. se podría llevar a cabo una investigación tomando como unidad de análisis la región. o bien en un cómputo. “la medición consiste en la atribución de números a objetos o acontecimientos siguiendo determinadas reglas” En realidad cuando no se dispone de unidades de medida es inapropiado hablar de medición: en estos casos el paso de la propiedad a la variable consiste en una operación distinta a la medición. Aceptando una sugerencia de Tocqueville. Ésta podría estar representada por le episodio de rebelión social. la operacionalización es su traducción práctica.un municipio se pueden operacionalizar a través del porcentaje de votantes sobre electores de unas elecciones determinadas y el tanto por mil de delitos sobre la población. El tercer paso consiste. Para definir este proceso. En el lenguaje corriente habríamos dicho “medir”. normalmente constituido por un número. Llegados a este punto es necesario hacer una aclaración terminológica. y de violencia estaban ligadas a situaciones de cambio social que había originado expectativas no satisfechas. para quien la revolución francesa se desarrolló en las áreas más acomodadas del país. y en general a situaciones de privación relativa más que de privación absoluta. La unidad de análisis de una investigación dirigida a controlar la teoría enunciada también podría estar representada por un núcleo territorial. Sin embargo. Llamamos modalidades a los estados opercionalizados de la propiedad. representa el puente crucial que une dos vertientes. medición.4 unidad de análisis La Unidad de análisis representa el objeto social al que se refieren. que. registrando cada episodio una serie de informaciones con el objetivo de comprobar si las explosiones de conflicto. Una reflexión teórica no tiene la necesidad de definir unidades de análisis exactas. Éste término tiene un sentido amplio y se emplea con el significado general de “traducir del lenguaje teórico al lenguaje empírico”. Llamamos variable a la propiedad así operacionalizada. el término “medir” es inapropiado. Aún así. a cada una de las cuales se le asigna un valor simbólico diferente. la definición operativa es un “texto”. en sentido estricto se refiere al paso de las propiedades a las variables. Al definir el “diseño de la investigación” (es decir.

Los distintos tipos de unidad de análisis La unidad de análisis más frecuente. otro tipo de unidad de análisis está constituido por lo que podríamos llamar representación simbólica-producto cultural. pandillas. etc.trataría pues de encontrar. Este “colectivo” puede ser un conjunto de individuos o bien un grupo-organización-institución. de grupo-organización-institución cuando la mayoría de las variables está representada por las que llamaremos “variables colectivas estructurales” o “globales”. los siguientes tipos de unidades de análisis: el individuo. sobre los cuales se recogen los datos.). definiendo “la población de referencia” de la investigación. podemos identificar. asociaciones. procesos judiciales. basadas en conjuntos “territoriales” de individuos. Un segundo caso bastante frecuente es aquel en que la unidad de análisis está representada por un colectivo. Conjunto de individuos. Esta unidad se localiza en el tiempo y en el espacio. Hemos dicho que la traducción empírica de un concepto (que es abstracto por definición) se produce asignándolo como propiedad a un objeto social concreto (“unidad de análisis”) En una primera aproximación. A menudo se intentará extraer una muestra casual. y está representada por el individuo. organizaciones laborales (hospitales. reportajes… Concluimos este epígrafe con una anotación terminológica: llamamos casos a los ejemplares de una determinada unidad de análisis incluidos en una investigación. Un cuarto caso está representado por las situaciones en las que la unidad de análisis es el acontecimiento. Pensemos en grupos: familias. algún indicador de bienestar económico y de intensidad del ímpetu revolucionario. Mientras que la 30 . Hablamos en cambio. y de poner en relación las dos variables. transmisiones televisivas. guerras. entre unidad de análisis y unidad de registro. La teoría de la privación relativa aplicada al radicalismo político también podría ser controlada empíricamente tomando como unidad de análisis el individuo. golpes de estado. En la que la unidad de análisis está representada en la mayoría de los casos por mensajes de la comunicación de masas. … Finalmente. partidos. La unidad de análisis es una definición abstracta.1. bandas juveniles. fábricas. escrita. En este caso las variables derivan de operaciones matemáticas realizadas sobre variables registradas de forma individual. instituciones públicas. discursos políticos. ceremonias religiosas. ene este caso la unidad de registro se coloca en un nivel inferior respecto a la unidad de análisis. sectas religiosas. textos literarios. que denomina el tipo de objeto social al que se refieren las propiedades. en las investigaciones de tipo sociológico. fotografías. el acontecimiento y el producto cultural. Acontecimiento electoral. el conjunto de individuos. y la unidad de registro está constituida por el colectivo mismo. para las regiones de Francia en la época de la revolución. el ejemplo más común lo constituyen las fuentes estadísticas oficiales. hasta sociedades enteras y los paises mismos. 3. espectáculos teatrales. grupos étnicos. como a veces se hace. en las investigaciones sociales está representada por el individuo. oral o audiovisual: artículos de periódicos. otros acontecimientos son huelgas.4. el ayuntamiento). en organizaciones-instituciones: sindicatos. programas electorales. otras veces podrá haber diferentes criterios de selección. unidades administrativas locales (por ejemplo. Si hacemos una distinción. Los casos son los ejemplares de esa determinada unidad de análisis que son estudiados. el grupo-organización-institución. Unidades de análisis de este tipo son bastante frecuentes en las investigaciones sociales.

Características lógico-matemáticas de una variable a las que están en la base de esa clasificación. de estudio transversal. medicamento que se suministra un paciente y queremos ver como afecta a los glóbulos blancos. para hacerlo haremos variar las dosis de los medicamentos. varían entre los sujetos. 3. la de las variables que varían simultáneamente entre las unidades de análisis (ello por el carácter de no manipulabilidad de las mayoría de las variables sociales). en su forma operacionalizada. Puede ser asociado. Entre concepto. En las cc naturales el primer caso es muy frecuente y el experimento se fundamenta en variaciones en el tiempo de variables (hago variar X y observo como varia Y). ya no es llamada variable. puede resultar invariante en el subconjunto específico de los objetos estudiados. comparamos un grupo de pacientes sano. pero si el estudio se realiza sobre la población española es invariante. con otros enfermos de cáncer y constatamos si a estados de enfermedad/salud diferentes corresponden también diferentes grados de consumo de cigarrillos. sobre el mismo sujeto.unidad de análisis es singular y abstracta. ordinales y cardinales Una clasificación muy importante de las variables se refiere al tipo de operaciones que pueden efectuarse sobre ellas. la nacionalidad es una propiedad que puede variar entre los individuos. podemos decir que las variables son el elemento central del análisis empírico. en tanto que hacen referencia a las operaciones 31 . y constituyen los objetos específicos de la investigación empírica. y peso del objeto medido a través de una balanza. se habla de variables. los casos son múltiples y concretos. propiedad y variable existe la misma diferencia que entre peso (concepto). No hay correspondencia biunívoca entre “concepto” y “variable”. 3. Una propiedad. correspondientes a los diversos estados de la propiedad. Ejemplo. o bien entre los casos. el de la variación en el tiempo y el de la variación entre los sujetos. En este caso las variables consideradas. La definición operativa no elimina la arbitrariedad. para someter a control empírico que el cáncer de pulmón está correlacionado con el consumo de cigarrillos se procede de forma diferente. sobre un mismo caso.5 Variables Por variable entendemos un concepto operacionalizado. pero lo hace explícita y por lo tanto controlable. aunque variable en principio.6 Variables nominales. Una variable puede “variar” entre diversas modalidades. consiste más precisamente en la propiedad operacionalizada de un objeto. peso de un objeto (propiedad). enfermedad. En cambio. al mismo tiempo. observando como varia la concentración de glóbulos blancos en la sangre. En las CC sociales sin embargo es más frecuente la segunda situación. en este caso dos variables varían en el tiempo. En este caso esa propiedad. La variación de una variable puede producirse de dos formas: en el tiempo. consumo de cigarrillos. Por ejemplo. El género por ejemplo es variable. a diferentes unidades de análisis. En ambos casos. En el primer caso se habla de estudio longitudinal y en el segundo caso. pues el concepto ha tenido que ser aplicado a un objeto convirtiéndose en propiedad. dado que un concepto puede ser operacionalizado de distintos modos. puesto que puede adoptar los estados de macho o hembra. Del mismo modo que hemos dicho que los conceptos son los ladrillos de la teoría. y adopta el nombre de constante. como propiedad.

el genero puede ser varón o mujer). y.lógicas (por ejemplo. Diferenciaremos las variables en tres grandes tipos.6. Ordinales Números con características Cardinales Números con características cardinales = > = > + = > + = < = < x: = < x: 3. no la nacionalidad media). Llamamos modalidades a los estados de la variable operacionalizados y valores a los símbolos asignados a las modalidades. ordinales y cardinales). Estados de la propiedad Discretos no ordenables Discretos ordinables Discretos enumerables Continuos Procedimiento de operacionalización Clasificación Ordenación Cómputo Medición Tipo de variable Nominal Ordinal Cardinal Cardinal Características Operaciones de los valores posibles = = Nombres Números con caract. en este caso. la clasificación. dependen de las características lógico-matemática de la variable (se puede calcular edad media de una muestra de individuos. Estados “no ordenables” son aquellos entre los cuales no es posible establecer un orden. Variables nominales Con estados discretos se entiende que la propiedad puede adoptar solamente una serie de estados finitos: no hay posibilidad de estados intermedios (la religión puede ser católica o musulmana. y b) exclusividad mutua. una jerarquía. es decir para operacionalizar los estados de la propiedad en el momento de su traducción en variable. ordenación. en el sentido de que un caso no puede ser clasificado en más de una categoría. cómputo y medición). dependiendo estrechamente. Hasta las estadísticas más comunes. Las únicas relaciones que podemos establecer entre las modalidades de una variable nominal son las relaciones de igual y de desigual. Nos encontramos en los niveles inferiores de formalización matemática. de este segundo requisito se deriva también la unicidad del criterio de división. en efecto. La operación que permite pasar de la propiedad a la variable es. en el sentido de que cada caso que examinamos debe poder ser colocado al menos en una de las categorías previstas. Las categorías en las que los estados de la propiedad se clasifican deben cumplir el requisito de la a) exhaustividad. de la naturaleza de las operaciones empíricas realizadas para el registro de los datos. Un caso particular de variables nominales es aquel en el que las modalidades son sólo dos: hombre y mujer. exclus.1. como la media o un índice de asociación. operaciones de igual y desigual) o matemáticas (por ejemplo. empleado y desempleado… tales variables se denominan dicotómicas y presentan la importante propiedad de poder ser tratadas estadísticamente 32 . las cuatro operaciones aritméticas) a las cuales se pueden someter sus valores. Esta distinción toma como referencia el análisis de los datos. la operación de clasificación es la primera y la más sencilla operación realizable en toda ciencia. (variables nominales. Procedimientos de operacionalización que pueden agruparse en cuatro clases ( clasificación.

poco. como título académico o clase social. No sólo permite establecer relaciones de igualdad y desigualdad entre las modalidades.con instrumentos normalmente no aplicables a las variables nominales. es decir puede asumir infinitos estados intermedios en un determinado intervalo entre dos estados cualquiera. pero no de las cardinales. entre las modalidades de una variable de este tipo podrán establecerse no sólo relaciones de igualdad y de desigualdad ( una edad de 20 años es distinta a una de 22). la renta. sino también instaurar relaciones de orden. puesto que existe una unidad de referencia. el número de hijos. sino utilizables sólo para variables colocadas a un invel superior de operacionalización. en una jerarquía militar. O porque derivan de propiedades continuas. Variables cardinales Los números asignados a las modalidades tienen pleno significado numérico. Es posible determinar estas distancias o intervalos.6. en absoluto. entendiendo por pleno le hecho de que no sólo presentan las propiedades ordinales de los números. Tenemos en cambio un cómputo cuando: a) la propiedad a registrar es discreta. bastante.3. en la clase social. en absoluto) 3. Porque derivan de propiedades originariamente constituidas por estados discretos. que gozan de las propiedades ordinales de os números. en preguntas en las que el entrevistado deba escoger la respuesta entre las categorías ordenadas de tipo: mucho. Variables ordinales La propiedad que registra adopta estados discretos ordenables. Variables de este tipo son la edad. sino que tendrá que utilizar un criterio que preserve el orden entre los estados. poco. sino también las cardinales. Las variables pueden ser ordinales por dos motivos. es decir asume estados finitos. Ése es el caso de las citadas preguntas de un cuestionario que prevén respuestas graduadas ( de tipo: mucho. El proceso de medición conlleva el redondeo del número real correspondiente al estado medido en un número de cifras compatible con la aproximación que hemos establecido para nuestra medición. no fraccionables. La atribución de los valores a cada una de las modalidades ya no podrá ser causal. y b) existe una unidad de cálculo. es decir una 33 .6. es decir de “mayor que” y “menor que”. y b) contamos con una unidad de medida preestablecida que nos permite comparar la magnitud a medir con una magnitud de referencia. Dado el carácter cardinal de los valores. Se conoce la distancia existente entre dos valores y entre estas distancias también pueden aplicarse las operaciones de multiplicación y de división. Por ello casi siempre se utiliza la serie de los números naturales. Piénsese en el título de estudio. no sólo relaciones de orden (20 años es menor que 22) sino también pueden efectuarse operaciones de suma y de resta entre los valores. No se conoce la distancia existente entre las distintas modalidades. en el caso de un cuestionario. que han sido registradas en una secuencia solamente ordinal por carencia de instrumentos de medición. La medición es cuando concurren las dos condiciones siguientes: a) la propiedad de medir es continua. Esto permite aplicar a las distancias las cuatro operaciones que se aplican a los números y por tanto permite realizar sobre las variables todas las operaciones matemáticas y las elaboraciones estadísticas más sofisticadas.2. bastante. Se pueden obtener variables cardinales a través de dos procesos de operacionalización de la propiedad: la medición y el cómputo. 3.

actitudes y valores ("la medida de las actitudes” es el nombre con el que se conoce esta rama disciplinar).7 CONCEPTOS. Las segundas no son más que funciones matemáticas de las variables fundamentales. El objetivo es acercarse a “mediciones” en sentido estricto. Las variables del primer tipo. éstas se pueden dividir fundamentalmente en dos grandes grupos: las técnicas para las variables cardinales y las técnicas para las variables nominales. por la velocidad. por el tiempo. a variables en las que la distancia entre dos valores sea conocida. sobre todo. deviene en una propiedad.2 hijos. Al tratarse de propiedades discretas (la unidad de cálculo es indivisible). En este caso. El porcentaje de votos obtenido por un determinado partido sobre los votos válidos en una determinada provincia. y de variables cardinales que derivan. de propiedades continuas. 3. Por otra parte. o una tasa de fecundidad de un país igual a 1. la variable podrá dar lugar a decimales tras operaciones matemáticas: por ejemplo. En muy pocos casos disponemos de técnicas pensadas específicamente para las variables ordinales. mediante medición. INDICADORES E ÍNDICES Hemos dicho que en el proceso de traducción empírica. en las elaboraciones siguientes. y es operacionalizado.3). el porcentaje de desempleados sobre la población activa. mediante cómputo. pero no 2. son infrecuentes en las ciencias sociales. (número de hijos. por la densidad. Las propiedades más características de las ciencias sociales.unidad elemental que está contenida un determinado número finito de veces en la propiedad objeto. en la fase de cómputo no puede haber decimales. También en las ciencias sociales muchas variables cardinales derivan de operaciones realizadas sobre otras variables cardinales. autoritarismo. de propiedades discretas. la operacionalización consiste en “contar” cuántas unidades de cálculo están incluidas en la cantidad de propiedad que posee el objeto. Sin embargo. En física se distingue entre variables fundamentales y variables derivadas. esas propiedades no lograr pasar la condición de propiedad continua a la de variable cardinal por un defecto en la fase de operacionalización en concreto. es objeto (unidad de análisis). por la longitud. cohesión social… pueden considerarse propiedades continuas. En una familia. que varían de forma gradual entre los individuos. número de habitaciones … ). podrá obtenerse un número medio de 0. El caso de las variables derivadas es especialmente importante cuando la unidad de análisis está representada por un grupo territorial de individuos. ni pueden realizarse redondeos (una persona puede tener 2 hijos. Un subconjunto de variables cardinales está representado por las variables cuasicardinales. por la dificultad de aplicar una unidad de medida a las actitudes humanas. es decir. Hemos hablado de variables cardinales que derivan. los metros cuadrados habitados disponibles por persona derivan de una división entre dos variables cardinales: una que se refiere a una propiedad continua (la superficie de la habitación) y otra a una propiedad discreta ( el número de componentes de la familia). un concepto se liga a un objeto (unidad de análisis) deviene en una propiedad.7 habitaciones por persona. por la masa. por la temperatura: las derivadas. Podemos encontrar hasta hoy numerosos intentos de superar ese límite. Las fundamentales están representadas. Nos referimos en particular a la “técnica de las escalas” que desde los años veinte se propuso medir opiniones. y es operacionalizado. por ejemplo. desde la religiosidad al ordenamiento político. es decir registrado en 34 . En cuanto a las técnicas de elaboración estadística aplicables a las variables. y más en general propiedades continuas relativas a la estructura psicológica y de los valores del individuo.

en lugar de la práctica religiosa. experiencial…). la fe en dios no es observable. Por ejemplo. en la que el concepto es analizado en sus principales componentes de significado (“dimensiones”). es el de religiosidad. operacionalizado con el número de veces que una persona va a la iglesia al mes (variable). La elección entre esta multiplicidad la hará el investigador con su propio criterio y la única obligación que tiene. Una tercera cuestión es la relativa a la arbitrariedad de la elección de un indicador. pero no “demostrar” que es correcta. que están ligados a los conceptos “generales”. Un indicador puede estar relacionado con más de un concepto. Para la dimensión ritual de la religiosidad hemos mencionado la participación en los ritos colectivos. y la segunda es la parte que le es ajena. Distingue dos partes en un indicador: la parte de indicación y la parte ajena. tendremos dificultades mayores para darle una definición operativa. la lectura de los textos sagrados. la oración individual. de conceptos generales a conceptos específicos. etc. la participación en los ritos religiosos puede ser indicador de conformismo social más que de religiosidad. La segunda fase consiste en la identificación de los indicadores correspondientes a cada dimensión. Podemos decir que la observación empírica de un concepto no directamente observable pasa por la sucesión de cuatro fases: 1) la articulación del concepto en dimensiones. traducibles a la realidad. Resulta evidente que la relación entre concepto e indicador es sólo parcial.forma de variable. 3) su operacionalización y 4) la formación de los índices. De ahí la necesidad de recurrir a más de un indicador para registrar operativamente el mismo concepto. en las sociedades cultural y políticamente dominadas por las instituciones eclesiásticas. La primera fase es una pura reflexión teórica. Hemos dicho que el indicador es una representación parcial de un concepto. Así. Pero si el concepto a operacionalizar. el concepto (general) no se agota con un único indicador (específico). puesto que eso es demostrable. 2) la elección de los indicadores. Indicadores. En el ejemplo de la religiosidad . Por otra. Está correlacionada en el sentido de que un concepto específico también es. pero la práctica religiosa sí que lo es. y que puede haber – y normalmente los hay. en general. Se trata de descender. esta fase corresponde a la identificación de los cuatro componentes que hemos mencionado (ritualista. más fácilmente observable desde el punto de vista empírico que un concepto general. un indicador lo puede ser de más de un concepto simultáneamente. por lo que se define como una relación de indicación o representación semántica (o sea del significado). de cara a la comunidad científica. La primera es la parte de contenido semántico que éste tiene en común con el concepto del que es adoptado como indicador. ligados ambos por afinidad de significado. son conceptos más sencillos. Naturalmente.múltiples indicadores de un mismo concepto. Podemos clasificar los conceptos en función de un contínuum dado por el distinto grado de generalidad-especificidad. siempre tendremos que privilegiar indicadores para los que la parte de indicación sea máxima y la parte ajena sea mínima. o un comportamiento político y una moral sexual inspirados en las convicciones religiosas. y es. incluso de contenido semántico radicalmente distinto. es argumentar y justificar su elección. el concepto de práctica religiosa es definido como propiedad de los sujetos humanos. Por una parte. Ejemplos de indicadores del componente consecuencial podrían ser los actos de caridad llevados a cabo por una persona. “específicos”. Por ejemplo. más general. 35 . por ejemplo.

si han ido a votar. cuando esta elección. cuando el investigador no observa directamente los datos sino que utiliza datos ya recogidos. y los dos componentes del error. El itinerario de la traducción de un concepto en operaciones empíricas. en el sentido de que se presenta en todas las investigaciones: ya se trate de investigaciones sobre individuos diferentes. que varia de registro a registro. el valor verdadero no observado ni observable del concepto que la variable pretende registrar. el valor de la variable empírica tal y como es registrado por el investigador. La cuarta y última fase es la de la construcción de los índices. o se trate de réplicas de la investigación sobre los mismos individuos. existe una difundida tendencia por parte de los entrevistados a no declarar la abstención. no religiosos. Por lo tanto. se encuentra ante la imposibilidad de planificar la obtención de los indicadores según su análisis conceptual. Varía en hipotéticas réplicas del mismo registro sobre el mismo individuo. como devotos. es decir. Su valor medio sobre el total de los casos observados no es igual a cero. puede decirse que el valor observado. ante conceptos complejos para los cuales sus datos son inadecuados. que recorre la fase de articulación en dimensiones seguida por la definición de los indicadores y por su obtención operativa.En la tercera fase se procede a la operacionalización de los indicadores. o bien de un índice tipológico que. Formalmente: Valor observado = Valor verdadero + Error sistemático + Error aleatorio (variable) (concepto) Lo que equivale a escribir: Error = Valor observado – Valor verdadero = Error sistemático + Error aleatorio El error sistemático (distorsión) es un error constante. por el motivo que sea. y varía al pasar de una 36 . Número de veces que una persona va a misa al mes. por lo que se obtendrá en todas las encuestas una tasa media de participación electoral “observada” sistemáticamente superior a la “verdadera”. forzando la correspondencia semántica entre indicador y concepto. es decir. sigue a la recogida de datos en lugar de orientarla. por ejemplo. conformistas.8 Error total Error de medición o error total. En particular. representa el desfase entre concepto (teórico) y variable (empírica). El error aleatorio es un error variable. a su transformación en variables. o que la mide llegando a una puntuación cuasicardinal. Hay que tener especial cuidado en elegir los indicadores para operacionalizar conceptos complejos. Podrá tratarse deun indice unidimensional que “ordena” la religiosidad según una puntuación de las características ordinales. 3. en el sentido de que el “valor observado” tiende sistemáticamente a sobreestimar o subestimar el “valor verdadero”. no siempre se realiza en la secuencia temporal presentada hasta el momento. Por ejemplo. “clasifica” la religiosidad en tipos diferentes entre si y no graduables. son frecuentes los casos de investigadores que. y llegando a utilizar indicadores con una parte de indicación excesivamente modesta. es el resultado de la suma de tres partes. Desgraciadamente. tratan de arreglárselas con lo que tienen a disposición. sino que toma un valor positivo o negativo. Este error tiene dos componentes: el error sistemático y el error aleatorio. practicantes. la participación electoral.

muestra de individuos a otra. Se trata de oscilaciones que tienden a una media (valor esperado) igual a cero, sobre todas las réplicas posibles del registro y sobre todas las muestras. En resumen, si el error sistemático es la parte del error común a todas las aplicaciones de una determinada investigación; el error aleatorio es la parte de error específica de cada una de las investigaciones. ¿En qué fases del recorrido que conduce de los conceptos a las variables surgen estos errores? Hemos visto que este paso se articula en dos fases: una fase teórica, que podríamos llamar de indicación, que lleva a la elección de los indicadores, y una fase empírica, que hemos denominado de operacionalización y que consiste en la obtención de los indicadores mismos. En ambos momentos podemos cometer un error: un indicador puede ser elegido mal o puede ser operacionalizado mal. • El error en la fase de indicación, es decir, en la elección de los indicadores adecuados para representar un determinado concepto, es un error de tipo sistemático. Por ejemplo, tomar como indicador de participación política de una persona el hecho de que esté inscrita o no en un sindicato, puede ser una elección afectada por error sistemático: de hecho, la inscripción en un sindicato puede expresar un cierto conformismo social o la preocupación de proteger los intereses propios o un comportamiento que se reproduce cada año por inercia, más que una participación política real. Un indicador será más válido cuanto mayor sea su parte indicante y menor su parte ajena. El error cometido en la fase de operacionalización puede ser tanto sistemático como aleatorio. En una investigación realizada a través de entrevistas sobre una muestra de sujetos, el proceso de operacionalización se articula en diversos momentos, y en cada uno de ellos podemos cometer errores, podemos distinguir 3 fases: a) la fase de la selección de las unidades estudiadas b) la fase de recogida de los datos, que llamaremos de observación, y c) la fase de tratamiento de los datos. Podemos cometer errores en cada una de estas fases.

Errores de selección. Errores debidos a que en una investigación no se actúa sobre la población total sino sobre una muestra de sujetos. Tres tipos diferentes de errores de selección. El Error de cobertura, la lista de la muestra de sujetos es incompleta. Error de muestreo, realizar la investigación sobre una muestra, lleva a un error que con otra muestra habría sido diferente. El Error de no respuesta, algunos sujetos a pesar de estar en la muestra pueden negarse a contestar. Errores de observación. Pueden ser achacados a cuatro fuentes. Errores debidos al entrevistador,(registro erróneo de una pregunta) al entrevistado,( comprensión errónea de una pregunta) al instrumento,(preguntas mal formuladas) al modo de administración, (no es lo mismo por teléfono, por correo, en directo…). Errores en el tratamiento de los datos. Errores de transcripción, de codificación, de memorización en el soporte informáticos… Pueden ser tanto sistemáticos como aleatorios. El error global de una investigación es imposible de evaluar. Escapan de nuestro control demasiados componentes; y si bien los intentos de considerar la investigación a examen como una de las posibles réplicas del mismo diseño de investigación permitirían evaluar 37

el error aleatorio, no ocurre lo mismo con el sistemático, que por definición se presenta en todas las posibles réplicas de las investigación y escapa por lo tanto a cualquier examen. Lo que sí se puede medir es un componente de este error global, el error de muestreo: existe un sector de la estadística que ha desarrollado técnicas de estimación del error provocado por el hecho de actuar sobre una muestra en lugar de sobre la población total examinada. Como es el único cuantificable, muchos investigadores consideran este error como si fuera el error total de la investigación. 3.9 FIABILIDAD Y VALIDEZ Con respecto a la fase que hemos llamado de “observación”, los psicométricos han elaborado dos nociones sobre las que queremos profundizar aquí: la fiabilidad y la validez. La fiabilidad tiene que ver con la “reproducibilidad” del resultado, e indica el grado en el que un determinado procedimiento de traducción de un concepto en variable produce los mismos resultados en pruebas repetidas con el mismo instrumento de investigación (estabilidad) o bien con instrumentos equivalentes (equivalencia). Cuando pesamos un mismo objeto varias veces y la medición coincide la mayor parte de las veces concluimos que la báscula es fiable. La validez en cambio, hace referencia al grado en el que un determinado procedimiento de traducción de un concepto en variable registra efectivamente el concepto que se pretenda registrar. Si el coeficiente intelectual regristra efectivamente la riqueza de un país, si el PIB registra efectivamente la riqueza de un país. Está claro que en este caso no es la repetición de la prueba lo que permite controlar este tipo de error. Generalmente se asocia la fiabilidad al error aleatorio y la validez al error sistemático. Por ello, la fiabilidad es más fácilmente verificable que la validez, puesto que el error aleatorio puede localizarse a través de repeticiones de la observación sobre el mismo sujeto; mientras que la validez es más difícil de identificar, puesto que el error sistemático, que está en su base, se presenta constantemente en cada observación, y por tanto hace que no se pueda conocer el estado efectivo de la propiedad estudiada. 3.9.1 Fiabilidad

La primera forma de fiabilidad que ha sido estudiada es la estabilidad en el momento de la observación. Ésta puede medirse a través de repetir la observación y en calcular la correlación entre los dos resultados. Es difícil de aplicar en las ciencias sociales por dos motivos: la reactividad del sujeto humano y el cambio que puede introducir en el sujeto entre la primera y la segunda exploración. La primera exploración no deja inalterada la propiedad que queremos registrar; por ejemplo, el recuerdo del primer test o el aprendizaje que se ha adquirido después pueden alterar el resultado del segundo. Además, la repetición en el tiempo permite controlar las incidencias que varían de un momento de la administración a otro, pero no los otros dos tipos de variación accidental antes mencionados, atribuibles al instrumento y a las modalidades de investigación. Se ha propuesto una segunda definición de fiabilidad en términos de equivalencia, en la que la fiabilidad se mide a través de la correlación entre dos procedimientos distintos, aunque muy similares entre si. La primera técnica es la denominada subdivisió a mitad, en la que la fiabilidad se obtiene por la correlación entre dos mitades del mismo test.

38

Un procedimiento similar es el de las formas equivalentes: dos test se denominan paralelos cuando se consideran que miden el mismo valor verdadero subyacente, y difieren sólo en el error casual. Una tercera solución para medir la fiabilidad es la que se basa en el supuesto de que los errores aleatorios varían no solo entre test y test, sino también entre pregunta y pregunta dentro de un mismo test. Así, se han propuesto las medidas basadas en la coherencia interna, en las que la fiabilidad del test se estima a través de la correlación de las respuestas a cada pregunta con las respuestas al resto de las preguntas. Todas las técnicas que hemos presentado, no obstante, han sido concebidas dentro de la psicometría, teniendo presente como único procedimiento de operacionalización el test psicológico, consistente en una bateria de preguntas, es decir, una serie de preguntas sobre el mismo argumento. Sigue siendo mucho más difícil de evaluar la fiabilidad de una investigación en otras situaciones: por ejemplo, cuando, manteniéndose siempre la unidad de análisis representada por el individuo, se quieren registrar comportamientos específicos o bien cuando la unidad de análisis es distinta al individuo. En vista de la dificultad de la repetición, se mantiene válido al planteamiento de fondo de que la fiabilidad de una investigación puede ser controlada a través de investigaciones múltiples con instrumentos distintos. 3.9.2. Validez Si tras un error de validez hay un error sistemático, es muy difícil darse cuenta, puesto que éste se reproduce de forma constante en todas las investigaciones. Generalmente el error de validez se sitúa en el paso del concepto al indicador y nace del “error de indicación”, en el que ya nos hemos detenido. La validez de un determinado indicador es, en efecto, mucho más complicado de reconocer, y es muy difícil de medir. El concepto de validez se puede articular en torno a dos aspectos y con dos procedimientos de convalidación correspondientes: las denominadas validez de contenido y validez por criterio. La validez de contenido se sitúa en un plano teórico, e indica que el indicador o los indicadores seleccionados para un determinado concepto cubren de forma efectiva el significado del concepto. Puede darse sólo en un plano puramente lógico (por eso hablan de “convalidación lógica”); está consiste en una descomposición analítica del concepto estudiado, correspondiente a la fase de articulación de un concepto en dimensiones que hemos citado anteriormente, con el objetivo final de cerciorarse de que todas las dimensiones están cubiertas por los indicadores seleccionados. El segundo tipo de validez ha sido definido como validez de criterio: en este caso, la convalidación se basa en la correspondencia entre el indicador y un criterio externo que por algún motivo se considera correlacionado con el concepto. Este criterio puede estar representado a) por otro indicador ya aceptado como válido b) por un hecho objetivo, generalmente de carácter conductual. Dada la posibilidad de cuantificar esta correspondencia, también se ha propuesto para este tipo de validez el nombre de validez empírica, contrapuesta con la precedente validez de contenido, que sería denominada “validez teórica”. Terminología que sin embargo no debe inducir a creer que la validez es empíricamente mensurable; de hecho, lo que se mide con este procedimiento es la correlación entre dos indicadores y no la correspondencia entre el indicador y su concepto. La validez por criterio ha sido clasificada en varios tipos. Tenemos la validez predictiva, que consiste en relacionar el dato del indicador con un acontecimiento sucesivo unido a

39

él. Un test de actitudes referente a una determinada profesión puede convalidarse por la comparación entre su resultado y el sucesivo rendimiento en el trabajo. Se habla de validez simultánea cuando el indicador está correlacionado con otro registrado en el mismo momento temporal. Un tipo importante de validez simultánea es la validez por grupos conocidos, en la que el indicador se aplica a sujetos cuya posición sobre la propiedad a examen es conocida. Por ejemplo, un indicador de religiosidad puede aplicarse a personas pertenecientes a grupos religiosos y habitualmente asiduos de la iglesia, para controlar si efectivamente, como se espera, el indicador registra valores especialmente altos de religiosidad para estas personas. Los manuales de psicometría incluyen un tercer tipo de validez denominada validez de constructo. No se trata más que de una combinación de los dos tipos de validez anteriores. La conformidad de un indicador a las expectativas teóricas en términos de relaciones con otras variables. Existe una correlación inversa entre nivel de instrucción y prejuicio racial. Si establecemos un nuevo indicador de prejuicio, su validez de constructo puede ser evaluada según su conformidad con estas expectativas: si las expectativas no son confirmadas, podemos concluir que probablemente el indicador considerado no es un indicador válido de prejuicio. El procedimiento se basa en consideraciones teóricas y en la referencia a otros indicadores ya aceptados como válidos; de ahí que pueda considerarse una combinación de los dos criterios de convalidación ilustrados anteriormente. Concluimos esta larga reflexión sobre el error total subrayando la importancia de este argumento y una llamada de atención sobre la necesidad de que el investigador ponga especial cuidado en este punto. Los errores cometidos en la fase de transformación de los conceptos en variables son muy graves pues, al ser colocados al inicio de la fase empírica, perjudican todo el posterior desarrollo de la investigación.

40

y el efecto es la variable dependiente. pero resulta especialmente relevante en las ciencias sociales. Esta formulación expresa algunas de las características del nexo causal ( condicionalidad. ya que en muy pocos casos pueden valerse del principal instrumento para evaluar empíricamente una relación causal: el experimento. constancia y univocidad). la causa es la variable independiente. en el plano empírico (lo podemos plantear en el plano teórico). Pero si observamos empíricamente que una variación de X es seguida regularmente por una variación de Y. entonces (y sólo entonces) E siempre producido por C. sino que se afirma que “más allá de ser acompañado por la causa. 4. relativo a la distinción entre variables dependiente y variables independientes.CAPITULO 4 CAUSALIDAD Y EXPERIMENTO 4. El simple hecho de que X e Y varíen conjuntamente de una forma previsible.2. “conocimiento y ciencia consisten en darse cuenta de las causas y no son nada fuera de esto”. 4. Cuando una variable influye en otra llamamos variable independiente a la variables que influye. debemos poder observar situaciones con diferentes grados de individualismo. sucesión. de la que. pero sigue siendo insuficiente. Si la relación de dependencia es de tipo causal. El elemento esencial que añade este enunciado está representado por la idea de producción: no se limita a afirmar la existencia de una “conjunción constante” entre dos fenómenos. Si queremos tener elementos empíricos que confirmen la afirmación teórica de que el individualismo social produce una elevada tasa de suicidios.1. 41 . contamos con un fuerte elemento empírico de corroboración de la hipótesis de que X es la causa de Y. La noción de causa queda confinada en el reino de la teoría. Nunca podemos decir. En primer lugar.1 CONCEPTO DE CAUSA Desde siempre el hombre ha tratado de entender cómo un fenómeno podía influir en otro. debemos poder observar una variación de la variable independiente. y que una transformación en X preceda siempre a una transformación en Y. y la tendencia política es la variable dependiente. Podemos decir que el hecho de que “el pensamiento causal pertenece completamente al nivel teórico y que las leyes causales nunca puedan ser demostradas empíricamente” es una opinión comúnmente compartida. consideramos que el la “causa”.2 Corroboración empírica de la relación causal Preliminarmente aún debemos introducir un apunte terminológico. que la variación de X “produce” la variación de Y. el efecto es generado por ella". es decir. y debemos resignarnos a la imposibilidad de comprobar empíricamente las leyes causales. la clase es la variable independiente. entonces ( y sólo entonces) E siempre. Si C. Covariación entre variables independientes y dependientes. El problema de la causalidad existe en todas las ciencias. En la relación entre clase social y tendencia política. nunca puede asegurarnos que X produzca una transformación en Y. y variable dependiente a la variable influida. manteniéndose constantes todas las otras posibles causas de Y. en el plano teórico. Si C.

42 . Control de las variables superfluas Cuando forzamos a la variable independiente X a cambiar de valor. una covariación nunca puede ser alegada como única prueba empírica para afirmar la existencia de una relación causal. En el lenguaje estadístico. tenemos que asegurarnos de que no sean esas otras variables las verdaderas causas del cambio en la variable dependiente Y. simultáneamente. Mediante la manipulación de la variable independiente. Dos adjetivos: natural para el análisis de la covariación. Dirección causal Debemos. prevé la posibilidad de una variación artificial (manipulación) de una de las dos variables. que.2.2. camino que puede recorrerse sólo en el caso del experimento. el concepto de causalidad pertenece al ámbito teórico.2. en lugar de variable independiente estudiada X. una variación de la variable dependiente. consistente en analizar las covariaciones tal y como se presentan en las situaciones sociales no manipuladas por el investigador. 4. el hecho de que la primera variable preceda en el tiempo a la segunda establece la dirección del nexo causal. pero. si la tasa de suicidios en las regiones aumenta al pasar de regiones católicas a protestantes. debemos poder observar.No podríamos proceder a observaciones empíricas sobre la influencia de la cohesión social en la tasa de suicidios si observáramos situaciones en las que la variable independiente (cohesión social) es constante. Si decimos que una socialización impregnada de valores religiosos (X) genera en la edad adulta una actitud más intolerante hacia las ideologías distintas (Y). artificial para el experimento. “Covariación no significa causalidad”. se dice que debemos poder observar una “covariación” entre las dos variables.2. Análisis de la covariación y experimento Los científicos disponen de dos técnicas básicas para controlar empíricamente una afirmación causal: el análisis de la covariación en su realización natural y la situación artificial del experimento. 4. pero que no se produce lo contrario. estar en condiciones de observar que al variar la variable independiente se obtiene una variación de la variable dependiente. todas las religiones protestantes son alemanas y las católicas son francesas. Si decimos que existe un nexo causal entre clase social y tendencia política. éste sólo puede existir en la dirección que va de la primera variable a la segunda (es imposible que un individuo cambie de clase social como consecuencia de una modificación de sus tendencias políticas) 4. Al variar la variable independiente. como veremos en breve. Hay que añadir que deben excluirse algunas direcciones causales por imposibilidad lógica.4. al mismo tiempo. es posible establecer la dirección del nexo causal mediante el criterio de la sucesión temporal. Por ejemplo. Podemos establecer empíricamente este hecho de dos formas. no estamos en disposición de discernir si la causa de la distinta tasa de suicidios es la religión o la nacionalidad. que nace de la observación de que la variación de la variable independiente X precede a la variación de la variable dependiente Y. mientras que el de covariación pertenece al empírico. Cuando no podemos utilizar esta estrategia.3. puesto que se realiza en el laboratorio y la variación de la variable independiente es producida por el investigador.

en los que la misma cuestión (el impacto de la proopaganda televisiva sobre las tendencias políticas de los ciudadanos) se aborda con los dos distintos procedimientos. servirán para aclarar las dos formas de enfrentarse al problema. no estamos en condiciones de poder afirmarlo. vamos a imaginar dividida en las dos alternativas “ha seguido/no ha seguido la campaña electoral en televisión”. los que han visto la televisión y los que no la han visto. los que más ven la televisión son las personas que están más tiempo en casa. es decir. ¿Ellos votan al candidato A porque son más ancianos o porque ven más la televisión. la clase social… sin embargo. es decir ha influido en el voto en esa dirección?. 4. Dos candidatos A y B. la educación. también dividida en “voto para el candidato A/ para el candidato B”. Jóvenes. puesto que hemos comparado entre sí grupos en los que la edad era constante.1. de la transformación de las variables extrañas en constantes. De hecho. han utilizado la TV durante la campaña electoral. y el de la b) depuración. En un caso como éste el investigador dispone de dos modos de asegurarse de que la relación entre X e Y no se deba en efecto a la acción externa de Z sobre las dos variables: el procedimiento del a) control. Este último problema puede ser superado mediante el recurso de la depuración (control estadístico) de los efectos de las terceras variables Z. Las dos variables son. adultos y ancianos. que. para ver si al variar la exposición a la propaganda televisiva X. y dentro de estos tres grupos se observa la covariación entre propaganda televisiva y voto. para simplificar. no podemos saber si la verdadera causa que orienta el voto es la edad o la exposición a la propaganda televisiva. es decir. En el primer caso se trata. dado que tendremos que hacer comparaciones entre grupos cada vez más pequeños de casos. sólo nos interesa la propaganda televisiva. que se realiza por medio de 43 . mujeres más que hombres. como la edad. Por lo tanto si X es la variable “exposición a la propaganda televisiva”. en el sentido de que entre los más expuestos a la propaganda televisiva encontramos también una frecuencia mayor de voto para el candidato A.? En este caso la covariación entre audiencia televisiva y voto representaría un ejemplo clásico de lo que se denomina en sociología relación espuria. e Y es la variable dependiente “voto”. Naturalmente. el procedimiento se complica si queremos mantener bajo control muchas variables simultáneamente. No. ancianos más que jóvenes… Si las personas que ven más la TV son más ancianas que la media. transformando la Z en una constante para eliminar su efecto. el objetivo del investigador es relacionar las variaciones de las dos variables X e Y.3. el género. Si encontramos una correlación entre las dos variables.Dos ejemplos. ¿podemos concluir que la televisión ha jugado a favor de este candidato. Si la relación se mantiene. los dos grupos de ciudadanos. en efecto “confusas”: los que más ven la TV son también los más ancianos. sino del hecho de que ambas están influenciadas por una tercera variable Z (edad). ya no podemos seguir con las sospecha de qué quienes más han visto la televisión son también los más ancianos. de mantener bajo control las variables de perturbación potencial. Análisis de la covariación Se trata de entrevistar a una muestra de sujetos. la variación de Z provoca (por una acción causante) la variación simultánea de X e Y sin que entre estas últimas exista un nexo causal. no son distintos entre sí sólo por esta variable: probablemente. de la determinación por vía matemática y de la consecuente eliminación de los efectos de las variables extrañas. Analizando la covariación entre X y Y en grupos de igual edad. Sabemos que sobre el voto influyen una infinidad de variables “independientes”. Se entiende por relación espuria una covariación entre dos variables X e Y que no deriva de un nexo causal entre sí. varia también el voto Y.

que se basa en un modo distinto. si conocemos las relaciones de las terceras variables entre sí y con la variable dependiente podemos calcular la correlación existente entre X e Y teniendo en cuenta estos efectos. en cambio. tras una entrevista sobre el voto de los sujetos estudiados. no de analizar los datos. Si con la elección resultante. En el primer caso nos encontrábamos en una situación de análisis de la covariación. Aunque el experimento constituye la respuesta más rigurosa al problema del estudio empírico de la relación causal. que él se limita a analizar.2. digamos para tener bajo control las “terceras variables” no es necesario que estén fisicamente “bajo control”. El grupo expuesto a la televisión no es.3. a variables preestablecidas por el investigador y registradas en la fase de la recopilación de los datos. se produce una covariación entre exposición a la campaña televisiva X y voto Y – por ejemplo. plantee un diseño de investigación con las siguientes características: que seleccione una muestra de 200 ciudadanos y los subdivida aleatoriamente después en dos grupos de 100. en la del experimento. al asignar por sorteo los sujetos al grupo experimental y al grupo de control. En el primer caso la intervención del investigador se sitúa después de la recopilación de los datos. en el segundo. resulta que en el grupo expuesto a la televisión ha habido mucho más votos para el candidato A-. “produce” puesto que manipula desde el exterior la variable independiente. Experimento Existe otra via para resolver este problema. se tienen bajo control todas las posibles variables de perturbación. en la mayoría de las investigaciones sociales nos encontramos más frecuentemente en la situación de observar covariaciones que en la de construir experimentos. 4. dicha covariación ya no está expuesta a los riesgos de “espuriedad” del caso anterior. de forma que obtengamos una medida de la correlación ente X e Y depurada de los efectos del resto de variables. sino de producir los datos a analizar. de hecho. es decir.elaboraciones estadísticas: la técnica de la correlación parcial si la variable que se quiere controlar es sólo una. más anciano. ni tiene un presencia femenina más alta. que tiene lugar en una situación artificial construida por él. los procedimientos de control estadístico del análisis de la covariación son aplicables sólo a un número finito y explicitamente conocido de variables. 44 . Supongamos que el investigador. Diferencias. también las no registradas o directamente desconocidas por el investigador y efectivamente los dos grupos comparados se diferencian sólo por la variable experimental. por término medio. y la de la regresión múltiple si las variables que hay que mantener bajo control son más de una. De hecho. intencionadamente “al azar”. En el segundo caso el investigador controla previamente la producción misma de los datos. pidiendo a un grupo que siga la campaña por televisión y al otro que se mantenga rigurosamente alejado de ella. el investigador produce una variación de X en una situación controlada y a continuación mide cuánto varia Y. ni está más instruido queel grupo no expuesto a la televisión: la asignación de los individuos a cada uno de los grupos se ha efectuado. la hace variar. Sin entrar en detalle acerca de estos procedimientos de estadística multivariada. analizando la relación entre X e Y cuando éstas asumen valores constantes en los casos analizados. En el experimento. En el segundo. es decir. en ambos casos se estudia una covariación entre una variable independiente X supuesta como causa y una variable Y supuesta como dependiente. En el primer caso el investigador observa y analiza.

Es evidente la imposibilidad de observar el valor Yt e Yc en la misma unidad al mismo tiempo. Finalmente. ya que un individuo o ha estado expuesto a la propaganda electoral o no lo ha estado.1. está representado por la diferencia algebraica: 45 .4. La solución científica La solución científica es alcanzable si se puede adoptar una de las dos tesis (indemostrables) siguientes: la tesis de invariación o la tesis de equivalencia. El experimento no sólo permitió a Joule demostrar la existencia de este nexo causal. y si indicamos con u la unidad de análisis sobre la que hemos efectuado el experimento.Irrelevancia del registro (procedimiento del medición): el valor de Yt no se resiente del registro precedente de Yc de la misma unidad. de controlar empíricamente la presencia de un nexo causal. Se suponía que el trabajo mecánico producido por las palas haría aumentar la temperatura del agua. para controlar empíricamente el principio de conservación de la energía –que establece que calor y trabajo son formas equivalentes de energía -. Fue Bacon quien. De la imposibilidad de una observación simultánea sobre la misma unidad Yt e Yc se deriva la incapacidad de observar el efecto de X sobre Y. en una determinada unidad u. después del tratamiento.e Yt. sino que Y puede ser registrada en un momento precedente.4. y por tanto. El experimento se distingue de la forma de experiencia que se deriva de la observación de los hechos en su desarrollo natural. pero nunca las dos cosas simultáneamente.850 el físico inglés James Prescott Joule. distinguió entre la experiencia observadora y la experiencia provocada por la intervención manipuladora del hombre. El experimento encuentra una formulación filosófica y sus primeras aplicaciones científicas en el siglo XVII. Yc e Yt ya no tienen que ser registradas simultáneamente sobre la misma unidad. respectivamente. la diferencia entre los dos valores de Y revela el efecto causal. Éste es el denominado problema fundamental de la inferencia causal. se modifica X y se registra Yt. Sin embargo. Llegados a este punto. que Holland llama. En particular. a principios del siglo. eso no quiere decir que no sea posible llegar a soluciones parciales.4 El experimento en las Ciencias Sociales Podemos definir el experimento como una forma de experiencia sobre hechos naturales que ocurre como consecuencia de una intervención modificadora y deliberada por parte del hombre. De ahí se deriva la incapacidad para observar el efecto de X sobre Y. construyó un instrumento en el que unos pesos descendientes ponían en rotación unas palas en un contenedor de agua. se registra Yc. 4. existen dos vías practicables para este propósito. y fue Galileo quien colocó el experimento en la base del conocimiento científico moderno. podemos decir que el efecto causal. En 1. estableciendo que una caloría corresponde a 4. En otras palabras. aunque no sea posible llegar a una solución empírica definitiva y segura del problema de la inferencia causal. solución científica y solución estadística. Si Yc es la temperatura del agua antes del tratamiento (antes de la administración de la energía mecánica). sino que además pudo determinar cuantitativamente la magnitud de la relación (“ley”) existente entre calor y energía. .Estabilidad temporal: el valor de Yc puede ser sustituido por una medida del mismo Yc en un momento previo.186 julios (a la unidad de medida de la energía se le dio el nombre del experimentador). La tesis de invariación consiste en suponer: .

Piénsese siempre en el ejemplo del efecto de la propaganda televisiva sobre el voto. el individuo podría contestar del mismo modo en la segunda entrevista aun habiendo cambiado de opinión. en tanto que no es posible encontrar dos unidades equivalentes. sino por otros motivos. La no influencia de la primera medición también es difícil de sostener: recordando lo que ha dicho que habría votado en la primera entrevista. se le expone al debate televisivo y se registra de nuevo su intención de voto (Yt). Supongamos que quiere controlarse el efecto de un fertilizante en un campo. El valor de Yc debería mantenerse estable como en el corto intervalo de tiempo que transcurre entre el inicio y el final del experimento. por eso lo más correcto sería tomar dos campos conlindantes. Es decir: Yc(u) = Yc (v) Yt (u) = Yt (v) En este caso la medición de Yc (valor de la Y cuando X= c) se realiza sobre una unidad (v).4. El efecto causal será t = Yt(u) – Yc (v) sobre dos unidades u y v al mismo tiempo. También la tesis de la equivalencia de las unidades es inadmisible en las ciencias sociales. es presumible que dos campos contiguos derivados de la división en dos de un único terreno puedan ser considerados iguales para todas las variables ligadas a la 46 .2. Y piénsese en la aplicabilidad de la tesis de la invariación en un experimento en el que se le pregunta a un individuo cuál es su intención de voto antes de la exposición al debate televisivo entre los dos candidatos (Yc). sobre la otra unidad (u). La diferencia entre los dos valores de la variable dependiente Y representa el efecto causal sólo si la tesis de la invariación es sostenible. otros acontecimientos políticos concomitantes. No obstante. se podría tomar la diferencia entre un año sin nada y un año con fertilizante pero hay que tener en cuenta que las variaciones climatológicas tampoco son idénticas en dos años diferentes. la lectura del periódico. y la medición de Yt (valor de Y cuando X = t). La estabilidad temporal de Yc es poco fiable: en el tiempo transcurrido entre las dos encuestas el sujeto podría haber modificado su intención de voto no por el efecto del debate televisivo. por ejemplo. en tiempos distintos. En el ejemplo agrícola. para no parecer incoherente. Por eso la temperatura del agua antes de la rotación de las palas puede considerarse idéntica a la temperatura del agua que se habría registrado al final del experimento si las palas no se hubieran movido. aceptar la irrelevancia del primer registro. esta asunción es indemostrable. efectuar lo mismo en ambos campos y que uno fuera abonado y el otro no. Es posible. También en este caso la tesis de equivalencia es indemostrable. en tanto que la primera medición de la temperatura del agua no influye en la segunda medición de la temperatura.Efecto causal t = Yt (u) – Yc (u) sobre la misma unidad. además. La solución estadística Tanto la tesis de la variación como la de la equivalencia son normalmente inaceptables en las ciencias sociales. un intercambio de opiniones con su cónyuge. Y el efecto causal vendrá dado por Yt (u) – Yc (v). 4. Se acepta la estabilidad temporal de Yc porque no existen otras formas de variación de energía.

es decir. la lógica del experimento no cambie aunque la variable X tome más de dos valores y tampoco cambia la lógica del experimento si las variables independientes X son más de una. sobre los cuales registrar la variación Y. En psicología cuando el valor X = t es la variable independiente corresponde a la exposición de un grupo a un determinado tratamiento (presencia). Si esto no es posible. interpretable como “valor medio” (por lo que E(Yt) es la media de los valores Yt en el grupo de sujetos sometidos a X = t). estaremos en disposición de cuantificar el efecto causal. etc. 4. la exposición al sol. no se respeta alguno de los requisitos básicos del método experimental. y los casos en los que. Grupos con estas características se obtienen mediante un proceso de aleatorización: la muestra inicial de sujetos a los que someter al experimento es subdividida en dos grupos asignados al “azar” a los individuos en un grupo o en el otro. Experimentos de laboratorio La diferencia entre experimentos de laboratorio y experimentos de campo es sencilla: es la distinción entre el experimento llevado a cabo en una situación artificial y el experimento que se realiza en un contexto de la vida real. Como veremos. una de las diferencias epistemológicas fundamentales entre ciencias sociales y ciencias naturales. 4. la irrigación. los que responden a todos los requisitos del método. excepto en las diferencias accidentales. uno a un valor (c) y el otro a un valor diferente (t) de la variable X y observando en los dos grupos los resultados medios de las variables Y. debe poder manipular los valores de la variable independiente X. que conditio sine qua non para la realización de un experimento es la capacidad de control del investigador sobre la variable independiente (manipulabilidad). La solución estadística.5. En otras palabras.productividad. Hay que decir por último. como la composición del terreno. hemos supuesto hasta ahora que la variable X toma sólo dos valores (presencia/ausencia). y el valor X = c corresponde a la no exposición al tratamiento (ausencia). las variaciones meteorológicas. Sometiendo a uno de los dos grupos. Los dos grupos obtenidos serán equivalentes en la media de todas las variables que caracterizan a los individuos. en cambio. Nótese en fin que. La segunda distinción. Pero es posible obtener dos grupos de individuos que sean estadísticamente equivalentes para poder exponer a uno de ellos a un valor de X y al otro a un valor de X diferente. en cambio. de lo que se derivan dos únicos grupos (grupo experimental y grupo de control). No es posible encontrar dos individuos idénticos. ¿Cuál es entonces la solución?. Tras haber distribuido a los sujetos en los grupos.1. al primer grupo se le asigna el nombre de grupo experimental y al segundo el de grupo de control. a los que exponer a dos valores distintos de la variable X para ver cómo se modifica la variable Y entre ellos. Piénsese en dos experimentos 47 . debe poder atribuir a los grupos los diferentes valores de la variable X. no se trataría de un “verdadero experimento”. que esta vez será el efecto causal medio: Efecto causal medio T = E (Yt) – E (Yc) sobre dos grupos “aleatorizados” donde E es el “valor esperado”. En las ciencias sociales no se pueden encontrar unidades idénticas.5 Experimentos de laboratorio y experimentos de campo La primera distinción se refiere al contexto en el cual se realiza el experimento. tiene por objeto los procedimientos de realización y distingue entre el caso de los experimentos “verdaderos”. sino de algo distinto. en aras de la sencillez.

Por último. ya que permite al investigador producir (y repetir) situaciones experimentales que se diferencian entre sí sólo por un pequeño detalle: por ejemplo. El segundo. y por las relaciones dentro de los grupos. Por lo que respecta al primer punto. la influencia ejercida por los roles sociales. el laboratorio persigue.dirigidos a estudiar la perturbación producida por el ruido sobre la concentración mental. en el que se asignan a unos sujetos tareas que requieren concentración mental en situaciones perturbadas por varias formas de ruidos producidas artificialmente. etc. también en las ciencias sociales. la intervención manipuladora del investigador actúa sobre los sujetos mismos. que por efecto de la dinámica experimental son inducidos a comportamientos que pueden ser distintos de los que tendrían en una situación de espontaneidad. en el doble sentido de: a) posibilidad de mantener fuera del ambiente experimental variables e influencias externas no deseadas. consistía en observar de cerca y aclarar el mecanismo de la obediencia para hacer tal 48 . aislándolos del confuso contexto en el hecho que se manifiestan. o bien en la posibilidad de estudiar mecanismos de interacción gestual y verbal entre personas a través de una cámara de vídeo o de un espejo unidireccional. y así sucesivamente. y de b) posibilidad por parte del investigador de establecer hasta en los detalles más mínimos las condiciones de realización del experimento. Se dividen los experimentos en tres grupos: Implicación de los sujetos estudiados (impact studies) Aquellos a los que se les pide su opinión (judgement studies) Aquellos en los que se requiere la observación sobre los sujetos experimentales (observational studies) Estudios de implicación. las dos condiciones que caracterizan el experimento – la manipulación de las variables independientes y la aleatorización – pueden obtenerse tanto en laboratorio como en experimentos de campo. para replantearlos en una situación purificada de los deshechos de las accidentalidades. En cuanto al segundo punto. realizado en un instituto escolar. realizado en un laboratorio. el laboratorio se caracteriza por una gran flexibilidad. registrando en un test el rendimiento de clases perturbadas por el ruido del tráfico vial y de clases no sujetas a esa perturbación. estableciendo detalladamente todas las modalidades de desarrollo. El elemento que caracteriza el laboratorio está representado por el control. son más fácilmente realizables en laboratorio. en el laboratorio el investigador tiene la posibilidad de “construir” su propio experimento. el objetivo del aislamiento del ambiente experimental con el fin de minimizar la acción de factores externos. precisamente por las características de control sobre el ambiente que éste ofrece. El primero. como hemos dicho. El laboratorio permite crear situaciones y realizar observaciones que no son posibles en el ambiente natural: piénsese en la creación de dinámicas de grupo especiales. Desde este punto de vista. aunque. puede experimentar si un ruido con intermitencia regular provoca un efecto distinto puede experimentar si un ruido con intermitencia regular provoca un efecto distinto que un ruido con intermitencia irregular o que uno continuo. en el caso mencionado de los ruidos. como la interferencia con las actividades de la vida cotidiana. Un ejemplo es el experimentos sobre la obediencia a la autoridad. En resumen el laboratorio experimental de las ciencias sociales permite al investigador extirpar de la realidad social unos factores específicos.

género. Los otros tres fueron expuestos a una escena recitada con un actor que cumplía acciones violentas e 49 . incluso ante escenas de dolor creciente y peticiones de que se suspendiera el experimento. un grupo tuvo la función de control. de llegar hasta el grado extremo de obediencia a la autoridad (no individuos sádicos) gente normal. Estudios basados en la observación los efectos imitativos de naturaleza agresiva inducidos en los niños después de la exposición a escenas de violencia transmitidas por la televisión. Al alumno se le ataba a una silla y se le fijaba un electrodo en el pulso. las variables independientes (X) manipuladas fueron en este caso dos: el género del artista ( a la mitad de las mujeres se les dijo que el autor era un hombre y a la otra mitad que era una mujer ) y el éxito del cuadro ( a la mitad de las mujeres se les dijo que el cuadro había obtenido un premio y a la otra mitad se le dijo que simplemente había optado a un premio). convencido de que participaba en un experimento sobre aprendizaje. se les mostraba una diapositiva del cuadro y se les sometía a un cuestionario con cinco preguntas de evaluación sobre el cuadro mismo. El experimento se repitió con más de 100 sujetos. El experimento estaba dirigido a comprender hasta que punto una persona está dispuesta a obedecer a la autoridad. o de dibujos animados. podemos citar un estudio sobre el prejuicio hacia las mujeres. tenía que aprender de memoria una lista de asociaciones de palabras por cada error se le administraba una descarga de intensidad creciente. Las mujeres juzgaron más positivamente los mismos cuadros cuando éstos eran atribuidos a hombres si eran cuadros que no habían ganado el premio. y ello con el fin de controlar la hipótesis de que cuanto más lejanas de la realidad son las representaciones. mientras que este prejuicio negativo hacia la artista-mujer no se daba en el caso de los cuadros que habían sido declarados ganadores de premios… un trabajo que es equivalente al del hombre es juzgado inferior hasta que no recibe un reconocimiento oficial. no motivada por una especial agresividad pero que puede convertirse en cómplice de un proceso de destrucción. de diferente edad. inducía a una persona a cumplir acciones que iban cada vez más en contra de su conciencia. En realidad. extracción social… La serie de experimentos aclaró algunos de los mecanismos de obediencia a la autoridad. en este caso en la figura de un profesor universitario. se invitaba al laboratorio a dos personas para tomar parte en un estudio sobre “memoria y aprendizaje” y el investigador que dirigía la prueba explicaba que se trataba de un estudio sobre los efectos del castigo sobre el aprendizaje. La violencia era representada tanto por escenas recitadas en vivo por actores como por filmaciones televisivas de esas escenas grabadas en la realidad. En estas circunstancias. agresivos y no-agresivos). Experimentos basados en la opinión de los sujetos. Una de las dificultades por parte de las mujeres de alcanzar el mismo éxito social que los hombres se debe a un prejuicio negativo hacia las mujeres por parte de las mujeres mismas. Dejo perplejos a los investigadores “la voluntad exasperada. Se mostraron ocho cuadros a 120 mujeres. de diferentes clases sociales.cosa en un laboratorio de sicología. 96 niños de entre 3-5 años en cuatro grupos de 24 unidades (niños y niñas en mismo número. por parte de personas adultas. mientras que el alumno era un colaborador del investigador y no recibía ninguna descarga (fingía recibirlas). el profesor era un sujeto desconocedor. más débil es su impacto. un representante de la autoridad. A un sujeto se le asignaba el papel de profesor a otro de alumno. Las mujeres leían una breve biografía sobre el artista.

los dos autores crearon en los profesores expectativas positivas con respecto a algunos alumnos. la mitad representada por juegos agresivos y la otra por juegos no agresivos. Esta comunicación puede 50 . Los resultados evidenciaron una fuerte influencia del efecto de la imitación. Dos ejemplos. luego era llevado a una sala donde tenía ante si diferentes oportunidades de juego. El experimento demuestra que las relaciones interpersonales están condicionadas por el contexto estructural en el que las personas son colocadas y tienen que actuar. Los dos grupos volvían a interactuar enseguida. La dinámica relacional entre los grupos se transformaba rápidamente de amistosa rivalidad a abierta hostilidad. Los niños expuestos a las escenas violentas manifestaron reacciones agresivas en doble medida respecto al grupo de control. Durante el año escolar se volvieron a hacer test y estos alumnos efectivamente fueron progresando como había avanzado el falso resultado del test de inteligencia. su expresión facial. la variable independiente está constituida por los objetivos del grupo. creando un conflicto de intereses entre los grupos. Segundo experimento “la profecía que se autocumple”. la primera se agrupaban al azar. Experimentos que se realizaban en campamentos. Otro a una grabación sobre una filmación televisiva de las mismas acciones y el tercero a escenas similares de dibujos animados que reforzaban la irrealidad de la escena. señalando al azar a cinco alumnos de cada clase como alumnos que podían progresar rápidamente. sino que requerían la colaboración del otro grupo.5. La relación profesor-alumno. El primero sobre las dinámicas de grupo. El resultado hay que atribuirlo a alguna forma de interacción inconsciente entre profesor y alumno: “el tono de voz del profesor. se falseo el resultado a los profesores. por razones éticas. y en particular sobre las modalidades de desarrollo del sentido del “nosotros” y del “ellos”. En la aplicación experimental. La mayoría de las acciones agresivas de los niños reproducía las vistas en las representaciones. afirmando que los niños “desaventajados” de las minorías étnicas americanas tienen a menudo un rendimiento escolar deficiente porque eso es exactamente lo que se espera de ellos. por el tipo de relaciones interpersonales. En este estudio. es decir sobre los mecanismos que llevan a la formación de la solidaridad hacia los miembros del propio grupo (ingroup) y de la hostilidad hacia aquellos que están fuera de él (outgroup). la segunda los grupos los dictaba el monitor y eran totalmente separados del otro grupo (se elegían nuevos amigos dentro del grupo) y en la tercera los dos grupos competían. 4. Las expectativas de A en relación al comportamiento de B pueden influir en B hasta el punto de que éste lleva a la práctica en efecto el comportamiento esperado. la hostilidad se deshacía y se formaban vínculos que transpasaban los límites de los grupos anteriores. El niño después era sometido a una experiencia de frustración. Se hizo un test de inteligencia a los alumnos de un colegio de un barrio pobre y de inmigrantes.2. Experimentos de campo. a los dos grupos en conflicto se les colocaba frente a objetivos que no podían alcanzarse por el grupo solo. Se confirmó sólo parcialmente la hipótesis de la relación entre realismo de la escena y comportamiento agresivo: los niños expuestos a las escenas reales mostraron más agresividad que aquellos expuestos a los dibujos animados. con diferentes fases. Al final la cuarta fase. y la dependiente. su forma de actuar –seguramente de forma totalmente inconsciente – comunica a los alumnos sus expectativas. pero la diferencia resultó ser moderada. Más predisposición de agresividad por parte de los varones.inusuales contra una muñeca de goma hinchable. y demostraron que éstas inducían una efectiva mejora en el rendimiento de esos alumnos.

con X la variable independiente (“tratamiento” o “estímulo” en la terminología de la psicología experimental ). Volviendo a las dos características del experimento representadas por la manipulación de la variable independiente y por la aleatorización de los sujetos en los grupos. consistente en formar parejas de sujetos idénticos sobre características que se consideran relevantes para la cuestión estudiada. sin entrar en consideraciones sobre la estructura de lo que se define como diseño experimental. 4.1 Diseño “sólo después” a dos (o más ) grupos 51 . la eventual repetición de las observaciones. Si no se cumple la segunda condición. Dos elementos que caracterizan el método experimental: la asignación de los sujetos a los grupos y la manipulación de la variable independiente. el modo en el que han sido formados. La aleatorización es la forma más común de obtener grupos que difieran. Manipulación de la variable independiente. Se forman parejas (tríos. También se utiliza un procedimiento que emplea aleatorización casual y emparejamiento. un criterio alternativo que puede seguirse es el emparejamiento.6. y después se asignan por sorteo a los dos conjuntos los componente de cada pareja. La variable independiente está representada por una variable nominal y su variación entre los grupos experimentales consiste en que cada grupo presenta una modalidad o categoría distinta de dicha variable. el número y las modalidades de las variables independientes. sus motivaciones y sus capacidades cognitivas. sobre todas las variables. 4. Asignación de los sujetos a los grupos. podemos concluir afirmando que el primer elemento no puede faltar (si falta nos situamos en la investigación basada en el análisis de la covariación.1. Éste procedimiento es inferior a la aleatorización por eso se emplea cuando es imposible emplear ésta. tenemos los denominados cuasiexperimentos. Cuando la asignación casual no es posible. con Y la variable dependiente (“observación” o “respuesta” ) 4. grupos…) de sujetos idénticos para algunas variables clásicas.ayudar al alumno a cambiar su concepción de sí mismo.6 experimentos y cuasi experimentos La distinción entre experimentos de laboratorio y experimentos de campo se basa en el contexto ambiental en el que se desarrolla el experimento.6. aunque. asignando después un componente de la pareja al primer grupo y el otro al segundo grupo (experimento Sampson y Laub). como veremos algunos autores introducen casos particulares de esta situación en los denominados experimentos ex post facto ). Así se obtienen grupos equivalentes. sólo en pequeñas variaciones accidentales. las características técnicas y organizativas que definen el experimento: el número de grupos experimentales. e indicaremos: con R la aleatorización de los sujetos en los grupos. Combinándolos dan lugar a una multiplicidad de posibles diseños experimentales.1 Experimentos verdaderos Al describir los diversos tipos de diseños experimentales emplearemos la representación gráfica de Campbell y Stanley.

tras la exposición a los distintos estadios de la variable independiente X. pues. En el caso más simple. Se obtiene una variante de este diseño cuando la variable X adopta más de dos estados. también un registro antes de la exposición (de ahí X1 Y2 52 . Podemos atribuir. y c) se observa en los dos grupos el valor medio de la variable dependiente Y. La variable dependiente Y se mide sólo después de la exposición al estímulo experimental y no antes y después de dicha exposición. el registro de la variable dependiente tras la exposición. mediante aleatorización. Por lo tanto.R X1 X2 Y1 Y2 Efecto causal : Y2 .6. la exposición al estímulo. es decir. La aleatorización garantiza que los grupos. b) se manipula la variable independiente de forma que en un grupo asuma la modalidad X1 y en el otro la modalidad X2. que presenten. Se trataría de: a) Subdividir por sorteo a los niños en dos grupos b) exponer a un grupo a la transmisión televisiva y no exponer al otro y c) examinar el comportamiento de los niños en la siguiente sesión de juego.Y1 El experimento se desarrolla en tres fases: R.2. Experimento de Bandura sobre la influencia de la violencia televisiva. por lo que se habla de diseño experimental a grupos multiples. sobre todas las variables. sean equivalentes. Diseño “antes-después” a dos (o más ) grupos Y1 R Y3 X2 Y4 Efecto causal: (Y4-Y3) – (Y2-Y1) Este diseño experimental presenta. las dos modalidades de la variable independiente X están representadas por “presencia/ausencia”: es decir. como sucede con otros diseños experimentales que veremos en breve. los dos grupos difieren sólo en el valor distinto de esta variable. al efecto de esta manipulación la diferencia entre las medias de los grupos de la variable dependiente (Y2 – Y1) registradas después de haber provocado la variación de X. X1 (grupo de control) X2 (escenas reales) X3 (filmaciones) X4 (dibujos animados) Y1 Y2 Y3 Y4 R 4. y el otro por la ausencia de exposición al estímulo (grupo de control). en dos grupos. además del registro de la variable dependiente después de la exposición al estímulo. Éste es el más sencillo de los diseños considerados “experimentos verdaderos”. antes de la exposición al estímulo. X e Y: a) los sujetos se subdividen. valores medios iguales (salvo oscilaciones accidentales). uno por la exposición al estímulo experimental (que da lugar al grupo experimental). El efecto causal inducido por la variación de X se mide por la diferencia Y2-Y1.1. contiene todos sus elementos esenciales: la aleatorización.

El diseño experimental que sigue se ha propuesto precisamente con el objetivo de controlar este efecto. Sin embargo. Podría afirmarse. por lo tanto. puesto que la aleatorización garantiza la equivalencia inicial de los dos grupos.1. especialmente si los dos test no se administran con mucha distancia el uno del otro. no obstante. Diseño de Solomon a cuatro grupos Y1 Y3 R X1 X2 X1 X2 Y2 (diseño 2) Y4 Y5 (diseño 1) Y6 (Y4-Y2) : Efecto causal + efecto de eventual no equivalencia igual a (Y3-Y1) (Y4-Y2) (Y3-Y1): efecto causal depurado de la no equivalencia (Y4-Y3): efecto causal + efecto de eventual no invariación igual a (Y2-Y1) (Y4-Y3) (Y2-Y1) : efecto causal depurado de la no invariación. El pretest no es esencial en los experimentos verdaderos. Diseño factorial Son aquellos en los que las variables independientes son más de una. Con simples diferencias entre los seis valores de los pretest y postest (Y1…. Frecuente en el campo de los estudios de evaluación. Y también podría ocurrir que el pretest influya en los dos grupos de forma distinta. no se le escapará al lector la complejidad de un diseño tal y el coste mayor que conlleva el hecho de utilizar cuatro grupos para estudiar el efecto de sólo dos estados de la variable independiente. sumando las ventajas del primero (ninguna interferencia por parte del pretest) a los del segundo (disponibilidad del prestes como punto de partida antes del estímulo).Y6) se puede seraparar el efecto del estímulo del de la interacción entre pretest y estímulo. Sin embargo. el pretest añade un control adicional sobre esta equivalencia. con consecuencias sobre el postest que no pueden distinguirse de las diferencias producidas por la exposición al estímulo.4. que este efecto de perturbación es igual en los dos grupos y que. En el estudio sobre el prejuicio hacia las mujeres teníamos una situación en la que las variables independientes eran dos. no influye en las diferencias de los dos grupos. 4.3. Este diseño experimental combina los dos diseños anteriores. 53 . El diseño pretest presenta algunas desventajas. Puede influir en las respuestas del postest. representadas por el género del artista y por su éxito. 4. Nos encontramo frente a un efecto de interacción entre pretest y estímulo. Obsérvese que (Y4-Y2) (Y3-Y1) = (Y4-Y3) (Y2-Y1).la denominación “antes-después”. Este diseño experimental une variaciones de la variable independiente entre los grupos y variaciones en el tiempo dentro del mismo grupo. que puede distorsionar el experimento. Puede ser que sus respuestas no expresen sus opiniones reales sino lo que se socialmente deseable.1.6. Los dos registros de la variable dependiente también se denominan pretest y postest.6.

Resultado éste que no podría haberse obtenido por dos experimentos separados con una sola variable independiente. compuesto cada uno por 5-8 sujetos. actor incluído. Resultado del experimento. hombre y mujer era rechazados por el grupo cuando transgredían los estereotipos ligados al género. Se trata de dos variables dicotómicas (X1 hombre. Tras la discusión debía atribuirse una puntuación de popularidad-simpatía al resto del grupo. diseño factorial 2x2. La hipótesis de los investigadores era que la puntuación estaba condicionada por los estereotipos sociales relativos a los comportamientos considerados convenientes para los hombres y para las mujeres. el diseño experimental se complica rápidamente con el crecimiento del número de las variables independientes y de su número de categorías. cada una de las cuales asume dos valores. Uno adoptaba el papel de lider otro el papel de sumisión. sumiso. pues. 4. y que puede obtenerse sólo en un diseño factorial como el descrito. el diseño se convierte en 2x2x2 y los grupos serán ocho. se dice que las variables “género” y “comportamiento” presentan un efecto principal (main effect) no significativo. sino que permite estudiar también el efecto de la interacción entre las variables independientes. si quisieramos añadir al diseño inicial 2x2 una tercera variable independiente (por ejemplo. además de por el tratamiento cuyos efectos están bajo examen. y dos mujeres. en grupos no equivalentes que difieren entre sí también por otras características. Cuasiexperimentos Son experimentos que tienen tratamiento. lo que significa que tenemos dos variables independientes (o factores). observaciones. X2 mujer. dentro de los cuales incluyeron a un individuo que fingía ser un sujeto experimental. mientras que su interacción sí que es altamente significativa. pero que era un actor/actriz. En este experimento las variables independientes son dos: género del actor X y su comportamiento Z. El hecho de que el investigador ya no pueda tomar como punto de partida la equivalencia de los grupos antes de su exposición al estímulo. La comparación se basa. pero que no emplean la aleatorización para crear comparaciones de las que poder deducir los efectos del tratamiento. postest y grupos experimentales. uno por grupo). La principal ventaja del diseño factorial radica en el hecho de que coloca al investigador en condiciones de estudiar no sólo el efecto aislado de las variables independientes sobre la variable dependiente. X1 X1 R X2 X2 Z1 Z2 Y3 Y4 Z1 Z2 Y1 Y2 Si en cambio la variable independiente Z toma tres valores (dominante. Z1 dominantes. Dada la imposibilidad de aislar el efecto del estímulo 54 . neutro) el diseño deviene en 2 x 3 y se necesitarán 6 grupos (y seis actores. Si inicialmente los grupos no son equivalentes. Z2 sometido).6.2. representa evidentemente un grave menoscabo de la lógica experimental. la edad también está dicotomizada en “joven” y “adulto”). el investigador nunca podrá saber si las diferencias que obtiene entre los grupos sobre los valores de las variable dependiente se deben a la no equivalencia inicial o al efecto del estímulo.Cuatro grupos de discusión. En términos estadísticos. dos hombres. Como puede verse.

no es excluye que este tipo de diseño cuasiexperimental pueda proporcionar contribuciones cognoscitivas útiles. si se produce una variación en la evolución de la tendencia de Y entre Y3 e Y4 simultáneamente a la variación de X. este diseño compara no ya los valores medios. Piénsese en todos los programas de evaluación que no disponen de un grupo de control.experimental de todos los demás efectos.sino a una tendencia de Y ya en curso. por sus estrictos límites. se produce una variación de la variable independiente X y se registra si este hecho introduce una variación en la evolución de la tendencia de Y.2. por tanto. La diferencia respecto al diseño precedente radica en el hecho de que. situaciones a las que. uno expuesto al estímulo y uno no expuesto. en la secuencia temporal. Al mismo tiempo. 4. algunos autores llegan a negar legitimidad a la existencia misma de la categoría de los cuasiexperimentos. se pueden aplicar diseños experimentales muy próximos a la lógica de los “experimentos verdaderos” y que producen resultados interesantes no alcanzables a través de la investigación basada en el análisis de la covariación. y poco perturbado también por la concurrencia de acontecimientos externos incontrolados entre dos registros sucesivos.1. acusándola de ser una categoría híbrida y confusa. Por tanto. El diseño consiste en una sucesión de registros de la variable dependiente Y. Diseño “antes-después” a un solo grupo Y1 X Y2 Efecto registrado: Y2 – Y1 Si sólo hay un grupo. en el que teníamos dos grupos. de la variación de X en el tiempo y en el mismo grupo. es improbable que se deba al efecto del pretest 55 . Con respecto al diseño anterior. y el sucesivo registro de la variable dependiente. no podemos tener un “verdadero experimento”. Sin embargo. se deba no tanto al efecto del estímulo. este diseño experimental es muy importante como sucedáneo del diseño experimental “sólo después” a dos (o más) grupos.6. llegados a un cierto punto. y no entre grupos. sino las tendencias de Y antes y después del estímulo. en particular en todas las situaciones en la que los grupos son preconstruidos. el investigador no puede hacer deducciones causales sobre el efecto de la variable independiente sobre la dependiente. En cualquier caso. mezclándose con el efecto del estímulo.6. Entonces podíamos comparar los registros Y2 e Y1 atribuyendo la diferencia al efecto del estímulo. Por lo tanto. no obstante. en la investigación social es a menudo imposible aleatorizar los sujetos en los grupos. Esta vez las dos observaciones se efectúan sobre el mismo grupo. este diseño presenta la ventaja de estar poco perturbado por la influencia del pretest sobre el postest. Dicho esto. 4. Es necesario proceder de tal forma que entre las dos observaciones Y1 e Y2 no se produzca otro hecho – además de las variaciones de X – que también pueda influir en Y.2. Por ello.2 Diseños en serie temporal interrumpida Se trata siempre de un diseño sobre un solo grupo. En realidad. es aconsejable recurrir a este diseño sólo cuando no es posible aplicar otros diseños experimentales o cuasiexperimentales. para evitar que la diferencia en el valor de Y antes y después de la exposición al estímulo. Se trata. es necesario que le pretest no influya en el postest.

2 aunque desaparece la letra R con las flechas que dirigían a los dos grupos que indica la aleatorización y aparece una línea horizontal entre los grupos. dado que permite que el investigador no trabaje sobre las puntuaciones absolutas de la variable dependiente. estaban disminuyendo. en el estudio de los efectos producidos por un cambio normativo determinado.6.6. Se trata de tomar dos grupos. se les denomina Expostfacto (para remarcar que se basan en hechos ya acaecidos). que demostró la existencia efectiva de una contribución positiva a la tendencia de disminución de los delitos. pero el pretest proporciona informaciones sobre las diferencias preexistentes entre los grupos. Existen situaciones de investigación que exentas de aleatorización y manipulación. La disponibilidad de la serie temporal de los datos con relación a la variable dependiente (tasa de delitos sexuales) permitió aplicar un “diseño a serie temporal interrumpida”. Diseño “antes-después” a dos grupos sin asignación causal. y después volver a aplicar el postest a los do grupos. 4. Dos clases. Ejemplo: evaluar clases de inglés audiovisual. Los dos grupos no son equivalentes. La presencia del grupo de control elimina los efectos de perturbación debidos a acontecimientos entre el pretest y el postest y a la influencia del pretest sobre el postest.3. que resienten sólo en parte el nivel de origen del pretest. ya no podemos hablar de experimento estamos ante la lógica del análisis de la covariación. una con la enseñanza innovadora y otra con la tradicional.4. o a la concurrencia de otros factores desconocidos. 4. Mediados de los 60 en Dinamarca. sino sobre la variación postest/pretest. exponer a un grupo al estímulo y no exponer al otro. puesto que éstos ya desde 1. realizar el pretest. aunque no pueden ser 56 . Cuando no puede manipular. Y1 X1 Y2 --------------------Y3 X2 Y4 Efecto registrado: (Y4-Y3) – (Y2 – Y1) Esquema parecido al del epígrafe 6. Se empleó un diseño de este tipo para estudiar el controvertido efecto de la pornografía sobre los delitos sexuales.---Y1 Y2 Hemos atribuido el nombre de cuasiexperimentos a aquellas situaciones en las que el investigador no puede asignar al azar los sujetos en los grupos experimentales.956. puesto que se trata de efectos presentes en ambos grupos que no influyen en las diferencia entre los dos.1. que indica su origen separado y su no equivalencia.Y3. una serie de medidas legislativas de liberalización de la prensa pornográfica condujo a una mayor difusión de ésta. Un simple análisis antes-después habría sido engañoso para evaluar el efecto de esta medida sobre los delitos sexuales. pero siempre puede manipular la variable independiente. por ejemplo. por lo que parece aceptable su atribución a una acción causal de X. atribuible a la nueva normativa.2.2. registrando los incrementos de conocimiento repecto al registrado antes de empezar. Diseño “ex postfacto” X1 Emparejamiento X2 ----. presentan un diseño que recuerda mucho al de los experimentos. Se trata de un diseño aplicable sólo en casos particulares.

• La no representatividad. que encubre la señal de los fenómenos menos llamativos. Esta limitación conlleva una escasa representatividad de la muestra.7 VENTAJAS Y LIMITES DEL EXPERIMENTO Ventajas. El experimento es aplicable sólo a determinados fenómenos y a determinadas situaciones sociales. Una de las formas que adopta la reactividad es el efecto del experimentador: las expectativas de quien realiza el experimento. 4. Los grupos experimentales no pueden aspirar a ser muestras representativas de la población. los resultados no son a menudo generalizables a la población total. los sujetos ya han sido expuestos a un estímulo. tiene con ver con el hecho de sentirse observados. Por dos motivos. extrayéndolos del flujo de la vida cotidiana. El hecho ya ha acaecido. • Artificialidad se divide en dos aspectos: la artificialidad del ambiente y el de la reactividad de los sujetos experimentales. 57 . la historia de la investigación social muestra que se han obtenido importantes avances con el método experimental. desarrollándose en un laboratorio. ya que se inspiran en la lógica experimental tanto en el diseño como en el tratamiento de los datos. recordemos la sumisión a la autoridad.incluidos ni en experimentos ni en cuasiexperimentos. y se comparan las medias de la variable dependiente en los dos grupos. comportándose quizá de forma diferente a como lo harían de forma natural. se suelen presentar en los manuales de metodología en el capítulo de experimentos. Artificialidad del ambiente. estimulando una relación de autoridad innatural diferente a la de la vida real. se eligen otros sujetos con características lo más parecidas posible a las de este grupo. por motivos de comodidad suelen ser elegidos dentro de un determinado ambiente. El otro problema es el de la selección de los sujetos. por la amplitud de la muestra y por los criterios de selección de los sujetos experimentales La primera cuestión surge porque los experimentos sólo pueden realizarse sobre muestras muy reducidas. influyendo inconscientemente en el comportamiento de los sujetos. Reactividad de los sujetos experimentales. nos permite alcanzar una conclusiones acerca de la causalidad que no pueden conseguirse a través del análisis de la covariación. una de carácter metodológico: se trata del método de investigación que mejor permite enfrentarse al problema de la relación causal. La segunda ventaja se refiere a la naturaleza de los problemas que permite afrontar: el método experimental permite aislar. y por el ruido de fondo presente en la vida real. la posibilidad de construir experimentos diferenciados entre sí por un solo elemento. por la coexistencia de otros factores que los esconden. Desventajas del método experimental en sus aplicaciones a las ciencias sociales bajo dos títulos generales: artificialidad y no representatividad. Sabemos que el error de muestreo y la amplitud de una muestra son inversamente proporcionales. fenómenos específicos que en condiciones naturales no podrían ser estudiados de una forma tan sistemática. pero no expuestos al estímulo. Hay cuestiones que pueden ser estudiadas sólo con este método. El objetivo del experimento es la causa-efecto A pesar de todas las desventajas vistas. confunden y distorsionan. Planteamiento. La flexibilidad de este método.

El experimento es un método de investigación social que se presta muy bien al estudio de problemas específicos. 58 .

La formulación de preguntas suele ser de forma oral. un modo de obtener informaciones: a) preguntando.1. (P: ¿le gusta la política ? R: mucho. investigación sobre la afición futbolística. Dichas preguntas se plantean directamente a los individuos que constituyen el objeto de la investigación. (Si es sobre la condición social de los presos. no era necesario estudiar toda la población. a los presos. (P: ¿le gusta la política? R: Depende. para conocer la distribución de un número determinado de variables en una población determinada. Todo esto da lugar a tres instrumentos de investigación distintos: . el afianzamiento del principio de que. al censo… Por encuesta de muestreo entendemos. La interpelación a un individuo consta de dos elementos: la pregunta y la respuesta.1 La encuesta por muestreo en la investigación social Dos formas de recoger información: observar y preguntar. LA ENCUESTA POR MUESTREO Es la técnica de investigación social cuantitativa más difundida. respuesta libre. ) Ni pregunta ni respuesta estandarizada. Criterio objetivista frente a criterio constructivista 59 . poco. Ya Marx en el año 1.880 utilizó el cuestionario. b) a los mismos individuos objeto de la investigación c) que forman parte de una muestra representativa d) mediante un procedimiento estandarizado de cuestionario y e) con el fin de estudiar las relaciones existentes entre las variables. bla.2 LA ESTANDARIZACIÓN O INVARIACIÓN DEL ESTÍMULO 5.La entrevista libre En este capítulo nos dedicaremos sólo al primer caso. nada) Pregunta estandarizada. sondeo electoral. sino que un estudio realizado sobre una muestre oportunamente preseleccionada podría producir resultados igualmente exactos. Es decir.2. 5.El cuestionario . pero el verdadero salto cualitativo en el ámbito de las técnicas de encuesta se realizó al consolidarse el concepto de representatividad y la introducción de los procedimientos de muestreo. bastante. los mismos hinchas…) Las preguntas están estandarizadas. a todos los sujetos se les plantean las mismas preguntas con la misma formulación.5. cara a cara. en ocasiones escrita. van desde la encuesta periodística al estudio de mercado. el entrevistador sabe que en el curso de la entrevista debe tocar el tema del interés por la política pero puede formular las preguntas como considere más oportuno. Pregunta y respuesta estandarizada. Ambas pueden formularse de forma estandarizada o bien su formulación puede ser libre.La entrevista estructurada . 5. La estrategia de recoger informaciones preguntando directamente a los sujetos implicados en los fenómenos sociales abarca situaciones muy diversas. por teléfono… el denominador común es la pregunta. bla.

5. la invariación del estímulo. el dato social puede ser registrado objetivamente. no puede dar testimonio de las realidades en las que vive por debajo o por encima del nivel consentido por el cuestionario. conducen hacia el mismo punto: la neutralidad del instrumento de investigación (del que también forma parte el entrevistador). 60 . la preocupación principal del entrevistador debe ser la de no alterar el estado del objeto estudiado. hace una elección: la de privilegiar la búsqueda de uniformidad respecto a la búsqueda de la individualidad. no cambiar el orden de las preguntas. considera que existen sino unas leyes como en el mundo físico. como si todos los destinatarios estuvieran dotados de igual sensibilidad.2. recogido o registrado. le coloca al nivel del hombre medio.2. la posición que podríamos definir como constructivista. con un procedimiento no muy distinto al de la “observación” en las ciencias naturales y por otra. el cuestionario y por consiguiente la encuesta por muestreo. Esto nos lleva a la estandarización del instrumento de investigación. Dirigido a la comparabilidad de las respuestas. clandestinos… 5. es un acontecimiento único. Dejando fuera a los analfabetos. En el momento en que el investigador elige el instrumento de recogida de las informaciones al que se dedica este capítulo. es decir. con un lenguaje conductista. el cuestionario es igual para todos y se administra a todos del mismo modo. sino “construido” o “generado” en la interacción entre el sujeto que estudia y el sujeto estudiado. y los que ven en el acto mismo de conocer una alteración de la realidad. cada acción social. pero quién nos garantiza que la uniformidad de los estímulos corresponde a una uniformidad de los significados. viejos. Posición objetivista. indigentes. Las soluciones que se dan tanto al primer dilema (despersonalizar la relación entrevistadoentrevistador) como al segundo (estandarizar las preguntas y las respuestas). Uniforma al individuo. madurez. Hay dos. Uniformista. que se consideran comparables porque todos los entrevistados han sido sometidos a las mismas preguntas y en situaciones de entrevista prácticamente uniformes. la búsqueda de lo que tienen en común los individuos y no de lo que les distingue: la elección de limitarse a estudiar ese mínimo común denominador en el comportamiento que puede ser uniformado. Según el criterio objetivista. si unas uniformidades empíricas. que son clasificables y estadarizables. la relación entrevistado-entrevistador debe estar despersonalizada.Primer dilema es el que contrapone a los que consideran que la realidad social existe fuera del investigador y es plena y objetivamente cognoscible por éste. cada caso. evitar cualquier cambio. para la cual el dato social no es observado. unas regularidades en los fenómenos sociales y en los comportamientos humanos. el cuestionario obliga al sujeto a un nivel determinado.2. es decir. Limitaciones de un cuestionario o esquema estandarizado de investigación. incluso la más ligera modificación en las palabras puede distorsionar la respuesta. en primer lugar. Individualista. Enfoque uniformista frente a enfoque individualista Segundo dilema confronta las posiciones que podríamos llamar uniformistas e individualista. rapidez. ignora que la sociedad es desigual. En segundo lugar.3 El objetivo del mínimo común denominador El objetivo fundamental de la postura objetivista-uniformista es evidente.

el cuestionario es percibido como un test de inteligencia. considerando el “no sé” como de incapacidad mental. que en una determinada cultura se da a una actitud o comportamiento individual determinados. El primero es el que tiene que ver con la denominada deseabilidad social de las respuestas. comparado a pesar de la individualidad de los sujetos y que puede ser registrado a pesar de la variabilidad de las dinámicas entrevistado-entrevistador.3 LA FIABILIDAD DEL COMPORTAMIENTO VERBAL Hay una segunda objeción de fondo que toca aspectos que tienen que ver con si la encuesta por muestreo es o no empíricamente practicable. los otros son individuos “sin una opinión real sobre el tema en cuestión. Los primeros son personas perfectamente coherentes en sus contestaciones a lo largo del tiempo. La técnica del cuestionario no es capaz de distinguir las opiniones intensas y estables de aquellas débiles y volubles. es decir. un cierto número de entrevistados no haya reflexionado nunca seriamente y que. una operación elemental. Al estudiar los resultados de un panel. En la dinámica de la entrevista se crea una especie de presión por responder por la cual. Falta de opiniones. ¿El comportamiento verbal es una fuente de exploración fiable de la realidad social?. muchos entrevistados eligen al azar una de las respuestas posibles. Si una actitud tiene una fuerte connotación en sentido positivo o negativo en una cultura determinada. Analizaremos el problema de la fiabilidad del comportamiento verbal desde dos puntos de vista. Converse acuño el término de non-attitude. Estos hechos sugerían que los entrevistados podían clasificarse en dos categorías de personas muy distintas: los estables y los que contestan al azar. 5. por tanto. es la valoración socialmente compartida.clasificado. La pregunta estandarizada registra la opinión pero no su intensidad ni su convencimiento. 61 . nacidas quizás en el acto de la pregunta misma. tras aprender que lo que la gente dice que ha hecho o hará no corresponde al comportamiento efectivo. de una encuesta longitudinal realizada reentrevistando a las mismas personas en momentos sucesivos. una pregunta que se refiera a ella puede dar lugar a respuestas fuertemente distorsionadas.4 Fondo y forma de las preguntas Un cuestionario puede parecer una secuencia banal y simple de preguntas. como la baja correlación entre las respuestas dadas a la misma pregunta por los mismos individuos en dos encuestas sucesivas.. pero la formulación de un cuestionario es una labor complicada y difícil. que sobre algunas de estas temáticas. Los antropólogos han abandonado la idea de que las contestaciones a las preguntas son un dato estable en el estudio del comportamiento humano. Es posible. y su redacción. El investigador no puede distinguir cuáles de esas respuestas están basadas en opiniones profundamente arraigadas y emotivamente comprometidas y cuáles son simplemente opiniones superficiales. que requiere gran empeño y una gran atención. Es segundo es el de la falta de opiniones (o de las pseudo-opiniones) La deseabilidad social. Converse notó algunos hechos inexplicables. no tenga una opinión al respecto. pero que por alguna razón se sienten obligados a contestar” y que contestan al azar. 5. Al entrevistado se le presenta una secuencia de afirmaciones y para cada una de ellas se le pregunta si está de acuerdo o en desacuerdo.

b) el conocimiento de la población a la que se administra el cuestionario. opiniones. sentimientos. orientaciones. tendrá que haber una postcodificación. un campo más sólido que el anterior. valoraciones. y c) la claridad de las hipótesis de investigación. si le confiere carácter de pregunta abierta o de preguntas cerradas. Son las preguntas más difíciles de formular y sus respuestas pueden estar fácilmente influidas por la forma en que la pregunta se expresa. se registra lo que dice que hace o ha hecho. la espontaneidad de la respuesta. con la elección de la contestación de entre las opciones propuestas.4. edad. 62 . Copiar preguntas de otros cuestionarios no es plagio. actitudes y comportamientos. La ventaja es la libertad de expresión. estado civil) La mayoría de estas preguntas se plantean en todas las encuestas por muestreo y para ellas existen formulaciones estándar a las que conviene adaptarse. profesión. ya hemos alcanzado el objetivo final de la encuesta en la investigación cuantitativa: la matriz de datos (clasificación de las respuestas dentro de un esquema estandarizado válido para todos los entrevistados) con la pregunta abierta. Pero esta forma de proceder tiene un alto coste y no es practicable para grandes muestras. Mientras en el caso de la pregunta cerrada. Podemos añadir que el primer punto puede ser sustituido para los investigadores noveles por la atenta consulta a los cuestionarios anteriormente empleados por otros investigadores.Para la redacción de un buen cuestionario son necesarios: a) la experiencia del investigador. Pregunta abierta. su clasificación en un número finito y limitado de categorías. En resumen: las respuestas a preguntas abiertas tienen que ser codificables ( o sea. Se refieren a motivaciones. Si bien con algunas variaciones. Descripción de las características sociales básicas del individuo (género.4. por la manera de plantearse por parte del entrevistador… Pregunta relativas a comportamientos. éstas pueden reconducirse en último término a la distinción entre propiedades sociodemográficas básicas. título académico. estamos todavía a mitad del camino que conduce a la matriz de datos. en cambio. es aquella en la que al entrevistado se le presenta además de la pregunta. En manos de un buen entrevistador la pregunta abierta llega siempre a un resultado no ambiguo y dentro del marco de referencia deseado por el investigador. La pregunta abierta es aquella que el investigador plantea dejando plena libertad al entrevistado en la formulación de la respuesta. estandarizadas). Preguntas relativas a actitudes. Los autores han propuesto diversas clasificaciones al respecto. un abanico de posibles respuestas de ente las que se le invita a elegir la que considere más apropiada. juicios y valores. La pregunta cerrada. Es necesaria una fase ulterior la denominada “codificación” de las respuestas: es decir. actitudes y comportamientos Iniciamos el tema con la cuestión de las preguntas. por su colocación en el cuestionario. Preguntas relativas a propiedades sociodemográficas básicas. clase social originaria. Es una de las primeras decisiones del investigador en el momento de formular una pregunta.2 Preguntas abiertas y preguntas cerradas. lugar de nacimiento. si no hay una precodificación.1 Datos sociodemográficos. 5. Nos situamos en el campo de las acciones. Los comportamientos son inequívocos y además son empíricamente observables. si se quiere llegar a la matriz-datos. 5. A posteriori conlleva un alto grado de arbitrariedad por parte del codificador. para hacer posibles las comparaciones y los sucesivos análisis cuantitativos.

La táctica de añadir al final de la lista la opción “otros” es necesaria.Sencillez en el lenguaje. por motivos esencialmente prácticos de costes y de factibilidad. cuando los entrevistados tienen un nivel cultural muy bajo y están poco habituados al lenguaje abstracto de las respuestas precodificadas. accesibles sólo a través de una entrevista en profundidad. b) Las alternativas propuestas por la pregunta cerrada influyen en las contestaciones. de forma idéntica. a la sintaxis y al contenido mismo de las preguntas. la pregunta cerrada. 63 . y la investigación utiliza un gran número de entrevistadores. c) Las respuestas propuestas no tienen el mismo significado para todos Por lo dicho aquí. b) La pregunta cerrada facilita el recuerdo c) Estimula el análisis y la reflexión. para investigaciones sobre muestras de dimensiones reducidas. a) el lenguaje del cuestionario debe adecuarse a las características de la muestra estudiada. aclara al entrevistado cuál es el marco de referencia presupuesto y ofrece el mismo marco a todos los entrevistados. por lo que la pregunta abierta se ha ido abandonando progresivamente en las grandes encuestas de muestreo. cuando éstas son demasiado numerosas o tratan de cuestiones demasiado complejas. pues. b) el cuestionario autocumplimentado exige un lenguaje más sencillo que el cuestionario con entrevistador. etc. pero poco eficaz.¿Cómo podemos – se pregunta Cicourel – controlar que los entrevistadores utilicen todos el mismo marco teórico de referencia e interpreten cada hecho. persona entrevistada.. es decir. Se mantiene vigente. Una misma pregunta puede tener interpretaciones distintas. incluso pequeños cambios durante la expresión verbal de las preguntas pueden producir variaciones sensibles en las respuestas. ya que el primero no puede aportar explicaciones. Tres limitaciones: a) Deja fuera todas las alternativas de respuesta que el entrevistador no ha previsto. empleando las mismas estructuras de significado en contextos diferentes con las mismas reglas interpretativas?. a) la pregunta cerrada ofrece a todos el mismo marco de referencia. 5. En algunos casos la pregunta cerrada no es practicable: cuando las posibles alternativas de respuesta no están perfectamente claras para el investigador. como veremos más adelante. Sugerencias ligadas al lenguaje . cuando se trata de cuestiones delicadas. Las encuestas por muestreo sobre grandes muestras se realizan actualmente con cuestionarios de preguntas cerradas. El entrevistado tiende a elegir entre las propuestas. se impone la opción de la estandarización del instrumento de investigación. Es. dispersos en un amplio territorio.5 Formulación de preguntas La manera en que se formula la pregunta puede influir en la respuesta. a través de sus respuestas preestablecidas. La pregunta cerrada presenta algunas ventajas. la pregunta cerrada implica una condición absolutamente esencial: que todas las alternativas posibles están presentes en el abanico de respuestas ofrecidas al entrevistado. Cuando los sujetos estudiados son varios centenares o miles. 1.

Más frecuente en personas menos instruidas. y también hace más difícil el malentendido. la identificación con el problema real. La precisión en un periodo de tiempo definido facilita el recuerdo y hace más difícil la superposición del comportamiento ideal al real.c) incluso en presencia de un entrevistador tampoco hay que contar con sus intervenciones explicativas. Deseabilidad social de las respuestas. o superficiales. Deben ser concisas. Hay cuestiones delicadas que son extremadamente difíciles de investigar con el instrumento del cuestionario. Expresión en jerga. 16. puede irritar al entrevistado. Evitar el uso de términos ambiguos. Además de preguntar si se mantiene al corriente de la política (actitud) y si lee los periódicos (comportamiento). 6. 10. Las preguntas deben construirse de tal forma que produzcan diferencias en las respuestas del total de los entrevistados. 14. Preguntas con respuesta no unívoca. cuando el objeto de la pregunta lo permite. Falta de opinión y “no sé”. Deben evitarse 11. La pregunta abstracta puede dar lugar con facilidad a respuestas genéricas o normativas. Aquiescencia. Deben evitarse tanto las preguntas explicitamente múltiples. Definiciones ambiguas. 15. El registro de la intensidad requiere una profundización mediante ulteriores preguntas. dado que a) facilita el recuerdo. La concreción del caso facilita en cambio la reflexión. 20. Extensión de las preguntas. Preguntas no discriminantes. Concreción – abstracción. puesto que los entrevistados sienten vergüenza a la hora de admitir que no entienden. la extensión de la respuesta está directamente relacionada con la extensión de la pregunta y. 5. Sintaxis lineal y simple 8. 9. Utilizar puntos de referencia temporales relativos a acontecimientos más relevantes que el estudiado. 64 .Palabras con una fuerte connotación emotiva. como aquellas sobre cuestiones queno estén lo bastante articuladas. Preguntas sintácticamente complejas. 13. 18. Descartado. b)da más tiempo al entrevistado para pensar. Comportamientos y actitudes. y además. Es pues una buena regla. Evitarlos. Intensidad de las actitudes. sobre todo si es negativo 7. Número de las alternativas de respuesta. 17. Comportamientos asumidos. si se presentan oralmente. No se puede preguntar a quién votó si antes no hemos preguntado si votó. centrar la pregunta sobre un comportamiento en lugar de quedarse en el ámbito de la opinión. Preguntas tendenciosas. c) favorece una respuesta más articulada. se recomienda que no sean más de cinco. 4. el entrevistador debe poner el acento e su profesionalidad científica. 19. 12. ambiguas y expuestas a respuestas normativas que los comportamientos. No pueden ser demasiado numerosas. también puede hacerse una pregunta que implique un conocimiento específico. Preguntas embarazosas. Tendencia a elegir las respuestas que expresen acuerdo a dar contestaciones afirmativas más que negativas. Precisión en el tiempo. y muchos darán repuestas al azar antes que pedir explicaciones. 2. Las consideraciones son similares a las del punto anterior. aunque cuando se trata de cuestiones complicadas puede ser preferible la pregunta más larga. O personas que por pereza no se terminan de leer las baterías de preguntas y contestan siempre el “bastante de acuerdo”. Efecto memoria. Establecer límites temporales al recuerdo. 3. Las actitudes son por naturaleza mucho más imprecisas. debería estudiarse a través de preguntas abiertas.

Cuando el comportamiento a estudiar se refiere no sólo al pasado. para centrarse progresivamente en los aspectos más específicos. En el orden de las preguntas hay que seguir el paso de preguntas generales a particulares. sigue siendo perfectamente válida la sugerencia que hemos avanzado al principio de este tema. Un tercer criterio es el de la secuencialidad de la entrevista. el cuestionario debe estar estructurado de tal manera que se mantenga viva la atención en todo momento. En los ejemplos anteriores cada una de las preguntas de la batería se formulaba en términos absolutos. el investigador aporte también la formulación exácta de la pregunta que los ha producido. a veces se pueden utilizar diarios o instrumentos análogos. La primera tarea pues será tranquilizar al entrevistado. se ha demostrado que la atención y el interés del entrevistado siguen una curva creciente hasta la mitad de la entrevista y después decrece. Orden de la pregunta. Conviene tener en cuenta ante todo la dinámica de la relación entre entrevistado y entrevistador. Éste es un requisito básico de cientificidad para esta técnica de investigación social. en ciertos casos la respuesta a una pregunta puede estar influida por las preguntas que la preceden. a la que el entrevistado puede contestar independientemente de las otras preguntas. en la lectura de los porcentajes de respuesta a cada una de las preguntas. La relación es asimétrica. según la técnica denominada “de embudo” que consiste en formular primero preguntas amplias. los temas tratados en el cuestionario se desarrollen en un orden lógico. el hecho de que siempre. en la fase del análisis de los datos pueda construir índices sintéticos que resuman en una única puntuación las repuestas dadas a las diversas preguntas de la batería. para evitar basarnos en el recuerdo. en el sentido de que cada elemento de la batería es una entidad autosuficiente. 5. se presentan al entrevistado en un único bloque. Hay que decir que esta dependencia es sobre todo relevante en lo que se denomina “análisis de una variable”. se recomienda poner las preguntas más complicadas en las partes centrales de la entrevista. En conclusión. hay quien sugiere colocarlas al final. Las respuestas están fuertemente influenciadas por la manera en que se formulan las preguntas. el entrevistador que tiene experiencia y el entrevistado que no sabe porqué es interrogado. Extensión del cuestionario en torno a los 45 minutos en cara a cara y sobre los 25 minutos si es telefónica. a la mitad del cuestionario preguntas potencialmente embarazosas. La primera parte del cuestionario consistirá en que el entrevistado se sienta a gusto y hacerle entender cómo funcionará la entrevista. 65 . El efecto contaminación. es decir.6 BATERIA DE PREGUNTAS Es frecuente el caso de preguntas que al ser formuladas todas del mismo modo. en cada presentación de datos extraídos de un cuestionario. sino también al presente y al futuro. dejando para el final las más tediosas pero que no requieren una reflexión. El segundo criterio a tener en cuenta tiene que ver con el interés y el cansancio del entrevistado. como las relativas a las características sociodemográficas.Presentar al entrevistado listas de posibles respuestas. consideradas de forma aislada. son las baterías de preguntas y tiene como objetivo: a) ahorrar espacio y tiempo b) facilitar la comprensión del mecanismo de respuesta c) mejorar la validez de la respuesta d) permitir que el investigador. que fluya la entrevista como una conversación natural. al principio preguntas fáciles. 21. Es importante distinguir entre el caso en que se formula en términos absolutos y aquel en que se formula en términos relativos.

Una pregunta en términos relativos es. En conclusión. debido a el rápido incremento del coste de las entrevistas. puesto que permitir diferenciar sus distintas posturas. importante. 5.7. El tono insistente de la batería y la repetición del esquema de respuesta pueden producir fácilmente dos de los errores de repuesta más comunes: el de las preguntas dadas al azar (seudeopiniones) y el de las respuestas mecánicamente iguales entre sí (response set). Por ejemplo se le puede presentar al entrevistado una lista de políticos.1 Entrevista cara a cara El entrevistador asume una posición fundamental. En principio lo más común eran las entrevistas cara a cara pero éstas fueron sustituidas en los años ochenta por las entrevistas telefónicas. aquella en la que la respuesta nace de una comparación con las otras respuestas posibles. pidiéndole que haga su evaluación de cada uno de ellos (puntuar de 1 a 10) éstas son preguntas en términos absolutos. la desconfianza hacia los extraños a causa de la creciente criminalidad… Junto a estas dos formas siempre ha habido espacio para los cuestionario autocumplimentados. Cuáles considera usted que son los tres más importantes”. en cambio. consideremos la pregunta sobre los “problemas más importantes del país”. aquella que se formula en términos relativos) es a menudo mejor a efectos de la valoración del punto de vista del entrevistado. conlleva también el mayor peligro de este tipo de formulación. O bien se le puede pedir que coloque a los políticos de las lista por orden de preferencia. depende gran parte de la calidad de la entrevista. de su actuación. “a continuación le voy a leer una serie de problemas de nuestra sociedad. de la manera que plantea y conduce la relación con el entrevistado. poco importante o nada importante” Términos relativos. o que elija a los tres que más le atraigan: y éstas son preguntas en términos relativos. 66 . la principal ventaja de las baterías de preguntas. constituida por la posibilidad de comprimir en poco tiempo y en poco espacio una serie de múltiples estímulos. la técnica más importante la constituye el cuestionario postal). de los cuatro motivos antes mencionados que justifican la organización de las preguntas en batería. que se aplica en particular en el ámbito de la denominada “medición de las actitudes”. Por tanto. La pregunta que implica una comparación (es decir. En el caso de las escalas. a medida que se los lea. usted debe decirme si lo considera un problema muy importante. el más importante es el cuarto: se plantean al entrevistado baterías de preguntas precisamente con el objetivo de condensar las respuestas en una puntuación única. “ a continuación le voy a leer…. Para cada uno de ellos. será conveniente una especial vigilancia por parte del investigador y del entrevistador al formular y al proponer este tipo de pregunta. Por ejempolo. 5. Un procedimiento que en la investigación social hace especialmente uso de las baterías es el de la técnica de las escalas.7 MODALIDADES DE RECOGIDA DE DATOS Tres modos de administrar un cuestionario: la entrevista cara a cara. apta para operacionalizar esa particular actitud a examen. la saturación de los ciudadanos respecto a cualquier tipo de entrevista. Términos absolutos. la entrevista telefónica y el cuestionario autocumplimentado (dentro de éste.

aburrida y desmotivada del entrevistador sólo puede repercutir negativamente en el entrevistado. de los mecanismos de aquiescencia y de influencia subliminal que suelen crearse. Con el mismo coste cubre también a los entrevistados localizados en las áreas periféricas del país. Motivaciones. Entrevistas Telefónicas En los últimos años se ha producido un boom de entrevistas telefónica. El problema es el de reducir el efecto del entrevistador. deberán distribuirse instrucciones escritas y deberán preverse encuentros preparatorios preliminares. Una actitud pasiva. sino que se dedique tiempo y relevancia considerable también a la exposición de los objetivos de la investigación 5.7. Rasgos que deben presentar los entrevistadores: Características. encuentros de control durante la encuesta.La técnica que estamos presentado es la del cuestionario estandarizado. En investigaciones de gran magnitud el entrevistador debe inhibirse de cualquier comportamiento que pueda influir en el entrevistado. Cuál es la disposición psicológica del entrevistador hacia su trabajo y hacia la entrevista en cuestión. Una persona con sentido común. Facilita enormemente el trabajo de la preparación de los entrevistadores y su supervisión. y de que en el mundo existe toda una amplia gama de opiniones y de comportamientos. De ahí que en los encuentros preliminares de instrucción para los entrevistadores no se traten sólo las cuestiones prácticas. todos con idéntica legitimidad. orientada a una permisividad. la modalidad más difundida de administración de los cuestionarios. de sus gestos faciales.2. que se ubica claramente dentro de la corriente objetivista. Permite utilizar directamente el ordenador en la fase de recogida de datos. Desventajas: 67 . ama de casa y de clase media. Presenta menos resistencias a la concesión de la entrevista y mayor garantía de anonimato. a través del tono de voz del entrevistador. para limitar su variabilidad subjetiva e interpretativa y evitar que se den indicaciones discordantes. Las expectativas se transmiten a menudo de forma inconsciente en la dinámica de la entrevista. Las ventajas se resumen en los siguientes punto: Gran rapidez de realización. que logre transmitir implícitamente al entrevistado la idea de que no hay respuestas correctas o equivocadas. Un perfil ideal lo presenta una mujer casada de mediana edad. así como la intervención de supervisores a los que los entrevistadores puedan dirigirse en caso de necesidad. Se hacen necesarias instrucciones detalladas sobre cómo debe comportarse en estos casos. Preparación. Expectativas. énfasis al leer las preguntas o las alternativas de respuestas. Ante todo al entrevistador se le debe informar del tipo de interacción existente entre él mismo y el entrevistado. Costes muy inferiores a los de la entrevista cara a cara. Deberá tener una actitud amistosa pero a la vez neutral. estandarizando su comportamiento y limitando el margen de discrecionalidad mediante una fase de formación. En todo caso. diplomada.

La limitación del tiempo disponible obliga a una simplificación de los interrogantes. hace que este instrumento resulte poco adecuado cuando la investigación requiere una información detallada. de no poder hacer entrevistas “largas” o profundizar demasiado en los temas. La primera ventaja es el enorme ahorro en los costes de investigación. Una segunda limitación radica en la autoselección de los que contestan. Cuestionarios autocumplimentados Es el cuestionario que el sujeto rellena solo. por ejemplo. sin que haya un entrevistador. la que se hace en una clase de estudiantes. las más graves son la primera (falta de contacto) y la última (presión por el tiempo). en ella se reduden en gran medida las dos limitaciones recordadas antes: la presencia de una persona encargada durante la cumplimentación. El entrevistador no puede recoger datos no verbales Algunos sectores sociales más marginales no tienen teléfono Los ancianos y las personas con título académico inferior suelen estar muy subrepresentadas en la entrevista telefónica. De esta forma se resuelven los errores de cumplimentación y la autoselección también se evita. La encuesta individual. De todas las limitaciones. en ella es necesario diferenciar entre situaciones con y sin vínculos sobre la devolución del cuestionario rellenado. además el hecho de que se controle que todos los cuestionarios repartidos sean rellenados evita el riesgo de la autoselección. el hecho de que se puedan acumular en una única encuesta temas dispares y el consiguiente abaratamiento de los costes.7. 68 . Un caso de devolución vinculada es. disponible para las aclaraciones. convierte este instrumento en muy adecuado para estudios a gran escala. La encuesta de grupo. Por otro lado su instantaneidad. La presión por responder (sobre el entrevistado) y la ansiedad por el correr del tiempo (en el entrevistador) condicionan enormemente la dinámica de la entrevista telefónica y justifican la opinión generalizada de que las respuestas dadas por teléfono son más superficiales que las obtenidas en una entrevista directa. no podemos contar con la certeza de que no hay errores de cumplimentación. hace menos probables los errores más burdos. la inmediatez con la que se obtienen los resultados y se pueden alcanzar grandes muestras de la población.El entrevistado se siente menos implicado en la entrevista La relación con el entrevistado se deteriora antes (debe ser mucho más corta que un cara a cara) Resulta imposible emplear en el curso de la entrevista material visual. persona instruida para esta tarea. el del censo. 5. Podemos distinguir dos casos fundamentales de autocumplimentación : la encuesta de grupo y la individual. La entrevista telefónica obliga a la simplificación de las cuestiones y de las problemáticas. la principal limitación es que no lo rellena el entrevistador. mientras que en la cara a cara una buena entrevistadora pueden conseguir con paciente insistencia que les reciba incluso una anciana indecisa. Por otra parte la ausencia de un contacto personal en la entrevista telefónica hace más formal la relación. y exige preguntas cortas y respuestas con un reducido número de alternativas. El hecho de estar obligados a mantenernos en la superficie. Esta técnica de recogida de datos no ofrece ahorros extraordinarios respecto al procedimiento de la entrevista cara a cara.3.

Consiste en enviar por correo el cuestionario a una lista de nombres que representan a la población estudiada. 69 . En el cuestionario autocumplimentado la ausencia del entrevistador excluye uno de los requisitos previos de la pregunta abierta: en efectos. La tasa de éxito repecto a las contestaciones depende de varios factores. ésta tiene sentido en una relación dinámica con el entrevistador. que puede guiar. estimular y grabar. El más completo consta de cuatro momentos. el cuestionario a rellenar y un sobre para la devolución con franqueo a cargo del remitente. al caso de la cumplimentación individual sin vínculos con la devolución del cuestionario. Babbie clasifica de adecuada una tasa del 50%. Ventajas: Ahorros en los costes Mayor flexibilidad para contestar por parte del entrevistado Mayor garantía de anonimato respecto a la entrevista cara a cara Ausencia de distorsiones debidas al entrevistador Accesibilidad a entrevistados residentes en zonas muy distantes del centro de recogida de datos o aisladas Desventajas Bajo porcentaje de respuestas Distorsión de la muestra debido a la autoselección Nivel académico de la población estudiada: debe ser medio-alto. que son muy inferiores a los de la entrevista cara a cara. Extensión del cuestionario. 5. Entrevistas computarizadas (electrónicas) Abordaremos muy brevemente las entrevistas que utilizan el ordenador en la fase de recogida de datos.Pasando por último. podemos mencionar cuatro: Institución que patrocina la investigación. el caso que queremos tratar con cierta atención es el del cuestionario postal. adjuntando una carta de presentación de la investigación. buena una del 60% y nuy buena una del 70% o más. mejor resultado un segmento específico Tipo de solicitud. Tanto en los cuestionarios telefónicos como autocumplimentados es necesario reducir al mínimo las preguntas abiertas.7.4. El problema principal de esta técnica lo representan las devoluciones de los cuestionarios. Características de los entrevistados. a) Envio del cuestionario con carta de acompañamiento b) Envio de la carta de solicitud c) una segunda carta de solicitud con una copia del cuestionario y d) llamada telefónica de solicitud. no es fácil superar el 50%. familiaridad con la comunicación escrita Falta de controles sobre la cumplimentación Imposibilidad en cuestionarios complejos Extensión del cuestionario: no puede superar ciertos límites.

tanto en términos de apariencia exterior como de motivaciones que expone. una de las finalidades del pretest es ver si las preguntas y respuestas son las adecuadas. se abre la fase de prueba. Gracias a la posibilidad del ordenador de gestionar la entrevista según una programación previa. Un primer encuentro entre el equipo de investigación y los entrevistadores. el investigador debe conocer perfectamente el problema objeto de estudio antes de empezar a redactar las preguntas. el entrevistador puede transmitir por módem al final de la jornada de trabajo su archivo de entrevistas al centro de recogida de datos. es decir. la prueba del cuestionario. Cuando el cuestionario está listo en una versión casi definitiva. el tiempo que dura. Después se procede a la redacción del cuestionario. 5. tras lo cual se celebrará un segundo encuentro para discutir sobre el funcionamiento del instrumento. A este encuenttro le seguirán las entrevistas de prueba. El entrevistado mismo lee las preguntas en la pantalla y escribe las respuestas en el teclado. describir su diseño e ilustrar detalladamente el instrumento de investigación. Es indispensable identificar las posibles modificaciones a realizar antes del inicio de la auténtica recogida de datos. Simultáneamente a la encuesta. La inversión inicial. Las limitaciones de los cuestionarios autocumplimentados y el de las encuestas longitudinales (saber que le están entrevistando a lo largo del tiempo puede alterar el comportamiento del sujeto estudiado). lee las preguntas en un ordenador personal portátil y transcribe las respuestas en el teclado. La ventaja económica más evidente de esta técnica radica en la eliminación de la figura del entrevistador. El contacto inicial con los sujetos entrevistados. se añade otra ventaja importante: la posibilidad de efectuar encuestas longitudinales. el ordenador pasa a ser un instrumento dinámico de interacción entre el centro de recogida de datos y el sujeto entrevistados.Capi. se añade la ventaja de agilización en el uso de cuestionarios complejos. Para poder formular las preguntas adecuadas. los rechazos. con el objetivo de presentar la investigación. Después de la formulación del cuestionario en su versión definitiva comenzará la encuesta verdadera. Desaparecen las fases de codificación y de introducción de datos. encuestas repetidas en el tiempo a los mismos sujetos. Son determinantes la forma en que se presenta el entrevistador.8 ORGANIZACIÓN DE LA RECOGIDA DE DATOS Fases que preceden a la recogida de datos mediante encuesta: las entrevistas exploratorias preliminares. Teleentrevista. por parte de una empresa de sondeos. El pre-test. En su presentación el entrevistador deberá preocuparse por dejar claro: a) quién ha encargado la investigación b) cuáles son sus objetivos c) por 70 . la preparación de los entrevistadores y el contacto inicial con los sujetos que van a entrevistarse. El estudio exploratorio. de la dotación de un ordenador portátil para cada entrevistador puede amortizarse rápidamente con el ahorro en las fase de codificación e introducción de los datos antes mencionados. La preparación y la supervisión de los entrevistadores. por ello se prevé una especie de ensayo general. en lugar de disponer del cuestionario en un soporte de papel. con la que se conoce el pretest. Problemas. Si se modifica el pretest debe probarse de nuevo. Los investigadores –según Schuman y Presser – deberían comenzar con entrevistas de preguntas abiertas y utilizar sus respuestas para construir las alternativas de las preguntas cerradas. se contará con supervisores que tengan la función tanto de asesoramiento como de control. etc. El entrevistador.

Por una parte. posibilidad de realizar estudios de gran envergadura con pocos recursos. Limitaciones.9. Análisis secundario. 5. 71 . a viejos interrogantes. cada vez son más frecuentes las investigaciones realizadas sobre bases de datos preexistentes. En segundo lugar. 5. Análisis secundario Es posible hacer una investigación original con datos ya recogidos por otros.9 ANÁLISIS SECUNDARIO Y ENCUESTAS REPETIDAS EN EL TIEMPO El recorrido de la encuesta por muestreo que se ha presentado hasta el momento. por los continuos desarrollos teóricos de cada disciplina. En primer lugar. La falta de control sobre las fases de la recogida de los datos puede colocar la investigador en la imposibilidad de valorar la calidad de los datos. La comunidad científica también se ha organizado promoviendo agencias que reunen recursos para esta fase tan cara y que luego ponen los datos al servicio de los investigadores. Es una propuesta que se ha consolidado en los últimos años en los países en los que la investigación social está más desarrollada y ha producido ya un cuerpo muy amplio de logros empíricos que plantea con urgencia el problema de nuevas formas de síntesis.qué nos dirigimos precisamente a él d) resaltar la importancia de su colaboración. a partir de los resultados de los estudios y no a partir de los datos. Metaanálisis. Puede que ya no sean visibles eventuales errores cometidos en la fase de memorización o de tratamiento de los datos. Ventajas. es una investigación realizada sobre datos de encuesta por muestreo recogidos procedentemente y disponibles en la forma de la matriz de datos original. recoge los datos y después los analiza. que hace hoy fácilmente accesible y utilizables bases de datos recogidas en cualquier parte del mundo. no es el único posible.1. así como las encuestas repetidas a lo largo de tiempo. podrían decir. que a medida que pasa el tiempo va formulando nuevos interrogantes. rigor científico. Ahorro sobre los costes de investigación. porque normalmente el análisis de los datos se limita a una parte de los que éstos. se ha hecho evidente que investigaciones efectuadas en el pasado ofrecen aún amplios márgenes para nuevas y originales profundizaciones. con nuevos instrumentos de análisis. La argumentación para ganarse al entrevistado es la del anonimato. Se entiende por metaanálisis un método de selección. Y ello por varios motivos. Durante varias décadas la investigación social ha avanzado según el modelo tradicional del investigador que plantea el problema. En la actualidad. Hemos presentado el caso en el que el mismo investigador: a) produce los datos y b) los analiza al mismo tiempo. Hasta el momento se han desarrollado dos tendencias. formula el diseño de la investigación. integración y síntesis de estudios que tienen un mismo objeto de análisis. en su conjunto. así como e) darle seguridad sobre el anonimato de sus respuestas. otros dos elementos son la institución que encarga la encuesta y la figura del entrevistado. Además han surgido nuevas técnicas de elaboración estadística que permiten responder hoy en día. Pueden producir investigaciones hechas a partir de los datos disponibles en lugar de hipótesis teóricas previas. Este hecho ha sido favorecido por el desarrollo de la informática.

9. para asegurar que las posibles diferencias surgidas entre las diversas encuestas se deban a cambios efectivos en la población y no a variaciones en la composición de la muestra. de este modo se pueden relacionar informaciones individuales de distintas fuentes registradas en tiempos distintos. Encuestas transversales repetidas.10 BASES DE DATOS EN ESPAÑA Y EN EL EXTRANJERO. son las encuestas (transversales) repetidas. Un estudio efectivo debería repetirse durante décadas por eso se confian estos estudios a instituciones permanentes. Otra solución la constituye la encuesta (transversal) retrospectiva. pero no sobre los mismos sujetos. una serie de preguntas relativas a su pasado. reducción del tamaño de la muestra que se registra en cada nueva oleada. el análisis secundario es el reanálisis de los datos para responder a las preguntas originales con mejores técnicas estadísticas. hemos apuntado el hecho de que una variable puede “variar” tanto entre los casos. así como recoger la variación en el tiempo de informaciones procedentes de la misma fuente. cuando la indagación se repite en el tiempo sobre los mismos sujetos. o bien para responder a nuevos interrogantes con viejos datos. ver cómo varían éstas con el paso de los años. o podemos estudiar a lo largo del tiempo una muestra constituida siempre por los mismos sujetos. con el fin de llegar a una integración de los resultados. repitiendo en el tiempo el registro de sus opiniones políticas. El primer tipo son estudios transversales y el segundo tipo estudios longitudinales. que consiste en una encuesta transversal normal en la que a los sujetos se les plantea.1 Estudios transversales 72 . Tenemos pues la encuesta longitudinal. consistentes en registrar las mismas informaciones en momentos temporales diferentes. Encuestas repetidas en el tiempo Tanto al introducir el concepto de variable.El análisis primero es le análisis original de los datos de una investigación. El problema general de todos los diseños de investigación que incluyen la variable tiempo radica en su coste. sino en distintas muestras de individuos. sin embargo. Por ejemplo si queremos estudiar la relación existente entre el conservadurismo político y edad. 5. 5. Otra posibilidad la ofrece la conexión de base de datos censales y administrativos. Plantean algunos problemas específicos. es un “análisis del análisis”. como en el tiempo.2. (encuestas del CIS). podemos registrar el conservadurismo político de una muestra de sujetos de distintas edades y ver cómo varía al variar la edad. es el análisis estadístico de una amplia colección de resultados derivados de estudios sobre los individuos. evitando entrevistar a las mismas personas. (panel en inglés). El metaanálisis. El metaanálisis aplica procedimientos estadísticos para llegar a síntesis de los resultados de las investigaciones consideradas. La repetición de la recogida de datos sobre los mismos sujetos no representa. Debe cumplirse además la condición de que dichas muestras sean comparables entre sí. es una vía para incluir el factor tiempo en la indagación. consistente en unir datos individuales de fuentes distintas. como al hablar de experimentos. La mortalidad de la muestra. la única forma de efectuar un estudio longitudinal. 5. sin embargo. en cambio.10.

el Latinobarómetro. ha publicado también cinco informes sociológicos sobre la situación social en España. además otras series monográficas sobre la pobreza.964. cultura y participación política. El Centro de Investigaciones sobre la Realidad Social. En el ámbito sanitario. Los microdatos son los ficheros que contienen los datos individuales de una estadística. políticas sociales. Los datos de estos paneles rotativos son tratados normalmente como estudios transversales repetidos. Los censos longitudinales que se realizan cada 10 años en Estados Unidos. El Instituto Nacional de Estadística.963 ha realizado más de 1. son entrevistados de nuevo. después de un paréntesis de ocho meses. son también una rica fuente de datos individuales. género o desigualdad territorial. realizó encuestas de opinión sobre diversos temas sociopolíticos y para todo el territorio español. es otra institución pública que dispone de datos individuales. En el contexto latinoamericano. La Fundación Foessa que se creó en 1. de 1. desigualdad de género. economía. los cambios de valores. Los temas principales de estos informes sociológicos son la situación económica y política. la Oficina del Censo ha producido las IPUMS en consonancia con sus esfuerzos de difusión de los datos. y temas relacionados con el medio ambiente. La CPDS utiliza un diseño de paneles rotativos que se caracteriza por una muestra de hogares entrevistados durante cuatro meses consecutivos y. preelectorales y postelectorales. se han llevado a cabo también diversas encuestas nacionales de salud de satisfacción del usuario con los servicios sanitarios. A través de la colaboración con el CIS. Desde 1.990 a 1. aunque su finalidad principal sea la actividad estadística pública y la difusión de datos estadísticos. Otro ámbito de reciente aplicación. los llamados barómetros de opinión pública. es una de las encuestas transversales repetidas de referencia internacional.965 con el patrocinio principal de Cáritas. Un ejemplo de ello son las muestras de microdatos integrados de uso público. distribución de la riqueza.960. en este caso microdatos. Las series del American National Election Study ( ANES) que se inició en 1. las reformas sociales. es el relacionado con las cuestiones de defensa y el ejército. esta encuesta también se produce en España. Entre los numerosos estudios existen diversas series de encuestras transversales de tipo electoral. cabe mencionar la Encuesta sobre la población activa. la desigualdad y la marginación social. El cuestionario recoge preguntas de temas variados como: democracia e instituciones políticas. que se realiza anualmente en 17 países de América Latina.996. percepciones y opiniones sobre líderes y grupos políticos o de evaluación de 73 . Los barómetros se realizan con una periodicidad mensual o bimensual y recogen información sobre aspectos políticos. valores y actitudes sociales y políticas. y del que se disponen datos individuales transversales. Entre las encuestas. económicos y coyunturales. integración y pactos comerciales. de cultura política o las de coyuntura política y social.948. desde 1. facilitan datos individuales sobre participación política.600 estudios. que es trimestral y está dirigida a las unidades familiares la hace el INE desde 1. Otra serie de microdatos producida por la oficina censal de los EEUU es cl Current Population Survey (CPS) se utiliza extensamente para el estudio de tendencias. como son las encuestas. durante cuatro meses adicionales.En España el Centro de Investigaciones Sociológicas (CIS) es uno de los principales organismos públicos dedicado a la producción de estudios sobre la realidad social y política de España. Se trata de ficheros ASCII con estructura de campos que recogen para cada registro individual de la encuesta los valores que toma cada variable. aunque a menudo considerados en la categoría de estadísticas oficiales.

e incluye preguntas sobre actitudes y comportamientos. la religión. de 30 años de duración.983. Las entrevistas personales se realizan cada año a cerca de 6. de tipo privado. Otro proyecto europeo de estudios transversales que está en la actualidad en su etapa inicial es la Encuesta Social Europea (ESS).000 familias.997.2 Estudios longitudinales La experiencia en España es escasa debido al alto coste tanto económico como organizativo.política públicas.968 entrevistando a una muestra de 4.972 con una periodicidad anual o bianual. como posibles cambios en el estado civil. las relaciones interraciales. la Fundación Jaume Bofill. la educación. con información sobre cada trabajo específico. la ocupación. La encuesta mundial de valores.990 y 2. La Encuesta Mundial de valores se realizó en 10 países de Europa Occidental y repetida en otros 12 países en la primera ola entre 1. se inició en 1. atributos y comportamientos sociales y políticos de los ciudadanos europeos. la familia.500 entrevistados. trayectorias laborales e ingresos ayudas familiares o de amigos y caracteríticas sociodemográficas. son también recopilados bajo el mismo formato de event history. es un proyecto comparado que se llevará a cabo cada dos años en 24 países europeos. el origen étnico. 5. la fertilidad. o al subsidio de paro.990-1.970 se lanzó una serie de encuestas que con el tiempo se han ido ampliando tanto por sus objetivos temáticos como por la cantidad de países incluidos en el proyecto. 74 .000 y 2. han ido creciendo en número de países hasta cubrir los 15 estados miembros de la Unión Europea. es otra encuesta transversal que se repite en el tiempo y que incluye España. el género. se realizan entrevistas cada dos años. Las series del Eurobarómetro. Entre los estudios del CIS existen algunas series de encuestas longitudinales. entre ellos España y que analiza el cambio de la continuidad de las actitudes. está realizando un estudio panel sobre las desigualdades sociales en Cataluña. la ocupación laboral y el nivel educativo. Fue diseñada para investigar los factores determinantes de los ingresos familiares. el acceso a las ayudas de asistencia pública. en 1. Otros datos. es seguida a lo largo de su vida hasta que exista un cambio en la composición del hogar. Los datos de estas encuestas reflejan la fecha de inicio y salida de las historias laborales de cada individuo.10. entre ellos España. Posiblemente una de las encuestas sociales más conocida es la General Social Servey (GSS) que realiza en EEUU desde 1. Los temas son variados. y también incluyen variables soicodemográficas como la edad.000. Con la intención de medir el grado de apoyo y las actitudes públicas hacia el Mercado Común Europeo y las instituciones comunitarias. El ampliio cuestionario de la GSS incluye aspectos como el empleo. El tamaño de las muestras de estos estudios oscila entre 1. La cuarta ola se realizó entre 1.981 y 1. El Panel de Hogares de la UE. es otro ejemplo de estudio longitudinal se realiza en 12 países de la UE. las relaciones sexuales.966. Las encuestas longitudinales empezaron en EEUU en el año 1. A escala autonómica.995-1. Panel study of income dynamics. centradas únicamente en el ámbito electoral y de pocas oleadas de seguimiento. La encuesta se repitió y fue ampliando el número de países en 1. el Eurobarómetro toca temas variados.993 y otra vez en 1.800 unidades familiares se caracteriza por una sobrerrepresentación de las familias con bajos ingresos. la religión o la moral.

Actualmente los modelos más comunes son otros dos. el empleo.. 75 . Los entrevistadores profesionales realizan diferentes entrevistas en nada de tiempo. pero el proceso de recogida de la información estaba dirigido y controlado paso a paso por el investigador.11 NUEVAS TENDENCIAS Y NUEVOS RIESGOS La encuesta por muestreo es la técnica de investigación más difundida e sociología y probablemente en la investigación social en general.También existen series de estudios con datos longitudinales sobre educación y resultados educativos. característica de las familias. Antes era importante que incluso ante una clara separación de investigador y entrevistador hubiera un contacto entre ambos para saber el entrevistador las motivaciones. son las partes vulgares que se subcontratan. Los acontecimientos de los que se compone la trayectoria incluyen la educación postsecundaria. el investigador se limita a analizar datos ya recogidos por otros: es el caso de análisis secundario. la formación y disolución de la familia. En los últimos años se han manifestado algunas tendencias que se contemplan con preocupación. las causas son varias: la disponibilidad de archivos de datos ya recogidos y listos para su elaboración sobre los fenómenos sociales más diversos. ambiente de aprendizaje. estilo profesional e impersonal. el del análisis de los datos. Esto no existe cuando los datos los facilita una empresa. gestionables sólo por organismos especializados. Había antes una separación entre la función del investigador y la función del entrevistador.988 y su evolución en los estudios.000 estudiantes de último curso de educación primaria en 1. pero contrata la recogida de los datos a una empresa de sondeos. En la NELS se entrevistan a 25. Otro caso muy frecuente es aquel en el que el investigador prepara el cuestionario. las empresas especializadas en encuestas. la difusión de la investigación social que impone muestras cada vez más numerosas. Se separa enormemente el momento de la elaboración teórica. Los peones de investigación. lo que va marginando la investigación local. y el de la recogida de datos. información sobre sus padres. la experiencia militar. 5.

se pueden adoptar tres formas de proponer tales alternativas. la técnica puede ser utilizada no sólo para registrar las propiedades de los individuos a través de sus respuestas a una serie de estímulos en función de las respuestas de los individuos.2 Preguntas de respuesta graduada: La autonomía semántica de las respuestas. ese cuasi indica la imposibilidad de alcanzar el objetivo de atribuir pleno significado numérico a las puntuaciones de las escalas. junto con los nuevos recursos de cálculo aportados por la informática. Una escala es un conjunto coherente de elementos (items) que se consideran indicadores de un concepto más general.CAPITULO 6. Pero la medida de las actitudes si bien constituye el campo de aplicación más importante de la técnica de las escalas. Podríamos decir que la actitud es el concepto general. o bien establecer una jerarquía de popularidad entre los políticos. sin embargo nuevos desarrollo teóricos. inquietudes y convicciones de una persona hacia una determinada cuestión. temores. cuando las alternativas de respuesta ofrecidas al entrevistado están ordenadas. han conducido recientemente a la elaboración de modelos estadísticos capaces de producir variables para las que se realiza es “igualdad de intervalos” que equivale a la existencia de una unidad de medida. cada una tiene un significado 76 . en la que la unidad de análisis es el individuo. El elemento es el componente individual. y las opiniones son sus indicadores. La opinión es una de las formas en las que la actitud se hace patente. empleando una noción ya introducida podemos decir – limitándonos siempre el caso más frecuente – que una escala esta constituida por una batería de preguntas.1 LA OPERACIONALIZACIÓN EMPÍRICA DE LOS CONCEPTOS COMPLEJOS Con la expresión “técnica de las escalas” traducimos el término inglés scaling y nos referimos a un conjunto de procedimientos creados por la investigación social para “medir” al hombre y a la sociedad. Las variables que produce la técnica de escalas son las denominadas cuasicardinales. en tanto que ordenables. ideas. el concepto general es una actitud y los conceptos específicos son opiniones. Actitud es aquel conjunto de tendencias y sentimientos. Los manuales de metodología y la práctica básica de la investigación social se han centrado durante años en los tres modelos de las escalas de Thurstone. prejuicios y nociones preconcebidas. La primera consiste en presentar unas posibilidades de respuesta que. que en el caso más difundido están constituidos por preguntas. Los primeros intentos de registrar actitudes mediante el uso de escalas se remontan a mediados de los años veinte. Se trata de aplicaciones complejas y de difusión limitada (las escalas de Rasch). no es el único. LA TÉCNICA DE LAS ESCALAS 6. Likert y Guttman 6. por ejemplo podemos atribuir a las profesiones una puntuación de prestigio social. por lo que podemos decir que el cuerpo central de las técnicas de la investigación social no va más allá de las escalas cuasicardinales. Ante todo. a partir de las respuestas y de las opiniones expresadas por los entrevistados. La aplicación más frecuente de la técnica de las escalas en el campo de la sociología y de la psicología social la constituye la denominada medida de las actitudes. es decir. es decir. una expresión empíricamente registrable de ella. En una pregunta cerrada. la escala es el conjunto de los elementos. son semánticamente autónomas. Una escala está formada por varios elementos.

acabado intrínseco que.tres veces al mes 5. Preguntas con respuesta de autonomía semántica parcial: ¿Le interesa a usted la política? 1. Urbano 2. 3…). Rural Intervalos de autoposicionamiento: En política suele hablarse de izquierda o de derecha. Bastante 3. Por ello no nos encontramos ante verdaderas variables cardinales. 2. Educación Primaria 3. Izquierda 1 2 3 4 5 6 7 Derecha 8 9 No sé 99 Querría pedirle ahora su opinión sobre algunas instituciones. por lo que esta técnica debe garantizar equidistancia entre las categorías. Esta práctica es. esta figura representa un termómetro.Cuasiurbano 3. Cuasirrural 6.Dos o tres veces al año 3. Semirrural 5. no necesita relacionarse con el significado de las otras alternativas presentes en la escala. en torno a los 50 o 40-60 . y al respecto existe un amplio debate entre los investigadores sociales. válida para todos los sujetos estudiados así como para el sujeto que estudia. nada…) Por último están las escalas de intervalos de autoposicionamiento en las que sólo dos categorías extremas están dotadas de significado. en otras palabras no se dispone de una unidad de medida externa. Preguntas con respuestas semánticamente autónomas: ¿Ha ido a la iglesia en el último año? 1. 77 . controvertida. En la práctica de la investigación social es bastante común tratar como variables cardinales también las variables de segundo y del primer tipo. Licenciatura. Una o más veces a la semana ¿Cuál es su título de estudios? 1. Mucho 2. Semiurbano 4. Poco 4. Dos. este procedimiento es subjetivo. Nada Tipo de municipio de residencia. 1. generalmente asignando a las categorías valores numéricos en secuencia simple ( 1. mientras que entre ellas se coloca un continuum en el que el entrevistado ubica su posición. Un segundo caso es aquel en que las categorías de respuestas son de autonomía semántica parcial (mucho. Una vez al mes 4. graduado de 0 a 100 grados. para ser comprendido. Es presumible que la subdivisión que el sujeto realiza mentalmente sobre el continuum consista en una subdivisión de éste en espacios iguales. Diploma universitario 5. puede servirse de ella para darnos su opinión: Mucha simpatía o una opinión muy positiva coloque la ficha a 100 o a 95-90 Mucha antipatía o una opinión muy negativa coloque la ficha a 0 o a 5-10 Opinión intermedia. Educación Secundaria 4. hechos o partidos. aunque todos los investigadores están de acuerdo en tratarlas como si fueran variables cardinales. Nunca 2. sin embargo. poco. bastante. Ninguno 2. ayudándose de esta ficha ¿dónde colocaría su posición política?. sino ante variables que hemos denominado cuasicardinales.

El procedimiento es simple e intuitivo. cada pregunta está más expuesta a los errores accidentales. Tradicionalmente el formato de las preguntas individuales de las escalas de Likert está representado por una serie de afirmaciones para cada una de las cuales el entrevistado debe decir si está de acuerdo y en qué medida. Por último. El número de categorías de respuesta. puesto que no consigue discriminar entre las distintas posiciones de los sujetos respecto a la propiedad considerada. Ej. Si la escala está compuesta por pocas preguntas conviene ofrecer al entrevistado una amplia gama de posibilidades de respuesta y viceversa. después se le pregunta en función de la respuesta si mucho o sólo bastante… aunque está formulación lleva a resultado no diferentes de los obtenidos con una sola pregunta que contenta desde el principio todas las alternativas graduadas. Se le puede preguntar al entrevistado si está de acuerdo o en contra de una determinada afirmación. en cambio. menos fiables. o bien no hacerlo. un único registro carece de precisión. Inicialmente se proponían siete alternativas: muy de acuerdo.La opción central neutral. El objetivo de la escala es captar la diversidad entre los entrevistados respecto a la propiedad que es registrada En las entrevistas telefónicas que implica la imposibilidad de utilizar soportes visuales ha contribuido la uso de preguntas formuladas a través de una sucesión de elecciones binarias. En conclusión: las escalas compuestas por un único elemento son menos válidas. En primer lugar. menos precisas. que. para ser más exactos. esta técnica es el procedimiento más utilizado en el estudio de las actitudes y se ha desarrollado y enriquecido notablemente respecto a las propuestas iniciales de Likert. si la escala está compuesta por muchas preguntas. dudoso. 6. atribuirle un punto a cada pregunta. obligando al entrevistado a tomar una posición.3 ESCALA DE LIKERT Likert lo propuso a principio de los años 30. No hay acuerdo entre los expertos sobre si un formulación es preferible a la otra. parcialmente de acuerdo. es el primero que se la pasa por la cabeza a un profano cuando debe atribuir una puntuación total basándose en las puntuaciones de pruebas individuales: hacer la suma de los puntos de las pruebas individuales. Nunnally cita tres razones por las que las escalas de varios elementos son superiores a las de un único elemento. la complejidad de los conceptos que se pretenden registrar hace improbable su cobertura con un único indicador. 78 . estás podrían plantearse como una elección binaria (Si/No). Es recomendable la opción “no sé” para evitar seudoopiniones. Una escala está compuesta normalmente por varias preguntas o. se plantea el problema de la conveniencia de ofrecer explícitamente al entrevistado una opción central neutral. bajo está denominación colocamos una amplia variedad de escalas. que traduciremos como escalas aditivas. La oferta del punto neutral puede favorecer la fidelidad del registro en los casos en los que existan efectivamente posiciones intermedias. por varios elementos. tienen menor peso cuando la escala se basa en más repuestas. Cuando la variable es de autonomía semántica parcial. En segundo lugar. de acuerdo. pero también puede ofrecer una escapatoria a quienes prefieren no decantarse o no exponer claramente lo que piensan. Test escolar de 30 preguntas.

a veces a cuatro. si las variables no están correlacionadas. A continuación la escala es sometida a un muestreo de entrevistados (segunda fase). La coherencia interna de la escala: el Alfa-Cronbach. Es necesario. Se han elaborado algunos criterios para valorar la coherencia interna global de la escala. se trata de preguntas con respuestas de autonomía semántica parcial. Una vez sometidos los entrevistados a las preguntas de las escala. se plantea el problema de valorar la capacidad efectiva de la escala para conseguir el objetivo para el que fue construida. puesto que la coherencia de las respuestas exigirá expresar consenso en unas ocasiones y disenso en otras. Como sabemos. que sirve para identificar los elementos de la escala que no son coherentes con los otros. y bajo esta perspectiva han sido elegidos los elementos en la primera fase. y el coeficiente alfa. En la primera fase. el coeficiente tiene un valor bajo. Esta comprobación se realiza en la tercera fase. Los instrumentos básicos que en ésta se utilizan son dos: la correlación elemento-escala. Es muy recomendable seguir una estrategia de tipo deductivo. la premisa que lo sostiene es que todos los elementos que la componen estén correlacionados con un mismo concepto latente. Esos conceptos suelen ser complejos. La correlación elemento-escala. Remontándonos a la clasificación precedente. que sirve para juzgar el grado total de coherencia interna de la escala. y que las afirmaciones no vayan todas en el mismo sentido (para obligar a los entrevistados a reflexionar. que en caso de ausencia total de correlación es cero. por tanto definir algún criterio empírico para asegurarnos de que el requisito de una dimensión común a todos los elementos sea efectivamente reconocible incluso en la percepción de los entrevistados. Para la correlación elemento-escala. contiene múltiples dimensiones que la escala debe ser capaz de cubrir. absolutamente en contra. Después se han reducido a cinco. En general esta técnica exige un alto nivel educativo de los entrevistados. Si las dos variables covarían. Debemos asegurarnos de la unidimensionalidad de la escala.parcialmente en contra. en contra. que se basa en la matriz de relación entre todos los elementos y en su número. se establecen las dimensiones de la actitud estudiada y se formulan afirmaciones que cubran los diversos aspectos del concepto general que se quiere destacar. el coeficiente de correlación cobra un valor elevado. esto no sólo vale para las escalas de Likert. Su fórmula es : nr A = ----------1 + r (n-1) donde n es el número de los elementos de la escala. Por ello es importante que se incluyan las respuestas “no sé”. y r es su correlación media. La construcción de la escala se produce en cuatro fases: a) formulación de las preguntas b) administración de las preguntas c) selección de las preguntas y determinación del grado de coherencia interna de la escala d) control de la validez y de la unidimensionalidad de la escala. Se trata de índices que resumen esta coherencia y entre los más conocidos se encuentra el alfa de Cronbach. se calcula la puntuación de cada sujeto sobre toda la escala así como el coeficiente de correlación entre esta puntuación y la puntuación sobre cada elemento individual. 79 . El coeficiente de correlación es una medida que cuantifica el grado de relación existente entre dos variables cardinales. más que inductivo.

pero correlacionados entre sí: lo que produciría valores satisfactorios de correlaciones elemento-escala y del coeficiente alfa. incluso muy distintas. cuanto más altos son los valores. la correlación entre las notas en álgebra y las notas en geometría de un determinado grupo de estudiantes (si un estudiantes va bien en álgebra también va bien en geometría) podría ser reconducida al hecho de que ambas notas están influidas por un factor subyacente. éste no es suficiente para garantizar la unidimensionalidad de la escala. el investigador tendrá en cuenta tanto las correlaciones elementos-escala como el coeficiente alfa. En el planteamiento tradicional la construcción de la escala es una operación que tiene una autonomía propia: se construye. y de este modo elevará la correlación media entre los elementos r. son los coeficientes de correlación entre el elemento de la escala y el factor subyacente. Elevado número de elementos que son suministrados a una muestra limitada de casos.Alfa no es un coeficiente de correlación. en el mismo instrumento de registro (usualmente un cuestionario) pueden coexistir varias escalas. sobre la base de esta primera prueba son eliminados los elementos incoherentes y se establece la aceptabilidad de la escala. Comenzamos por los controles de validez y con este fin introducimos una diferencia entre la aplicación clásica de la técnica de las escalas y una aplicación simplificada. La escala se aplica. mayor es la coherencia interna de la escala. a diversas investigaciones. siempre y cuando esta operación produzca un aumento en el valor de alfa. etc. toma un valor normalmente positivo. Eliminará los elementos con correlación elemento-escala demasiado baja. El punto de partida para el análisis lo constituye una matriz de correlación entre las variables observadas. aunque tenga esa apariencia. Al eliminar los elementos más insatisfactorios de la escala. Nos enfrentamos ahora al problema de los controles de unidimensionalidad de la escala. o bien que su número es demasiado bajo. la ansiedad. entre 0 y 1. Nunnally sugiere un umbral de 0. que hemos presentado en la tercera fase. En definitiva. la de los controles sobre la validez y la unidimensionalidad de la escala. aun en ausencia de unidimensionalidad. Entre los sociólogos y politólogos se ha ido afirmando un punto de vista más simplificado de la técnica de las escalas: las escalas en este caso están constituidas por una decena de elementos aproximadamente. por grupos conocidos. la religiosidad. el objetivo del análisis factorial es reducir una serie de variables relacionadas entre sí a un número inferior de hipotéticas variables independientes entre sí.70 para poder aceptar la escala. Cuarta fase. Las saturaciones. por ejemplo. que los elementos impliquen dos propiedades distintas. la escala no es sino un aspecto de la investigación. tenga como fin precisamente establecer que todos los elementos son indicadores de la misma propiedad. Un alfa inferior significa que los elementos de la escala tienen poco en común. acumulando en el curso de su utilización sucesivas pruebas de validez (validez predictiva. por ejemplo. Es posible. una escala para registrar la autoestima. Aunque el procedimiento de “análisis de los elementos”. Una técnica muy eficaz para el control de la unidimensionalidad la constituye el análisis factorial. y el objetivo es explicar estas correlaciones a través de la existencia de factores subyacentes. Las escalas de Likert son las más difundidas. El análisis factorial. su popularidad se atribuye a su simplicidad de su estructura teórica y a su facilidad de aplicación. Por ejemplo. por frase) como prueba del hecho de que efectivamente es capaz de registrar la propiedad para la cual ha sido construida. con el objetivo de crear un instrumento aplicable también a poblaciones distintas de aquellas para la que la escala fue construida. se eliminarán los elementos (ítems) que presenten una menor correlación elemento-escala. concomitante. que no requiere los 80 .

Desventajas. Su escala constituye una sucesión de elementos que presentan dificultad creciente. que es uno de los puntos débiles de la técnica de Likert. que serán consideradas “errores”. El problema reside en establecer cuántos errores puede tolerar una escala para poder ser aceptada y cuáles son los procedimientos a seguir para poder minimizar dichos errores. Esta técnica sólo utiliza elementos dicotómicos. 0000. Es por ello que sea muy posible que dos puntuaciones idénticas correspondan a respuestas muy distintas.potentes recursos de cálculo de los ordenadores modernos. 1100. Puntuación asignada a cada uno de los elementos. “Escala de distancia social” ¿Estaría ustede dispuesto a aceptar un negro como visitante de su país?. Segundo problema se refiere a la falta de reproducibilidad de la escala. En cada aplicación real se producirán también respuestas al margen de las secuencias previstas en el modelo. las respuestas a cada uno de los elementos es una característica típica del escalograma de Guttman. podemos distinguir tres-cuatro fases: la formulación de las preguntas. uno constituido por respuestas todas positivas y el otro por respuestas todas negativas. … 5. como vecino de casa… mientras que quién no lo aceptaría como amigo personal. ¿ y a casarse con él?. la negativa. Ejemplo. Si indicamos con 1 la respuesta positiva y con 0. a las que se les asigna arbitrariamente 1. 6. la puntuación final de la escala es global y no hay manera de averiguar a qué combinaciones de respuestas corresponde una puntuación determinada. Es evidente que quién está dispuesto a casarse con un negro. 2. Si los elementos de la escala están perfectamente escalonados. ¿ y cómo amigo personal?. De ahí la definición de esta escala como escalograma o escala acumulativa.4 ESCALOGRAMA DE GUTTMAN Nace con el fin de proporcionar una solución al problema de la unidimensionalidad de la escala. que luego son tratadas como escalas cardinales. En la construcción de la escala de Guttman. probablemente tampoco está dispuesto a casarse con él. sólo son posibles algunas secuencias de respuestas. 1110. el análisis de los resultados con la 81 . probablemente también está dispuesto a tenerle como amigo personal. en principio sólo deberían ser posibles las secuencias: 1111. ¿y cómo vecino de su casa?. Esta posibilidad de reducir. de “autonomía semántica parcial” en el caso más frecuente de cinco modalidades. Como visitante 1 1 1 1 0 Como vecino 1 1 1 0 0 Como amigo 1 1 0 0 0 Me casaría 1 0 0 0 0 Puntuación 4 3 2 1 0 Las respuestas posibles dan lugar a una matriz dividida en dos triángulos. Cada elemento es una variable ordinal. que adopta el nombre de reproducibilidad ( a partir de la puntuación se pueden “reproducir” las respuestas a cada pregunta). su administración. a partir de la puntuación de la escala. lo que explica se gran éxito en los años 50-60. de manera que quien ha contestado afirmativamente a una pregunta debe de haber contestado también afirmativamente a todas las que la preceden en la escala de dificultad.

las respuestas que no se integran en las secuencias previstas en el modelo. Las preguntas deben cubrir toda la extensión del continuum de la actitud subyacente.-------------------------= 1 ------------------------------= -------------------------Nº total respuestas Nº elementos x Nº casos Nº total respuestas Este índice se puede tambièn interpretar como la proporción de respuestas “exactas” sobre el total de las respuestas. Para la fase de la formulación de las preguntas. es un error la secuencia correcta debería ser 11100. remitimos a lo que ya hemos dicho acerca de la escala de Likert sobre la importancia de la reflexión conceptual. Ej. Si la escala presenta un coeficiente de reproducibilidad inferior a 0. Se 82 .eliminación de los elementos que indican demasiados errores. Los errores se identifican comparando la secuencia observada con la correcta teórica que debería obtenerse manteniendo la puntuación total del caso. El coeficiente de reproducibilidad de la escala es la media de los coeficientes de reproducibilidad de cada uno de los elementos. recalculando el índide Cr cada vez. El procedimiento consiste. Dos observaciones. o sea. el hecho de que las preguntas deban proyectarse teniendo en cuenta cuál será la forma final de la escala: un conjunto de elementos de intensidad creciente. Se trata de decidir si son lo suficientemente reducidos como para garantizar la “escalabilidad” de los elementos. Este índice indica el valor mínimo por debajo del cual el coeficiente de reproducibilidad de la escala no puede descender. Su formulación es la siguiente: Nº errores Nº errores Nº respuestas exactas Cr = 1 . se eliminan progresivamente los elementos con mayor número de errores. Edward propuso calcular un índice de repoducibilidad marginal mínima (MMR) con la siguiente fórmula: Suma proporción de respuestas en la categoría modal MMR = ----------------------------------------------------------------N Donde N es el número de elementos de la escala. con el fin de obtener un batería de elementos con creciente dificultad. En segundo lugar. en primer lugar. Esto implica que el coeficiente puede estar inflado debido a una distribución marginal de las respuestas muy asimétrica. que mide el grado de desviación de la escala observada respecto a la escala perfecta. de que las respuestas deben darse de forma binaria. que llamó coeficiente de reproducibilidad. establecer un índice de escalabilidad de la escala y establecer su aceptación o no. descartar los menos coherentes con el modelo. Medidas de reproducibilidad. 10110 con una puntuación final de 3. en identificar los que hemos llamado “errores” de la escala. Guttman propuso un índice. el objetivo de esta fase es el de evaluar la escalabilidad de todos los elementos. carácter binario de las elecciones. Fase de administración. el hecho técnico y en algunos casos simplificador.90. por tanto hay dos errores. El coeficiente de reproducibilidad de cada elemento no puede descender por debajo de su proporción de respuestas en la categoría modal. y la definición de un índice global de aceptación de la escala. cualquiera que sean las secuencias de las respuestas.

el modelo es rígidamente determinista. También Guttman recomendó inspeccionar atentamente las secuencias erróneas. ¿es duro o blando?. La primera es evitar elementos con tasas demasiado elevadas (superiores al 80%) de aceptación o rechazo. recomendadas por el mismo Guttman. Normalmente. 6. para aumentar la sensibilidad del instrumento se pide que se clasifique la intensidad de cada opinión en una escala de siete puntos.90. su escala se considera ya superada por las de tipo probabilístico. 83 . Osgood propone una técnica para extraer los significados que determinados conceptos adquieren para los entrevistados. por lo que los errores al final resultan numerosos. En segundo lugar. Por último. La puntuación final que se obtiene sobre la variable latente sigue siendo esencialmente una variable ordinal: tampoco en este caso tenemos ningún elemento para decir. En segundo lugar. mientras que la realidad social sólo puede interpretarse correctamente a través de modelos probalísticos que contemplen la posibilidad de error y el paso gradual entre las posiciones. Se han realizado diversas sugerencias para mejorar el rendimiento de esta técnica. Con personas dotadas de menor capacidad de verbalización este sistema puede ser limitado. Nos limitamos a presentar tres. la respuesta suele ser que conoce el significado pero no sabe explicarlo. El escalograma de Guttman ha constituido un punto fundamental en el desarrollo de la técnica de las escalas. en tanto que son poco descriminantes y que elevan artificialmente el coeficiente de reproducibilidad de la escala. como las escalas de Rasch. como en el caso anterior de la participación política. por tanto. la técnica de Guttman es aplicable cuando se está en presencia de actitudes bien definidas y escalonables. el significado que los conceptos adquieren para los individuos. Cuando la actitud se vuelve compleja resulta difícil escalonarla en secuencias acumulativas: las categorías se pueden superponer. es también netamente superior al segundo. mostrando que una escala de sólo cuatro elementos puede producir valores elevados de Cr aunque los elementos sean estadísticamente independientes entre sí. sólo si el primero. se basa en las asociaciones que establece el entrevistado entre este concepto y otros propuestos de forma estandarizada a todos los entrevistados. Ésta es la crítica más importante al modelo de Guttman. ¿es rápido o lento?. cuando los sujetos estudiados son personas inteligentes. se le pide a la persona que diga lo que significa. Ahora bien. Se plantea una serie de preguntas cómo. ¿qué significa esto (madre. Guttman sugirió emplear un número suficientemente elevado de elementos. además de ser superior al 0.sugiere. instruidas y con capacidad verbal está forma puede ser válida. comparar el Cr con el MMR. se puede afirmar que la buena reproducibilidad de la escala se debe a una efectiva escalabilidad de sus elementos y no a la distribución marginal de las respuestas. guerra) para ti?. De hecho.5 DIFERENCIAL SEMÁNTICO Se desarrolló en los años 50. El objetivo era crear un instrumento para determinar con la máxima estandarización. dado que la presencia repetida de una secuencia no prevista en el modelo puede ser síntoma de otra dimensión subyacente bajo esos indicadores. que la distancia entre las puntuaciones 2 y 4 sea igual a la distancia que media entre las puntuaciones 5 y 7. “De esta forma el diferencial semántico es esencialmente una combinación de asociaciones controladas y de procedimientos scaling. patria.

Justo – Injusto 46. En este caso. pero se pueden obtener también perfiles individuales. Agudo – Soso 23. En voz alta.desagradable 19. Mojado – Seco 27. Activo – Pasivo 42. Honesto. Espeso – Fino 35. Se recomienda al entrevistado que conteste de forma instintiva. Bueno – Malo 2. De valor – sin valor 13. Rápido – Lento 45. Tranquilo. Sano – Enfermo 50. Fuerte – Débil 8.Deshonesto 41. Agradable.Inquieto 11. Simpático . Grave – Soprano 38. Perfumado. Ancho . Bello – Feo 4.pequeño 3. sin reflexionar demasiado sobre cada pareja. Sabroso – Insípido 12. Alto – Bajo 10. Vacío – Lleno 24. Luminoso – oscuro 37. Pesado – Ligero 26. Cercano – Lejano 48. Relajado – Tenso 29. 1. Feliz – Triste 22. Amable – Grosero 16. y por tanto debe ser siempre la misma: incluso parejas de adjetivos aparentemente ajenos al caso en examen resultan útiles para extraer significados más profundos e incluso inconscientes que tiene el objeto para el entrevistado. Áspero – Suave 47. Alto – Bajo 31.Superficial (Tabla 2) “el perfil” es una representación gráfica consistente en unir con una línea la puntuación media obtenida por ese objeto en cada pareja de atributos de la tabla 1.Estrecho 2 3 4 5 6 7 Joven Débil Sucio Lento Lejano Tolerante Cerrado Indulgente Perdedor De derechas Triste Eficiente .Partido socialista 1 Viejo Fuerte Limpio Rápido Cercano Intolerante Abierto Intransigente Ganador De izquierdas Alegre Ineficiente (Tabla 1) Osgood también mantiene una lista de atributos bipolares que no debe tener relación con el objeto evaluado. Agresivo – Pacífico 25. Amarillo. Punzante – Apacible 49. Valiente – Cobarde 30.antipático 36. Duro – blando 6. Sagrado – Profano 28. Rugoso – Liso 43.Luminoso. Negro – Blanco 20 Amargo – Dulce 21. Grande . de 84 18.Azul 5.apestoso 40. Rojo – Verde 14.Rico –Pobre 32. Dulce – Ácido 7.Ofuscado 33. Anguloso – Redondeado 39. Caliente – Frio 34.en voz baja 17. el perfil tiene por objeto el concepto y consiste en las valoraciones medias de los entrevistados. Joven – Viejo 15. Profundo. Fresco – Rancio 44. es decir. Limpio – Sucio 9.

los valores sobre cada atributo bipolar pueden sumarse. las opiniones individuales resultarán estar naturalmente guiadas por la visión de conjunto (el “significado”) que el entrevistado tiene del objeto propuesto.6 TEST SOCIOMÉTRICO Se propone un objetivo bastante distinto del que tienen en común las técnicas presentadas hasta ahora. 85 . en un sector de estudios que se había movido hasta entonces en una perspectiva unidimensional. La forma más importante de utilización del diferencial semántico es. Las técnicas sociométricas nacieron con el fin de revelar las relaciones interpersonales existente dentro de un grupo de individuos. tal como soy” y luego “Yo. A partir de esta aportación al estudio de las dimensiones del espacio semántico. positivo-negativo…). la exploración de la dimensión de los significados. no restan interés a la técnica como instrumento para revelar la estructura de las actitudes. obteniendo así para cada individuo unas puntuaciones globales sobre las tres dimensiones mencionadas. No obstante. Pueden identificarse tres dimensiones fundamentales que subyacen a las diversas opiniones: la evaluación ( relacionada con las parejas bueno-malo. fuerte-débil…). la evolución en el tiempo de esta distancia puede emplearse para seguir los progresos del paciente durante una psicoterapia. La técnica se ha empleado como instrumento para revelar la autoestima del entrevistado. la potencia (duro-blando. En este capítulo no sólo nos ocupamos del estudio de las actitudes. la riqueza del punto de vista multidimensional. con el objetivo. Osgood y sus colaboradores afirmaban que las tres dimensiones identificadas de la evaluación. sin embargo. Muchos investigadores no comparten esta afirmación generalizadora. De hecho. …).los sujetos entrevistados basados en las respuestas de un único individuo. pidiéndole que coloque en una batería de atributos bipolares primero el objeto cognitivo “Yo. de “medir al hombre y a la sociedad”. A través del análisis factorial se puede determinar cuáles son las dimensiones fundamentales que están tras los juicios de una determinada muestra de personas entrevistadas. la contribución más original del diferencial semántico al reconocimiento de las actitudes resida en el hecho de que puso en evidencia la multidimensionalidad de los significados al introducir. tal como querría ser”. ni actitudes hacia determinados objetos cognitivos como los partidos políticos o los inmigrantes. sino que queremos incluir las principales técnicas de las escalas. principalmente entre los años treinta y los años sesenta. La distancia entre los dos perfiles permite conocer el grado de autoestima del sujeto. Probablemente. tan ambicioso como ingenuo. Si pedimos a un entrevistado que coloque un determinado objeto cognitivo sobre 30 parejas de adjetivos. como sucedería con una escala aditiva tipo Likert. no tienen como finalidad revelar variables latentes como la religiosidad o la depresión. aquellos procedimientos elaborados por las ciencias del comportamiento. es decir. estas objeciones. y para citar una aplicación de la técnica. 6. la actividad (activo-pasivo. Estos tres factores se enumeran aquí por orden de importancia: el primero es el más relevante y parece representar lo que en las técnicas tradicionales de escalas se denominaba generalmente la “actitud” hacia un determinado objeto cognitivo. de la potencia y de la actividad rigen el espacio semántico de los individuos en la gran mayoría de los casos. rápido-lento. independientemente de la cultura de los sujetos estudiados.

los que te han elegido entre los que querrían tenerte con ellos el año que viene. 12 presenta un lider el 12. 11. en cambio. que funcionan como intermediarios. mostrando la existencia de dinámicas desconocidas para los educadores. los cotilleos. pidiéndoles que describieran las relaciones que se habían establecido entre los alumnos: las amistades. entre tus compañeros. Bastin. Por ejemplo. de aislamiento y de afinidad. ¿ Y cuáles son. que giran entorno al tema de la preferencia-rechazo hacia al resto de los pertenecientes al grupo. El test sociométrico se presta en general al estudio de grupos estructurados. El test sociométrico consiste en un cuestionario compuesto por pocas preguntas. mientras que el tercero (2. religiosas. 8. los que te gustaría volver a tener en tu clase el año que viene? Indica cuantos quieras. El grupo formado por los sujetos 5. Se pueden construir sociogramas distintos según las preguntas consideradas. es poco adecuado para el análisis de grupos informales. etc. Su campo de aplicación ideal lo representa una clase escolar. los subgrupos. puesto que el radio de elección del sujeto debe estar limitado. las vías a través de las cuales pasan las informaciones. Adivina cuáles son. La técnica se revela útil como instrumento de diagnóstico individual. las órdenes. Y como herramientas para el estudio de la psicología de los grupos. La elaboración de los datos es tan sencilla como la administración del cuestionario. etc. la existencia de estratificaciones sociales. los que no te gustaría volver a tener en tu clase el año que viene?. Indica cuantos quieras. lingüísticas. Eligió 12 clases del primer año de un centro escolar. elegidos entre los que enseñaban todos los días. los líderes. las relaciones interpersonales que se establecen dentro de grupos pequeños. 3. Es de gran utilidad para el estudio de la dinámica de una 86 . los otros dos grupos presentan una estructura muy paritaria. 4 y 10) es un grupo cerrado. Los profesores se mostraron incapaces de desentrañar las redes de relaciones existentes entre sus alumnos. que se efectua analizando para cada individuo el número de preferencias efectuadas y de rechazos recibidos. las redes de comunicación. poniéndoles en orden de preferencia. Una primera elaboración la representa el análisis del estatus sociométrico individual. y pasados tres meses desde el inicio del curso entrevistó a cuatro profesores por clase. más una persona aislada. 2. barreras étnicas. los estudiantes aislados. etc. Junto con los análisis para definir el estado relacional de los individuos se efectúan luego elaboraciones dirigidas a la ilustración de la estructura sociométrica del grupo.El test sociométrico nace con el objetivo de estudiar. para identificar los puntos de tensión. 4. Se construye una matriz cuadrada que tenga en los datos izquierdo y superior la lista de los componentes del grupo. de edad. Dos de los tres grupos están conectados entre sí por los sujetos 6 y 11. la organización jerárquica informal. de genero. los que te han colocado entre los que no desean para el año que viene. ya que todas las preferencias se producen en el interior. con sistematicidad y procedimientos estandarizados. poniéndoles en orden empezando por el que menos deseas. ¿Cuáles son. el grupo se articula en tres subgrupos (todas las primeras preferencias de los sujetos y casi todas las segundas se agotan dentro de cada subgrupo). con el fin de identificar las relaciones de dominación-dependencia. y se registran las preferencias/rechazos en las casillas correspondientes a cada pareja. Adivina cuáles son. 1. administró un cuestionario sociométrico a las clases: éste relevó con nitidez el mapa de las interrelaciones entre los chicos. como instrumento para captar la estructura relacional del grupo. entre tus compañeros. entre tus compañeros.

también podemos mencionar estudios sobre la organización militar. por ejemplo. preguntándonos cuántas y qué dimensiones latentes están detrás de ellas. Finalmente. Estas técnicas de análisis toman como punto de partida las correlaciones entre los estímulos. Ésta es la técnica de las denominadas escalas multidimensionales. de las situaciones de investigación en las que se presume que existe una única dimensión fundamental subyacente bajo un conjunto de observaciones. Imagínemos que tenemos frente a nosotros un mapa geográfico. La técnica nació inicialmente para estudiar las relaciones afectivas existentes dentro del grupo. la aproximación al estudio sistemático de las redes de relaciones sociales ha cobrado un nuevo vigor dentro de la network analysis (análisis de redes). Las preferencias de los entrevistados fueron recogidas con el “termómetro de los sentimientos”. La técnica propuesta por Moreno fue muy popular en los años cincuenta y sesenta cuando se empleó en múltiples campos. Los autores utilizaron la técnica de las escalas multidimensionales para identificar cuáles eran las dimensiones que estaban tras la opinión expresada. de las competencias y de la utilidad ¿con quién querrías estudiar?. juzga positivamente a no. pero existen procedimientos geométricos que nos permiten enfrentarnos a ella. 6. Posteriormente la técnica se ha desarrollado para estudiar también las relaciones funcionales. y que se nos pide que construyamos una tabla con las distancias en kilómetros entre las ciudades. Y consiste en partir directamente de las observaciones.clase escolar. Considérese. elaborada por Moreno con un fin de renovación social más que de investigación científica. la investigación llevada a cabo en 1. ¿a quién elegirías para tu equipo de fútbol?. Si. Supongamos que nos enfrentarnos al problema contrario: tenemos la tabla con las distancias en kilómetros y queremos reconstruir las posiciones de las ciudades sobre el mapa. en parte por la disgregación de la construcción teórica de la “sociometría”. que recibió un fuerte impulso también por el desarrollo de la informática y de las nuevas posibilidades ofrecidas por los ordenadores para la gestión y el análisis de datos de tipo relacional. basados en la estimación de las capacidades. La problemática a la que se enfrenta la técnica de las escalas multidimensionales se parece al proceso de construcción del mapa a partir de las distancias. eso significa que los dos candidatos están cercanos en el espacio mental de los entrevistados: si un sujeto juzga positivamente a uno. esta técnica también se ha utilizado existentes dentro de las organizaciones formales. La tarea es más difícil que la anterior. existe una alta correlación entre las puntuaciones obtenidas. es decir. ¿con quién te gustaría jugar? ¿a quién invitarías a cenar?. La tarea es fácil de realizar midiendo con un centímetro las distancias sobre el mapa y convirtiéndolas luego en kilómetros. juzgará positivamente también al otro. Hay otra forma de enfrentarse al problema de los conceptos complejos subyacentes a un conjunto de observaciones. aplicado a 12 candidatos a las elecciones primarias. Más recientemente. por ejemplo.968 acerca de la opinión de los electores sobre los candidatos a las elecciones presidenciales estadounidenses de ese año. interpretadas como medidas de proximidad.7 ESCALAS UNIDIMENSIONALES Y ESCALAS MULTIDIMENSIONALES En los primeros epígrafes del Capitulo hemos trazado el itinerario recorrido por las ciencias sociales en los diversos intentos de “medir” al hombre y su mente: pero hemos hablado únicamente de las escalas denominadas “unidimensionales”. Poco a poco su utilización por parte de los investigadores se redujo sensiblemente. Otro campo de aplicación ha sido el laboral. Este espacio conceptual puede imaginarse como un espacio físico definido por dimensiones. A partir de las 87 .

88 .proximidades-distantes entre determinados objetos se nos plantea el objetivo de reconstruir el espacio conceptual en el que estos objetos son colocados. es necesario dar un nombre a estas dimensiones. el problema es comprender si existe un espacio común a todos los que han contestado: a continuación. Ante todo. se trata de identificar cuántas dimensiones tiene este espacio: por último.

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->