PARTE I LA LOGICA DE LA INVESTIGACION SOCIAL TEMA 1. LOS PARADIGMAS DE LA INVESTIGACIÓN SOCIAL.

1.1 Khun y los paradigmas de la ciencia Paradigma fue utilizada tanto por Platón en el sentido de modelo como por Aristóles en el sentido de ejemplo. Desde sinónimo de teoria a articulación interna de una teoria, desde sistema de ideas de orden precientífico a corriente de pensamiento o escuela, desde procedimiento de investigación ejemplar a equivalente a método. La reflexión de Khun tiene como objeto el desarrollo histórico de las ciencias y constituye un rechazo a la concepción tradicional de la ciencia entendida como acumulación progresiva y lineal de nuevos logros. Según Khun, existen momentos revolucionarios enlos que la relación de continuidad con el pasado se interrumpe y se inicia una nueva construcción, cita el desarrollo de la física óptica, para la cual la luz estaría constituida por fotones (ondas y particulas) teoría que nació en este siglo porque antes se enseñaba que la luz era un movimiento ondulatorio transversal. En el siglo XVII la concepción dominante era la de la óptica newtoniana, según la cual la luz estaba constituida por corpúsculos materiales. El paso de una visión teórica a otra es tan global y tiene consecuencias tan radicales sobre la disciplina implicada, que Khun no duda en utilizar el término "revolución" y habla precisamente de "revolución científica". ¿Qué entiende Khun por paradigma?. Con este término designa una perspectiva teórica: a) compartida y reconocida por la comunidad de científicos de una determinada disciplina. b) Fundada sobre adquisiciones que preceden a la disciplina misma c) Que actúa dirigiendo la investigación en términos tanto de: C1) identificación y elección de los hechos relevantes a estudiar como de C2) formulación de hipótesis entre las que situar la explicación del fenómeno observado, y de C3) preparación de las técnicas de investigación empíricas necesarias. Sin un paradigma una ciencia no tendría orientaciones y criterios de elección: problemas, métodos, técnicas son igualmente legítimos. El paradigma representa la guía para la ciencia: proporcionan a los científicos no sólo un modelo, sino también algunas indicaciones indispensables para construirlos. En cuanto aprende un paradigma el científico adquiere teorías, métodos y criterios. Es algo amplio y también más general que una teoría: es una visión del mundo. Khun define ciencia normal como aquellas fases de una disciplina científica durante las cuales predomina un determinado paradigma, que es compartido por la comunidad de 1

científicos. Khun subraya que el paradigma es una característica definitoria de las ciencias maduras. Se abre la posibilidad dentro de una determinada disciplina, de varios paradigmas, y la sociología pasa de ser preparadigmática, a ser una disciplina multiparadigmática. Sigue siendo fundamental en el concepto de paradigma su carácter preteórico, en último término metafísico, de "visión que orienta"; de imagen del mundo, o mejor aún, como escribe Friedrichs, de "imagen fundamental que una disciplina tiene de su objeto" que guía y organiza tanto la reflexión teórica como la investigación empírica, y como tal precede a ambas. 1.2 Tres cuestiones de fondo Nos limitaremos a un examen de carácter histórico sobre la evolución de la disciplina. Sabemos que entre las funciones de un paradigma está también la de definir los métodos y las técnicas de investigación aceptables en una disciplina. Existen dos grandes marcos generales de referencia que han orientado históricamente la investigación social desde su nacimiento: la visión "empirista" y la "humanista". Se trata de dos divisiones orgánicas y fuertemente contrapuestas de la realidad social de los modos de conocerla, que han generado dos bloques coherentes y muy diferenciados entre sí de técnicas de investigación. Son concepciones generales sobre la naturaleza del a realidad social, del hombre y sobre el modo en que éste puede conocer aquélla. Tales interrogantes pueden ser reconducidos a tres cuestiones fundamentales: ¿existe la realidad (social)?, ¿Es conocible?, ¿Cómo puede ser conocida? … en otras palabras: Esencia, Conocimiento, Método. La cuestión ontológica. Concierne a la naturaleza de la realidad social y su forma. Se nos interroga sobre si los fenómenos sociales son "cosas en sí mismas" o "representaciones de cosas" La cuestión epistemológica. Relación entre el quién y el qué. Concierne a la cognoscibilidad de la realidad social, y ante todo pone el acento sobre la relación entre estudioso y realidad estudiada. Si el mundo social existe en cuanto tal independientemente del actuar humano, será legítima la aspiración de alcanzarlo, de conocerlo con distancia objetiva, sin temor de alterarlo en el transcurso del proceso cognoscitivo. Las características (la forma) que el conocimiento puede adquirir están estrechamente ligadas a la respuesta dada a este problema: éstas pueden ir desde "leyes naturales", deterministas dominadas por las categorías de causa-efecto, a leyes menos imperativas, a generalizaciones de distinta forma, a ninguna forma de generalización. La cuestión metodológica. Es la cuestión del "cómo". Se refiere a la instrumentación técnica del proceso cognoscitivo. Resulta difícil separar las concepciones sobre la naturaleza de la realidad social de las reflexiones sobre su cognoscibilidad, y éstas de las técnicas utilizables para su conocimiento. 1.3 Positivismo

2

El paradigma positivista es: el estudio de la realidad social utilizando el marco conceptual, las técnicas de observación y medición, los instrumentos de análisis matemático, los procedimientos de inferencia de las ciencias naturales. Por marco conceptual entendemos las categorias de "ley natural", de causa-efecto, de comprobación empírica, de explicación… Por técnicas de observación y medición entendemos: el uso de variables cuantitativas incluso para fenómenos de naturaleza más cualitativa, los procedimientos de medición aplicados a orientaciones ideológicas, capacidades mentales, estados psíquicos. Finalmente, por procedimientos de deducción entendemos: el proceso que a partir de lo conocido permite avanzar hipótesis sobre lo desconocido, y por tanto el paso de la observación particular a la ley general, la utilización de la teoría para fines de previsión, la inferencia a partir de la muestra a la población total. La ciencia es universal y el método científico es único. Las ciencias de la sociedad no son distintas de las de la naturaleza y el modo de pensar positivo que ha llevado a conquistas tan grandes en el campo de la astronomía, de la física, de la biología, está destinado a triunfar también cuando se pasa de los objetos naturales a los sociales: a la religión, a la política, al trabajo. El primer intento de aplicar esta perspectiva teórica global a la investigación empírica fue el de Durkheim. Comte no se ocupó de cosas sino de conceptos. Durkheim sin embargo se esforzó por traducir los principios del pensamiento positivo en praxis empírica, es el primer científico social, el primer sociólogo positivista verdadero. La primera regla , que es la fundamental, impone considerar los hechos sociales como cosas. Hechos sociales, que tienen las mismas propiedades que las cosas del mundo natural. Y de ello se derivan dos consecuencias. Por una parte, los hechos sociales no están sujetos a la voluntad del hombre, sino que ofrecen resistencia a su intervención, lo condicionan y lo limitan. Por otra, precisamente como los fenómenos del mundo natural, los hechos también funcionan según sus propias reglas. Poseen una estructura determinista que el hombre, a través de la investigación cientifica puede descubrir. De ahí la asunción, no obstante sus diferentes objetos, de una unidad metodológica sustancial entre mundo natural y mundo social. La primera afirmación, es pues, existe una realidad social fuera del individuo. La segunda afirmación, es, esta realidad social es objetivamente conocible. La tercera afirmación, es, esta se puede estudiar con los mismos métodos de las ciencias naturales. La manera de proceder de este conocimiento es fundamentalmente inductivo, entendiendo por inducción "el paso de los particular a lo universal", de la observación empírica, de la identificación de regularidades y repeticiones en las fracciones de realidad empíricamente estudiada, se llega a generalizaciones o a leyes universales. En el procedimiento inductivo está implícita la asunción de una orden y una uniformidad de la naturaleza, de principios organizadores de carácter universal, y el cometido científico es, precisamente, descubrirlos. Con respecto a la forma de este conocimiento en la mayoría de los casos adoptarán las características de un nexo causa-efecto. 1.4 Neopositivismo y postpositivismo Dentro de la visión positivista se ha desarrollado, a lo largo del siglo XX, un proceso continuo de revisión y adaptación, movido justamente por la conciencia de sus propias

3

limitaciones intrínsecas y del intento de superarlas. La tranquilizadora claridad y linealidad del positivismo del siglo XIX deja libre el terreno para un positivismo del s. XX mucho más complejo, articulado y en algunos casos no exento de contradicciones y puntos oscuros; sin dejar sin embargo de cumplir con algunas premisas de base, como el realismo ontológico y la posición preeminente que defiende la observación empírica como medio para conocer dicho mundo. Los dos momentos del neopositivismo son, el periodo que va de los años treinta a los años sesenta y del postpositivismo con el que se suele identificar su evolución a partir de finales de los años sesenta. Una de las primeras revisiones del positivismo del siglo XIX la llevó a cabo la escuela conocida con el nombre de positivismo lógico, que ha dado origen al neopositivismo. Este movimiento se formó en torno a las discusiones del "Circulo de Viena" y sobre cuyas posiciones se formó un grupo análogo en Berlín. La emigración a EEUU de algunos representantes acreditados de esta escuela difundió el pensamiento neopositivista y su influencia sobre las otras disciplinas, la sociología incluida. En EEUU se desarrolló, a partir de los años treinta, un rico filón de investigación sociológica empírica. La nueva visión asigna un papel central a la crítica de la ciencia, pasando al del análisis crítico de cuanto es elaborado en las teorías de cada disciplina. De ahí el rechazo a las "grandes cuestiones" y a todas las metafísicas definidas exentas de sentido en tanto que indemostrables. En cambio se dedica la máxima atención a los problemas metodológicos de cada ciencia, a la sintaxis de su lenguaje y de sus elaboraciones teóricas, ala crítica de sus tesis y a los procedimientos de validación de las elaboraciones conceptuales a través de la verificación empírica. Se otorga importancia a las cuestiones epistemológicas, es comprensible la influencia que tuvo sobre la metodología de las ciencias, incluidas las ciencias sociales. Uno de los postulados el neopositivismo es que el sentido de una afirmación deriva de su verificabilidad empírica, de la posibilidad de poder formular a partir de ella una definición operativa para controlar su validez."El siginificado de una proposición es el método de su verificación". La principal consecuencia fue su forma de hablar, un lenguaje extraido de las matemáticas y las estadísticas, el lenguaje de las variables. La variable con sus características de neutralidad, objetividad y operatividad matemática, se convertía así en la protagonista del análisis social, de esta manera se despersonaliza. Ya nada podía ser como antes, la concepción de la ciencia del s.XX estaba muy lejos de las sólidas certezas del positivismo del s. XIX, en el que dominaba la concepción "mecánica" de la realidad, la seguridad en las leyes inmutables, la fe en el progreso científico. La mecánica cuántica, la relativización del espacio y del tiempo efectuada por Einstein, introducen elementos de probabilidad y de incertidumbre sobre puntos cruciales, como el concepto de la ley causal, la objetividad-inmutabilidad del mundo exterior e incluso sobre las categorias clásicas del espacio y el tiempo. El momento crucial de este cambio se localiza en el paso de la física clásica a la cuántica, perdiéndose la certidumbre de la ley, que quiebra el ideal clásico de la ciencia como sistema acabado de verdades necesarias. Las teorías científicas ya no están destinadas a explicar los fenómenos sociales mediante esquemas de naturaleza lógica coercitiva, y la ley determinista es sustituida por la ley probabilística, que implica elementos de accidentalidad, la presencia de perturbaciones y fluctuaciones. Si esto es válido para el mundo natural, será más válido para el social.

4

.Categoría de falsabilidad. No existe la discontinuidad que hemos identificado en el paso desde el positivismo del s. diferentes entre sí pero unidas por la atención común a la interacción individual. no sufren variaciones de fondo. es decir. La orientación postpositivista dice que la observación de la realidad no es una fotografía objetiva. seguida por la reinterpretación del planteamiento original que se ha ido concretando a partir de los años sesenta sobre todo en la sociología americana. Y la comprobación positiva no se da en tanto que los mismos datos podrían ser compatibles también con otras hipótesis teóricas.5. El positivismo moderno. Los procedimientos operativos. El nuevo positivismo. con la "no falsificación" de la teoría por parte de los datos. de la sociología fenomenológica. pero sin menoscabar la centralidad de las cuantitativas. bajo un único título podemos incluir la investigación social. 1. la afirmación de que no existe una línea clara de separación entre conceptos teóricos y datos observados. La comparación entre teoría y descubrimiento empírico no puede darse en positivo. las elaboraciones estadísticas. de la cuantificación y de la generalización. mediante la constatación de que los datos no contradicen la hipotesis. por tanto. Este procedo no conlleva una anulación del espíritu empirista. de condicionamientos sociales y culturales. pero no repudía el fundamento empirista. clasificando bajo el término general de "interpretavismo" todas las visiones teóricas para las cuales la realidad no puede ser simplemente observada. mediante la prueba de que la teoría es confirmada por los datos: sino que se realiza solamente en negativo. Se produce una importante apertura a las técnicas cualitativas. es decir. sino que depende de la teoría incluso el simple registro de la realidad depende de la ventana mental del investigador.XX. Por tanto. El hombre no puede conocer sino sólo conjeturar. las modalidades de obtención de datos. Pierde las certidumbres. la centralidad del método "científico" en la investigación social. las operaciones de medición. derrroca incluso la última de las certezas positivistas. sino que tiene que ser interpretada. fundado sobre las bases de la operacionalización. y siempre expuesta al riesgo de una posible falsación. La tesis de la teoricidad de las observaciones empíricas. la de la objetividad del dato obtenido.XIX al del s. del a etnometodología. son simplemente compatibles con ella. y la analogía de fondo entre el método de las ciencias sociales y el de las ciencias naturales. De este planteamiento se deriva un sentido de provisionalidad de cada hipótesis teórica.1 Los inicios La visión inicial de la "sociología comprensiva" debe a Max Weber a principios de este siglo. tanto la elaboración de la metodología como los primeros intentos de investigación empírica. Se mantiene. así como la neutralidad del lenguaje observador. 5 . y que ha dado lugar a las diversas corrientes del interaccionismo simbólico. Criterio de validación empírica de una teoría o hipótesis teórica.5 Interpretativismo 1. cuando dice que las leyes son probables y abiertas a revisión. y de que. ha recorrido un largo camino desde la interpretación ingenua de las leyes deterministas del positivismo originario. tiene en su base el lenguaje de siempre. nunca válida definitivamente.

1. asumiendo un papel orientativo con respecto a la investigación. "la capacidad de realizar la distinción entre el conocer y el valorar. es decir. sino de interpretación: entender el objetivo de la acción. La relación de los valores viene a designar la dirección particular del interés cognoscitivo que mueve la investigación. que así se mantiene también en el curso del proceso cognoscitivo. sino un principio de elección: sirve para establecer un campo de investigación. Y para Weber el método es el de "comprender". Éste es el principio al que debemos atenernos más solidamente. Weber se adhiere en este punto a la distinción de Rickert entre "juicio de valor" y "relación de valor". es de método. Incluso privados de una función valorativa. Una vez establecida la neutralidad valorativa como primera condición para la objetividad de las ciencias sociales. se distinguen de las ciencias naturales por su "orientación hacia el individuo" Orientación que. en el que indagación procede de manera objetiva para llegar a la explicación causal de los fenómenos. su unicidad e irrepetibilidad. La preocupación de Weber es no caer en el individualismo subjetivista y en el psicologismo. el punto de vista específico en el que ésta se coloca. aun partiendo de una orientación hacia la individualidad. al no darse esta separación entre observador y realidad estudiada. siendo más evidente en él la conciencia del problema que la capacidad para darle una respuesta unívoca. La neutralidad valorativa de las ciencias histórico-sociales sigue siendo un fundamento irrenunciable. como en los de la posibilidad de llegar a enunciados con cierto carácter de generalidad.Dilthey aúna en su polémica tanto el idealismo hegeliano como el positivismo comtiano.5. encaminadas a la identificación de leyes generales y ciencias idiográficas. cumpliendo con lo que podríamos llamar una "función selectiva". delimitando su propio campo. independencia de los juicios de valor. Si las ciencias histórico-sociales no pueden admitir en su interior presupuestos de valor. Windelband. de la interrelación individual. el quiere salvar la objetividad de la ciencia social tanto en los términos de su "neutralidad valorativa". es decir. en primer lugar. Nosotros explicamos la naturaleza mientras que entendemos la vida síquica. es decir. captar las dimensiones del propósito y la intención de la acción humana. Esta última "no es un principio de valoración. según Weber. Las ciencias sociales. Se trata de comprensión racional de las motivaciones de la acción. el conocimiento se producirá solamente a través de un proceso muy distinto. que tendrían en común "la misma fe en la historia como progreso necesario a través de fases igualmente necesarias" a partir de una visión de la historia entendida como "construcción del hombre. aun reconociendo la realidad del condicionamiento. introduce la separación entre ciencias nomotéticas. el de la comprensión. orientadas a captar la individualidad de los fenómenos. entre el cumplimiento del deber científico de ver la realidad de los hechos y el cumplimiento del deber práctico de defender los propios ideales. Dilthey realiza en su Introducción a las ciencias del espíritu una celebre distinción entre ciencias de la naturaleza y ciencias del espíritu. aun así no se puede impedir que éstos intervengan en la elección de los problemas que hay que estudiar. Mientras que el objeto de las ciencias naturales lo constituye una realidad externa al hombre.2 Max Weber: Objetividad y orientación hacia la individualidad. Weber insistió en la necesidad de que las ciencias histórico-sociales estén libres de cualquier juicio de valor. No de intuición. basando su diferencia justamente en la relación que se instaura entre investigador y realidad estudiada. También el componente 6 . aún así no se puede impedir en su interior presupuestos de valor. y que devuelve por tanto al hombre su libertad. los valores siguen estando presentes. para las ciencias del espiritu.

Todo comportamiento tiene una racionalidad íntima propia. procede a coordinarlos dentro de un marco coherente. una abstracción que nace del reconocimiento empírico de uniformidad. pues. sino una cuestión de conexiones causales concretas. 7 . pero sí es alcanzable el de esbozar las condiciones que los hacen posible. un sentido interior. por tanto. La realidad es. en una perspectiva "micro". Esas formas se reconstruyen a través de un proceso de abstracción que. la diferencia fundamental. que han determinado un acontecimiento individual cualquiera. Los tres tipos ideales de poder identificados por Weber. es decir. la oposición a cualquier filosofía de la historia. Para Weber el número y el tipo de las causas. presente en el Verstehen. Desarrollos posteriores Todas las posteriores perspectivas tienen en común las características fundamentales del planteamiento weberiano: el fuerte convencimiento antideterminista. sino de conexiones causales o mejor dicho utilizando una expresión tomada de Boudon. tradicional y racional-legal ha existido nunca en su forma pura. Estos han sido construidos de modo ideal heurístico. aislando algunos elementos dentro de la multiplicidad del dato empírico. el Estado. ontológica entre las ciencias naturales y las ciencias sociales es la irreductibilidad de las segundas a los métodos de investigación de las primeras. a cualquier forma de evolucionismo. El movimiento en EEUU en los años 60 desarrolla la perspectiva weberiana en su dirección natural. ficciones exentas de vida. El tipo ideal es. Son cáscaras vacías. y la cuestión causal.de identificación con el otro. debemos observar dicha interacción para entender la sociedad.3. de enunciados de posibilidad. De este modo. mucho más compleja. de leyes. la posibilidad de una selección de entre la infinidad de los elementos determinantes. en cambio. no es una cuestión de leyes. no deben ser confundidos con la realidad. son ideales en el sentido de que son constucciones mentales del hombre. 1. el poder carismático. ¿cómo es posible llegar a un conocimiento objetivo con caracteres de generalidad? Para Weber los tipos ideales son formas de actuación social que pueden encontrarse de modo recurrente en la manera en que los individuos se comportan. en una perspectiva de historia comparada. es de hecho siempre infinito. el poder. y su interacción es la que crea las estructuras. Los tipos ideales. desarrollan una función heurística en el sentido de que dirigen su conocimiento. En definitiva. cuando se trata de la individualidad de un fenómeno.. tiene como fin la interpretación racional: identificarse con el otro "para comprender". contradictoria y desordenada. ¿Cómo puede nacer la objetividad desde esta orientación individualista? Si el punto de partida está representado por el individuo y por el sentido subjetivo de su acción. Si la sociedad está edificada a partir de las interpretaciones de los individuos.5. resulta inalcazable el objetivo de establecer los factores determinantes de un acontecimiento social o un comportamiento individual determinados. la religión. No hablemos. escribe Weber. son modelos teóricos que ayudan al investigador a interpretarla. interesado en comprender fenómenos macroestructurales como la economía. la burocracia. También la crítica respecto a cualquier intento de explicar la acción humana a partir del sistema social y de los factores de condicionamiento presentes en él proviene de las aportaciones de Weber. Las uniformidades que el investigador persigue y encuentra en su interpretación de la realidad social no son las leyes. Weber se movió en un plano macrosociológico.

ars inveniendi. asimilando la realidad social y la acción humana a algo objetivamente estudiable. por tanto. En la tensión entre teoría y comprobación empírica. se reducen los límites de la exploración teórica. entonces tendrá que ser estudiada con métodos diferentes de los positivistas. La radicalización de esta tendencia ha llevado a una especie empiricismo antiespeculativo.El programa "subjetivista" es ante todo una reacción frente al palnteamiento "objetivista" positivista. conviertiéndose aquí en el objeto primario de la investigación. El subjetivista no puede. dominado por el mito del método y el dato. no descuida las grandes problemáticas sistémicas ni la dimensión institucional de la sociedad. el aspecto humano. y nuevas tendencias. que darán lugar al cuerpo de la denominada "investigación cualitativa" 1. acentuando los problemas de comprobación o de confirmación de la hipótesis en la actividad científica. es decir ars probandi. en el que el objetivo del científico social ya no es formular teorías y después comprobarlas empíricamente. perspectivas radicales. en el carácter subjetivista del planteamiento original weberiano. especialmente en el periodo del neopositivismo. Si la vida humana es en su esencia distinta de la del mundo natural. que. En Weber está todavía muy presente la tensión por la superación de la subjetividad: él no excluye la posibilidad de llegar a formas de generalización cognoscitiva. es decir. Por lo que se refiere al paradigma positivista. En segundo lugar. por el contrario. adoptar "el lenguaje de las variables". Las nuevas corrientes a partir de los años 60 neocomprensivas pusieron el acento.6 Críticas. Se trata de un proceso de reducción progresiva (reduccionismo) que ha atravesado varias fases. En primer lugar. en detrimento de la profundización del contexto de los descubrimientos. En definitiva este proceso de reducción se concluyó desplazando la atención del método al dato. aun partiendo de la atención sobre el individuo. procedimientos y técnicas propias de observación y de análisis de la realidad empírica. por tanto. El enfoque subjetivista elaborará. La realidad es una pura construcción subjetiva. y una parte relevante de sus exposiciones metodológicas está dirigida al intento de conciliar causalidad y comprensión. desplazaron la atención sobre el mundo de la vida cotidiana y la interacción intersubjetiva. hemos visto que se prestaba una gran atención y cuidado a la formulación y el desarrollo de técnicas y procedimientos empíricos. La primera consideración crítica sostiene que el subjetivismo extremo excluye la posibilidad misma de la existencia de la ciencia y en particular de la ciencia social. todo ello niega la posibilidad de ir más allá 8 . de los problemas de la operacionalización de los conceptos a laos problemas prácticos de la obtención de análisis de datos privados de bagaje teórico y metodológico. Asímismo. privilegiar la segunda ha significado excluir del ámbito de las consideraciones teóricas aquellos interrogantes que no fueran inmediata y simplemente traducibles a procedimientos empíricamente comprobables. Las diferencias de fondo implican también una diferencia de técnicas y de procedimientos de investigación. por último. se desplaza la atención del contenido al método. Dos criticas de fondo. sino recoger y describir los datos con la ingenua ilusión de que los datos hablen por sí mismos. silenciaba precisamente la dimensión individual.

a favor de planteamientos y lenguajes teóricos múltiples en una exaltación de la fragmentación y de la no unidad de la explicación científica. consideración del "poder" como categoría explicativa que está en el origen de todas las relaciones y la estructuras sociales. sin embargo. En segundo lugar. de lo distinto. de las minorías. Éste sucedia a una década tumultuosa en la historia de las sociedades occidentales. El último cuarto del siglo XX ha representado un periodo de reto en la historia de la investigación. de la linealidad. entendido como heredero directo del Iluminismo: ejercicio crítico de la razón sobre el hombre. aún teniendo también origen en la interacción individual. de la contradicción. de negación y represión de las diferencias entre las sociedades con el fin de perpetuar las aspiraciones hegemónicas del mundo y la cultura occidental. También la no separación entre el estudioso y lo estudiado contribuye a esta negación. comenzó a desarrollarse y a crecer también la denominada microsociología. de la lucha contra la pobreza y las desigualdades. en la simplicidad de la explicación científica y en el carácter acumulativo del saber. Aparte de estas macroperspectivas. que. El postmodernismo. c) exaltación del as diferencias. de las protestas estudiantiles. han cobrado autonomía respecto a laos individuos y a sus elecciones. neoweberianos. que había dominado hasta ese momento la elaboración teórica y la investigación social. 9 . de las revueltas urbanas con fondo racial. de la multiplicidad de verdades locales y contextuales. en una crítica que podemos sintetizar brevemente en cuatro puntos: a) rechazo de teorías generales. las dinámicas interpersonales. identificación con los oprimidos. El postmodernismo sería un "ir más allá" de los logros del modernismo. de la simplicidad del conocimiento científico. b) rechazo de la racionalidad. Corre el peligro de dejar fuera de su ámbito problemático los aspectos de la sociedad que. universales. basada en el orden y la racionalidad. confianza en la ciencia. compartían el hecho de poner en el centro de interés y de la investigación sociológica los pequeños hechos de la vida cotidiana. y d)exaltación de lo "Otro". que encabezaba diversas escuelas de pensamiento y diversas visiones teóricas. El modernismo. de imperialismo cultural. sobre la naturaleza y sobre la sociedad. Se consolidaron nuevas perspectivas teóricas. a favor de la paradoja.del individuo y niega la objetividad del conocimiento. las microinteracciones entre los individuos. de la opacidad. del desarrollo y la difusión del movimiento feminista. Se les acusa de microsociologismo. se acusa al enfoque interpretativo de excluir de sus intereses lo que debería ser objeto de la reflexión sociológica por excelencia: las instituciones. de los movimientos por los derechos civiles. celebración de las diversidades. la década de los sesenta. rechazo del carácter acumulativo de la ciencia. acusadas de totalitarismo homogeneizante. con el nacimiento de enfoques neomarxistas. podemos definir de manera muy simple este movimiento a partir de lo que rechazaba. de la visión de múltiples facetas alternativas e irreconciliables. y el desarrollo de la teoría crítica y de nuevas perspectivas radicales que se colocaron en abierta polémica con la complaciente alianza entre neopositivismo y funcionalismo.

es posible insertar amplias porciones de técnicas cualitativas. exige una identificación y una implicación mayor. en la que los pasos cruciales. 30 ambos criterios proporcionaron productos de alto valor y contribuyeron al avance de la disciplina. de unas 60 cajas que contenían el material original de una imponente investigación longitudinal. Iniciaremos este capítulo describiendo dos investigaciones. ha llevado a la elaboración de nuevas técnicas de recogida y análisis del material empírico. dos investigaciones realizadas sobre la misma temática . examinaremos analíticamente las diferencias entre ambos enfoques. investigaciones. descuidando tanto la infancia. Años 20. En esta comparación entre perspectiva cuantitativa y cualitativa haré referencia de forma sustancial a dos "tipos ideales" de investigación. así como un radio de acción necesariamente más limitado respecto al planteamiento cuantitativo. sobre todo dentro del criterio cuantitativo. lo que éstos han generado sobre el terreno de la metodología. de Sampson y Laub Debate entre investigación cuantitativa y cualitativa ha sufrido diferente etapas. subrayando.CAPITULO 2 INVESTIGACIÓN CUALITATIVA CUANTITATIVA E INVESTIGACIÓN 2. que ha avivado el debate metodológico. a partir de los ochenta la investigación cualitativa experimentó un agitado desarrollo. La primera investigación que analizamos es fácilmente atribuible a la inspiración y a la instrumentación técnica de la corriente neopositivista. ante este inesperado hallazgo. el planteamiento rígidamente interpretativo. recogida a lo largo de 24 años (1939-63) Sampson y Laub. En los años 40. manuales… Ahora ilustraremos los paradigmas fundadores. las diferencias entre los dos puntos de vista.y con numerosos interrogantes en común.1. Crime in the Making.1 Paradigma Neopositivista: Crime in the making. como el inicio de la edad laboral y el 10 . 2. Hipótesis Los delitos cometidos principalmente por adolescentes.1. en el origen de esta investigación se encuentra una curiosa coincidencia: el hallazo. al nacimiento de nuevas revistas científicas expresamente dedicadas al enfoque cualitativo. en los sótanos de la biblioteca de la Law School de la Universidad de Harvard.60 domino sobre todo la perspectiva cuantitativa.50. Existen múltiples posiciones intermedias y que. A continuación. Por otra parte. reflexiones. en la que según algunos hay que buscar el origen del comportamiento antisocial. los estudios de sociología criminal se han concentrado sobre todo en esta edad. propuestas. también por exigencias didácticas. en el que el investigador trata de "ver el mundo con los ojos del sujeto estudiado". una realizada bajo la inspiración del paradigma neopositivista y la otra con la insignia del paradigma interpretativo: hemos elegido. como la edad adulta. En los sesenta el problema se replanteó a partir de una serie de importantes contribuciones teóricas. deciden reanalizar los datos para responder a los nuevos interrogantes que entretanto había planteado el desarrollo de la teoría y de la investigación a los estudiosos de la desviación de los menores.la delincuencia juvenil . para destacar mejor las diferencias entre los dos enfoques.

para pasar a estudios diacrónicos ( o "longitudinales" ) a través de los cuales se sigue a un grupo de individuos durante un periodo determinado. policías y jueces. los segundos en escuelas públicas de la misma zona. 2. La parte expositiva de los resultados de la investigación cubre cinco capítulos del libro. las variables dependientes de la investigación. con el fin de registrar los eventuales delitos cometidos.1. del grupo de los compañeros y de hermanos/as. se reunieron las informaciones procedentes de las distintas fuentes y se construyeron tanto índices de desviación para cada comportamiento. origen étnico. sobre la base de un plano de correspondencia particularmente cuidadoso: para cada uno de los 500 autores de delito fue elegido un joven "normal" con las mismas características de edad. y se consultaron los autos oficiales del sistema judicial. en último término. varones. como un índice de desviación global ( con puntuación entre 1 y 26). La desviación oficial. destacan: a) marco teórico b) observaciones empíricas c) resultados de los análisis d) vuelta a la teoría. Los primeros fueron localizados en dos correccionales. Datos recogidos sobre 500 autores de delitos jóvenes. pueden introducir cambios radicales en la actitud social del individuo. hurto. juegos de azar. beber. infancia antisocial…) como los mecanismos informales de control social operativos en ese momento del ciclo de vida. entre 10 y 17 años y sobre 500 jóvenes "normales". estaba representada por la variable dicotómica colocada en la base del plan de muestreo de los 500 + 500 sujetos. en parte a causa de la utilización de datos limitados a los adolescentes y a un momento determinado" para integrar la criminología en una perspectiva de "trayectoria vital". …) referidos por los sujetos mismos.2 Diseño de la investigación La investigación de Sampson y Laub es un análisis secundario de los datos recogidos treinta años antes. También se recogió información entre los vecinos. Este indice representaba la desviación no oficial. relaciones sociales adultas y cambio en el comportamiento criminal. Sampson y Laub. esbozan las líneas fundamentales de una posible "teoría del control social informal articulada por edades" en la que para cada edad se discuten tanto las variables de fondo tradicionalmente consideradas las causas del comportamiento desviado (pobreza. continuidad en el tiempo del comportamiento. papel de la escuela. modelos comparados de crimen y desviación. Se les hizo un seguimiento sistemático entre 1939-48 con entrevistas a ellos mismos. Todo ello en una visión global que se propone superar "el reducido marco de las perspectivas sociológicas y sicológicas hasta ahora dominantes en la criminología. Este punto de vista implica la necesidad de superar la formulación sincrónica o "transversal" (cross sectional) característica de estudios realizados sobre un grupo de individuos "fotografiados" en un momento determinado. Los capitulos se desarrollan todos del mismo modo lineal. Se registraron todos los comportamientos no sólo ilegales ( robo. por sus padres y por los profesores.matrimonio. daños.…) sino también de simple "mala conducta" (fumar. Estos dos indicadores de desviación son.3 Observación empírica y resultados del análisis Indice del "comportamiento desviado no oficial". hacer novillos. 11 . escaparse de casa. obteniendo información y datos sobre ellos en momentos sucesivos de su curso de vida. familia desestructurada. trabajadores sociales. sobre los argumentos: contexto familiar y delincuencia juvenil.1. barrio y cociente intelectual. blancos. a sus familias y a sus profesores. 2.

asumidas todas juntas como independientes. pobre. como ya se ha precisado. según los casos. "desviación del padre". Descripción de las variables por parte de los autores. "desviación de la madre"… Identifican cinco "variables procesales familiares". La variable dependiente de todo el modelo está representada por el comportamiento desviado. dada por el número de niños. el efecto de las variables estructurales básicas casi desaparece. "dimensión de la familia". con tres categorías: cómodo. al empleo o no de castigos físicos. escuela. sino mediatizado por las variables "intervinientes" representadas por el vínculo-control familiar. entre variables básicas y desviación (la situación familiar precaria. las procesales familiares y las dos dependientes (comportamiento desviado). criminalidad de los padres…) . Por ejemplo. Estos resultados vienen a apoyar su "teoría integrada de los controles sociales informales". favorece el comportamiento desviado). trabajo…) a las que Sampson y Laub otorgan un papel fundamental en el proceso que lleva a la desviación. Sobre esta base. las variables estructurales básicas influirían sobre el comportamiento desviado no de modo directo. clasificada en tres categorías. Los autores emplean el instrumento estadístico de la regresión múltiple. "estatus socioeconómico". la relativa al control familiar. con valor 1 cuando el niño ha crecido sólo con uno de los padres.). En resumen. De esta manera. los autores extraen de sus datos la conclusión de que "los procesos familiares de control informal tienen un importante efecto inhibidor sobre la delincuencia de los adolescentes. un 73% está mediatizado por las variables procesales familiares. se tratará de desviación "oficial" o de desviación "no oficial". "nacimiento en el extranjero". hostilidad por parte de los padres. entre variables procesales y desviación (el debilitamiento de los lazos familiares la favorece). todas las relaciones empíricas encontradas entre las variables son resultados esperados de acuerdo con la teoría. disgregación familiar. las variables de proceso o procesales hacen referencia a las relaciones informales (familia. sino que su acción está mediada por las variables procesales. cesa la influencia de la disgregación familiar sobre la potencial desviación de los hijos. Vuelta a la teoría. y comportamiento desviado como dependiente). y este hecho. a la presencia/ausencia de supervisión materna y a situaciones de rechazo. 12 . Pero a igual control y cuidado por parte de los padres hacia los hijos. a su vez. Las variables básicas o estructurales son las variables clásicas (pobreza. por lo que concierne a la primera fase. Ordenan las variables en tres bloques: las instrumentales básicas. dependiente. Resultados del análisis. distinguen nueve variables estructurales básicas: "hacinamiento habitacional". ligadas a la relación afectiva con los padres. "trabajo de la madre". Cuando se analiza el modelo completo (variables estructurales básicas y variables procesales familiares.Los autores distinguen en cada capítulo entre variables básicas o estructurales y variables de proceso o procesales. marginal. ¿Qué significa eso? Significa que las variables estructurales no tienen un efecto directo sobre el comportamiento desviado. los dos autores plantean un modelo teórico construido en dos fases. y encuentran siempre fuertes correlaciones: entre las variables básicas y las variables procesales (correlación interpretable en el sentido de que las condiciones estructurales de la familia influyen en los lazos afectivos y la relación pedagógica). Ponen en relación los tres bloques de dos en dos. etc. abandono. facilita el surgimiento de comportamientos desviados. una situación de disgregación familiar favorece episodios de abandono por parte de los padres (ausencia de control. etc. "movilidad residencial". Los autores calculan que del total del efecto de las variables estructurales sobre la delincuencia.

al cual añadia resúmenes y reflexiones diarias y semanales. Él. Al reconocer la importancia tanto de las "variables estructurales" como de las "procesales". 2. hasta el punto de llegar a ser herido en enfrentamientos con bandas rivales y de ser repetidamente detenido por la policia. sin embargo.1.2. Así llegan a lo que llaman "modelo teórico dinámico del crimen. 13 . Infancia 0-10. en cambio. y para cada fase destacan el papel del os factores que favorecen el surgimiento (o el mantenimiento) del comportamiento desviado y de los que. 2.En los capitulos sucesivos. del trabajo. nunca hemos comprendido completamente las bandas. ya en edad más adulta.York. aclaran que las segundas son las que en último término explican la mayor parte de la variación tanto en la desviación en la adolescencia como en el proceso de salida del túnel de la delincuencia. aplican un esquema de análisis relativamente parecido al papel de la escuela. edad adulta joven. de los hermanos. del grupo de compañeros. Por ello decide estudiar bandas de diferentes ciudades ( Los Ángeles. N. en la adolescencia y en la edad adulta? Nosotros. Dividen el curso de los primeros 45 años de edad en 5 fases. Tras la aceptación por parte de una nueva banda. decide desde el principio que su estudio debe ser comparado para entender lo que las bandas tienen en común y lo que en cambio es específico de cada una de ellas. dedicó al estudio 10 años. se llevó a cabo mediante registro de apuntes. compartiendo su cotidianidad. Boston) de diversas connotaciones étnicas y de dimensiones distintas. en las ciencias sociales así como en las políticas públicas. y en conclusión reformulan de manera detallada el modelo propuesto resumidamente al principio. Estudió 37 bandas. en los últimos tres años de la investigación transcurrió de tres a seis días con cada una de ellas. durante los cuales participó plenamente en la vida de las bandas. 25-32. introduciéndose en sus actividades. respecto a la mayoría del as investigaciones realizadas con observación participante. hemos fracasado en comprender adecuadamente a los individuos que están en las bandas. 17-25. sucesivamente de cinco a diez dias. son el "explicar" asumido como objetivo en el primer caso y la insistencia en el "comprender" en el segundo. adolescencia 10-17. La recogida de datos. La simple diferencia léxica entre ambos fragmentos. que consisten en el estudio de un grupo específico. pasaba con ella un mes entero. Diseño de la investigación y recogida de datos La investigación de Jankowski es un ejemplo de "observación participante". expresa elocuentemente la diferencia de planteamiento metodológico existente entre las dos investigaciones. de una organización determinada. transición a la edad adulta joven. Para empezar. del matrimonio. el hecho de que las bandas no hayan sido comprendidas como organizaciones ha impedido nuestra comprensión de su comportamiento. desviación y control social informal a lo largo del ciclo vital".2 Paradigma interpretativo: Islands in the street. transición a la edad mediana 32-45. tienden a inhibirlo. de Jankowski ¿conseguiremos desarrollar y someter a control empírico un modelo teórico capaz de explicar el crimen y la desviación en la infancia.

porque en la banda encuentran un sustituto de la familia. la relación de la banda con la comunidad en la que está incluida: la fuerte cohesión interna no es suficiente para garantizar su supervivencia: ésta solo puede estar asegurada por la integración de la banda en la comunidad local. la banda como organización. la banda ofrece ese orden social y esa seguridad de los cuales sienten necesidad los jóvenes sin medios de los barrios". Las demandas que hace este individuo a la sociedad encuentran en la banda un posible instrumento de realización. de estatus y de poder.2 Hipótesis No encontramos la reflexión teórica sistemática que lleva a la elaboración de hipótesis que son controladas empíricamente. o bien por imitación. La reflexión de Jankowski se desarrolla en tres líneas: el individuo y su relación con la banda.no he encontrado confirmaciones empíricas para estas proposiciones.dice Jankowski . que puede obtener ventajas en términos económicos. Se limita a presentar su investigación y expone las conclusiones a las que su experiencia le ha llevado.2.2. en términos de protección de la policia y de los "piratas rivales". La capacidad de establecer estos vínculos será uno de los principales determinantes de la supervivencia a largo plazo de la banda. que se deriva de las características mismas del enfoque interpretativo que procede de modo esencialmente inductivo. de control y de valores compartidos. aislamiento social y necesidad de contar sólo con uno mismo.3 Interpretación del material empírico ¿quién entra en una banda y por qué? Jankowski rechaza las respuestas tópicas por proceder de familias desestructuradas. expulsados con un sistema escolar demasiado poco formado académicamente. Persigue sus objetivos sin importarle si son legales o no. Yo. El tercer aspecto. los individuos que viven en los barrios de renta baja entran en 14 . de la desconfianza hacia los demás. La banda debe ser aceptada por los residentes como parte integrante del barrio. "La teoría ha interpretado hasta ahora a las bandas en términos de desorganización social: en una situación carente de orden. sino que más bien interpreta la adhesión a ellas como una elección racional. El autor elabora el concepto de carácter (término preferido al de personalidad). para el acaparamiento de los escasos recursos. que a menudo llega a la agresión física y que está presente en todas las expresiones del comportamiento. Éste tendría la connotación de un intenso sentido de la competición. la banda y la comunidad. evitando un fuerte condicionamiento teórico inicial: la teoría tendrá que ser descubierta en el curso de la investigación. La finalidad es la de proporcionar servicios sociales y económicos a sus miembros. pues. obtendrá su apoyo. individualista y rebelde. A cambio.2. está exenta de burocracia. La banda decidirá aceptar su ingreso si éste satisface las necesidades de la organización. de lo que se derivaría individualismo. 2. un orden social alternativo al tradicional y la banda surge como respuesta organizativa para aumentar la competividad de sus miembros. y la de su propia supervivencia como organización. El individuo pide entrar en la banda porque piensa que le conviene. Él no ve en las bandas una desviación patológica de las normas sociales. al cual debe proporcionar unos servicios. La banda es un sistema social cuasiprivado y cuasisecreto gobernado por una estructura de liderazgo que tiene roles definidos. Las áreas de renta baja de los suburbios metropolitanos americanos "están en realidad organizadas en torno a una intensa competición que llega hasta el conflicto. Se desarrolla. la vida es una lucha en la que sobreviven sólo los más fuertes y de la cual se deriva un fuerte instinto de supervivencia.

es la que sugiere la hipótesis de las que partir. En la investigación cualitativa que deriva del paradigma interpretativo. 15 . Elaboración teórica e investigación empírica proceden. un cierre prematuro del horizonte. su formulación en forma de "modelo" empíricamente controlable. es decir. Sampson destaca por su geometría: exposición de la teoría. a favor de una lista articulada de motivaciones de tipo racional.1 Planteamiento de la investigación Las dos investigaciones se diferencian desde la estructuración de las diversas fases que llevan desde el planteamiento del interrogante inicial hasta el último capítulo. Las 6 motivaciones que ha encontrado: Incentivos materiales.1 la relación establecida entre teoría e investigación. Una geometría circular que de la teoría sale y a ella vuelve. Nunca hay una separación entre teoría y resultados empíricos. conclusiones teóricas. no propone teoría e hipótesis empíricamente controlables. por tanto. la planificación de la investigación. La forma de proceder de Jankowski es totalmente distinta. Su estrategia operativa es claramente distinta a la de Sampson y Laub:no partió con hipótesis las fue construyendo sobre la marcha. logra hacernos entender cómo llegó a esa conclusión a partir de las entrevistas realizadas y no sobre la base de un prejuicio teórico. en los dos enfoques es muy distinta. que en cada capítulo se reemplantea: marco teórico.3. a partir de la experiencia vivida. según un planteamiento deductivo (la teoría precede a la observación) que se mueve en el contexto de la "justificación". en una clara aplicación del paradigma interpretativo. de esa pérdida de peso de la teoría acumulada en la comunidad científica se deriva una importancia menor de la reflexión sobre la literatura. la relación está estructurada en fases lógicamente secuenciales. la vuelta a la teoría. resultado del análisis. En este cuadro toma una importancia esencial el análisis sistemático de la literatura: ésta. de la corroboración empírica de la teoría formulada previamente. queremos comparar analíticamente las respuestas que las técnicas cuantitativas y cualitativas han dado a los problemas más relevantes de la investigación social. Parece apropiado hablar de "teoría que surge de los datos". entrelazadas. 2. 2. Es la expresión de un orden conceptual que ha guiado la forma de proceder de los dos estudiosos y que nace de una visión de la investigación entendida como proceso racional y lineal. Tabla 2. de hecho. El investigador cualitativo a menudo rechaza intencionadamente la formulación de teorías antes de empezar el trabajo sobre el terreno. No hay introducción. En el caso de la investigación cuantitativa inspirada por el paradigma neopositivista.3 Investigación cuantitativa e investigación cualitativa: Una comparación Empleando como ejemplo las dos investigaciones apenas presentadas. la obtención de datos. Su capítulo teórico inicial es ya una mezcla de teorías y conclusiones. observaciones empíricas. interactiva. la relación entre teoría e investigación es abierta.la banda por varias razones. pero todas basadas en el cálculo de lo que se mejor para ellos en ese momento determinado. al ver en ello un condicionamiento que podría inhibir su capacidad de "comprender" el punto de vista del sujeto estudiado. El resultado es radicalmente distinto al de la investigación precedente: el objetivo ya no está representado por "modelos causales" en los que las variables están conectadas entre sí por relaciones de causa-efecto. Diversión. cuando rechaza las explicaciones sicosociales tradicionales respecto a la decisión de entrar en una banda. el análisis de los datos. Refugio y escondite. sino más bien por clasificaciones y tipologías.

la clarificación de los conceptos y su operacionalización en variables tienen lugar incluso antes de iniciar la investigación. Las dos formas de hacer investigación encuentran dos ilustraciones típicas y opuestas en las técnicas del experimento y de la observación participante. es muy probable que se comporten de forma no natural. para contar. La segunda articulación de la relación entre estudioso y realidad estudiada se refiere a la relación del investigador con cada individuo estudiado. en cambio. Se trata de técnicas de investigación cuyas diferencias son muy extremas. Y simétricamente. mediante su "operacionalización". considera que el enfoque naturalista (intervecnción sobre la realidad en la que el investigador se abstiene de cualquier manipulación) es un requisito básico para realizar su investigación empírica. esto permite registrar empíricamente el concepto pero también conlleva la desventaja de una fuerte reducción y empobrecimiento del mismo. él estudia lo que . Un investigador cualitativo no se habría movido nunca de esta manera. habría utilizado lo de "disgregación familiar" como un concepto "orientador" que predispone a la percepción. El investigador cuantitativo se coloca en un punto de observación externo al sujeto estudiado. Como hemos señalado previamente. Tomemos el concepto de "disgregación familiar" en la investigación de Sampson y Laub. en el sentido de que la presencia de un observador extraño no dejará a los sujetos totalmente indiferentes. o al menos considera admisible un cierto margen de "manipulación controlada". en cambio. en la familia uno o los dos padres están ausentes. El primero concierne a la interacción psicológica estudioso-estudiado. sintetizable en el primer caso como "comprobación empírica de la hipótesis" y en el segundo como "descubrimiento del punto de vista del actor social". por lo menos en forma de estímulo para hablar. su transformación en variables empíricas observables. uno de carácter psicológico-cultural y otro que podríamos definir de carácter físico-espacial. la investigación cuantitativa no siempre es tan manipuladora como en el caso del experimento. Otra diferencia entre inv. Uno de los problemas que debe afrontar el investigador social es el de la reactividad del objeto de estudio. con la intención de ver la realidad social "con 16 . por otro lado. cuantitativa i cualitativa es la relación general con el ambiente estudiado. en el curso de la investigación mism. lo más dentro posible del sujeto de análisis. como investigador. En el enfoque positivista. Más en general. para comunicar. El planteamiento neopositivista no está preocupado por este problema ya que considera que el problema de la reactividad del objeto no representa un obstáculo básico. Los autores operan con él del siguiente modo: valor 1 (disgregación) cdo. es decir. La investigación cualitativa.Hay también un uso diferente de los conceptos. y presenta muchas graduaciones en su interior. valor 0 en el resto de los casos. De esta doble perspectiva se derivan dos hechos. Entre ellas existen múltiples matices. todos los instrumentos del análisis cualitativo distintos de la observación implican siempre una intervención sobre la realidad. y que hay que agotar no sólo en términos operativos sino también en términos teóricos. le parece importante. Estudiar a los individuos no es como estudiar a las hormigas o los átomos: si las personas saben que son observadas. Ya sólo el hecho de investigar el comportamiento humano puede implicar alteraciones del comportamiento mismo. una diferencia básica entre paradigma neopositivista y paradigma interpretativo se encuentra en la definición del objeto de la investigación. La observación participante misma rara vez es perfectamente "naturalista". propia del observador "científico" neutral y distanciado. El investigador cualitativo se sitúa. Los conceptos que son elementos constitutivos de la teoría y al mismo tiempo son los que permiten que la teoría sea sometida a control empírico.

Por todo ello. El caso de la observación participante sirve una vez más de ejemplo del punto de vista de la investigación interpretativa. La investigación cuantitativa no suele prever contacto físico alguno entre estudioso y estudiado. Esto pone de manifiesto el problema de la objetividad en la investigación cualitativa.2. En el planteamiento cuantitativo. La primera se refiere a la representatividad de los sujetos estudiados. Pero es igualmente cierto que el problema se le plantea mucho más marcadamente al investigador cualitativo. Nunca se mantiene neutral o indiferente. se refiere a la interacción física entre estudioso y estudiado. En la vertiente cualitativa. 2.los ojos de los sujetos estudiados". De este planteamiento cerrado o abierto. En la investigación cuantitativa el investigador está preocupado por la posibilidad de generalizar los resultados. al menos en el campo de las ciencias sociales. El segundo hecho. Podríamos decir que el 17 . La concepción de la investigación como "observación" y "estudio" implica una consideración de los individuos estudiados como objetos. el individuo estudiado es considerado pasivo. por tanto. Pero la exigencia de proximidad fisico-espacial con el objeto estudiado está presente en todas las técnicas cualitativas. Nadie mantiene la posibilidad de un ideal absoluto de ciencia objetiva y libre de valores. análisis secundario.3. En el caso de la investigación de Sampson y Laub. Tenía además la libertad de entrevistar a quien quisiera. de su experiencia. en la que el encuentro entre estudioso y estudiado es una condición previa para la comprensión. al contrario. éstos se mantenían para siempre y de forma rígida como los sujetos a estudiar. es un problema que también existe en la investigación cuantitativa ya que el investigador ve el mundo filtrado por las lentes de su punto de vista. y el uso de la muestra estadísticamente representativa es la señal más evidente de esta preocupación. sino que tiende a desarrollar una relación de identificación empática con los sujetos. que en la interacción empática con el sujeto estudiado se expone al riesgo de una implicación emotiva y. y en el otro por la proximidad y el contacto. de alargar o acortar la observación según la conveniencia… Normalmente. modelado en el curso del proceso. la concepción de la investigación como "interacción" implica naturalmente un papel activo del sujeto estudiado. En cambio. caracterizada en uno de los casos por la distancia y separación. mientras que la investigación cualitativa es más flexible. en la investigación cualitativa está desestructurado. de su cultura y valores. se hace todo lo posible para reducir al mínimo su interacción con el investigador. de interpretaciones fuertemente unilaterales. Recogida de datos La diferencia entre los dos enfoques se basa en el grado en que los procedimientos están estructurados. en cambio. resulta evidente la diferencia radical entre ambos enfoques respecto al papel del objeto estudiado. y está rígidamente estructurado y cerrado. En el caso cuantitativo el diseño de la investigación se construye teóricamente antes del inicio de la recogida de datos. no necesita conocer físicamente a ninguno de los sujetos estudiados. experimento de laboratorio. se derivan otras dos características que distinguen a ambos enfoques. Suele ser por cuestionario. idóneo para captar lo imprevisto. e incluso cuando no puede considerársele así. En la investigación de Jankowski. Sucede todo lo contrario en el caso de la investigación cualitativa. el investigador era libre de elegir las bandas más adecuadas para su objetivo. una vez definidos algunos criterios de fondo a observar. abierto. una vez construida la muestra de los 500 autores de delito y de los 500 no autores de delito. la investigación cuantitativa tiene un diseño rígido.

no habían sido preseleccionados al inicio de la investigación. En la investigación de orientación cuantitativa éstos son fiables. los distintos grados de articulación y profundización. El fuerte impacto de la instrumentación matemática y estadística empleada en el caso 18 . sin embargo. Naturaleza de los datos. que en un caso es descubrir las uniformidades del mundo humano y en el otro es comprender las manifestaciones en su individualidad. Tomemos por ejemplo la investigación sobre "comunistas y católicos" llevada a cabo en un barrio de Bolonia a finales de los años setenta por un antropólogo americano. Los sujetos a entrevistar.3. Este planteamiento distinto se atribuye a la diferencia del objetivo cognoscitivo. con distinto nivel de profundización según la conveniencia. que antepone la comprensión. pidiendo a los entrevistados que le atribuyan una calificación del 1 al 10. es decir blandos. no se plantea el problema de la objetividad y de la estandarización de los datos. La investigación cualitativa no persigue este objetivo de estandarización. Al investigador cualitativo no le interesa en absoluto la representatividad estadística. y se preocupa en cambio de su riqueza y profundidad… atributos soft. precisos… atributos hard. objetivos y estandarizados. La investigación cualitativa. En la investigación cuantitativa todos los sujetos reciben el mismo tratamiento. busca llegar siempre a datos hard: por ejemplo en el caso de la actitud hacia un representante político. algunos activistas comunistas se mostraron desconfiados. El segundo elemento diferenciador entre investigación cuantitativa e investigación cualitativa es el constituido por la uniformidad o no del instrumento de investigación. los puntos de vista. más que por su capacidad de comprender. que se decide sobre la base no ya de fórmulas matemáticas. que irán de un sobrio "no me gusta" a juicios ricos de color y matices personales. la falta de homogeneidad de las informaciones es su principal elemento constitutivo. mientras que al contrario.3 Análisis de los datos El análisis de los datos representa quizás la fase de una investigación social en la que resulta más visible la diferencia entre el enfoque cuantitativo y el cualitativo. una matriz de números ordenados en filas y columnas donde se han codificado las mismas informaciones para todos los casos. dado que el investigador asume informaciones distintas según el caso. igual que algunos sacerdotes. Lo contrario puede decirse del investigador cualitativo. sino del juicio del investigador mismo. 2. respetando las formulaciones y las ópticas de cada uno. relativos…así la popularidad de un hombre político se obtendrá siguiendo las perspectivas. El instrumento de investigación es uniforme para todos los casos o en cualquier caso uniformador. subjetivos. la cultura de los entrevistados. Se utilizaron tanto entrevistas en profundidad "no estructuradas" como entrevistas estructuradas (mismas preguntas a todos los sujetos). aunque sea a costa de perderse el seguimiento de situaciones atípicas y de mecanismos no generalizables. sociológica. La investigación cuantitativa. Al contrario. flexibles. A lo largo de la investigación se dio cuenta de que su objetivo era inalcanzable. Esta uniformidad se produce porque el objetivo final de la recogida de informaciones es la "matriz de los datos". se revelaron como informadores preciosos individuos que no habían sido incluidos previamente entre los sujetos a entrevistar.investigador cuantitativo está preocupado por la representatividad del fragmento de sociedad que está estudiando. éste empleo la técnica de la observación participante que acompañó con una serie de entrevistas con "observadores privilegiados". Si acaso le interesará una especie de representatividad sustantiva.

"explicar la variación" de la variable dependiente "violencia". Como puede verse. hemos "explicado estadísticamente" la variación de la variable "delincuencia". residentes de la comunidad. captar la correlación entre las variables independientes y las variables dependientes. se pregunta las causas de la violencia en el comportamiento de los individuos que pertenecen a las bandas. Esta acusación se hace en nombre de la irreductibilidad del "hombre" integral a una serie de variables distintas y separadas. siempre a través de las variables de manera impersonal. de relaciones entre las variables. de otras bandas. y del mismo modo trataría de obtener. la investigación cualitativa adopta un planteamiento para el análisis de los datos completamente diferente. En contraste. más exactamente de una perspectiva holística en el análisis del comportamiento humano. y la aportación de instrumentos informáticos. El objeto del análisis ya no está representado por la variable. contrastan con la sobriedad de un análisis cualitativo. en lugar de llevar a cabo su análisis por variables. desarrollan su investigación sobre la base de las correlaciones entre variables dependientes e independientes. en el que falta un aparato estadístico-matemático. trataría de obtener la variable dependiente "violencia". 19 . Distingue los episodios de violencia según sean expresiones de violencia individual o de violencia organizada (por la banda). hecho que como veremos más adelante.cuantitativo. El análisis de los datos se hará en efecto. Jankowski. es "comprender a las personas". pues. a lo largo de su trabajo. La diferencia más importante se localiza en la lógica que guía el análisis mismo. limitado al mero auxilio para la organización del material empírico. con los instrumentos estadísticos oportunos. El objetivo del análisis. del mismo modo en que en el enfoque cuantitativo el objetivo era "explicar la variación de las variables". una clasificación constituida por 12 situaciones. él lo hace por sujetos. Sampson y Laub. con indicadores adecuados. Se pondría. obtiene así una tipología de 48 tipos. "los procesos de control social informal puestos en práctica por la familia y por el colegio proporcionan la clave interpretativa a fin de lograr la explicación causal de la delincuencia en la infancia y en la adolescencia. las cuatro variables independientes mencionadas. la frustración y la exhibición. será "explicar la variación" en los valores de las variables dependientes. Un investigador cuantitativo. a partir de las variaciones de las variables independientes. coherentemente con su ubicación dentro del paradigma interpretativo. Se hablará de medias de las variables. identificando seis (violencia contra miembros de la misma banda. llegados a este punto. El autor creó. Él identifica cuatro factores desencadenantes de la violencia: el miedo. Distingue también los contextos en los que esa violencia se realiza. le objetivo del análisis. sino por el individuo en su totalidad. cada una de las cuales diferencia cuatro casos en función de los cuatro factores emotivos mencionados que desencadenan la violencia (miedo. como meta. Jankowski. frustración. residentes fuera de la comunidad. la ambición. contra la propiedad en la comunidad y fuera de ella). por tanto. y los clasifica en su globalidad según diversos tipos. si todos los delincuentes proceden de familias con padre violento mientras que aquellos con padre no violento son todos no delincuentes. es decir. la cualitativa es case-based. puede ser interpretado en el sentido de que hemos encontrado la "causa" de la variable delincuencia.. de porcentajes de las variables. La investigación cuantitativa es variable-based. acusándole de asumir impropiamente el modelo científico de las ciencias naturales. asumiendo la necesidad de una perspectiva global. exhibición). los autores llegan a la conclusión de que. El enfoque interpretativo critica este modo de proceder. ambición.

Pero tiene una sensibilidad más articulada para 51.7 100 DC+PCI 18. la cita confiere al dato una dimensión pictórica totalmente desconocida para la simple tabla. estos datos presentan un límite doble. Una de las variables así obtenida se definió como "visión dicotómica de la realidad". si consideramos separadamente a los militantes de DC y de PCI. sino incluso dañina y es completamente ignorada.2 100 Totalmente dicotómica Predominantemente dicotómica Concibe la realidad como lucha entre posiciones. y atribuyendo a cada categoría un valor numérico. Tabla 2. y máxima es la utilización de las técnicas estadísticas para analizar los datos y para inferir generalizaciones de la muestra a la población. respectivamente.9 25.4.1 hablamos de perspectiva relacional. En segundo lugar. la "tabla" y la "narración".una de las cuales es el término bueno con el que no s identificamos. ésta nos sugiere que los militantes estudiados están repartidos de forma equilibrada entre "dicotómicos" y "articulados". En primer lugar. Se estudió a 108 activistas (54 democristianos y 54 comunistas) mediante entrevistas conducidas de 6 a 7 horas.4 38.6 25. Con pocos números ilustra una importante carácterística de la ideología de los activistas como es la relación entre afiliación política y orientación ideológica.9 10.9 3. es decir.8 las alternativas De ningún modo dicotómica 16. clasificando las respuestas a cada temática diferente en categorías. el mismo hecho de reproducir las palabras del entrevistado permite "ver la realidad con los ojos de los sujetos estudiados" de un modo más efectivo. podemos sacar las siguientes conclusiones: mientras que.9 PCI 31. entre los primeros los "dicotómicos" están en minoría (menos de un tercio). permitiendo al lector "visualizar" a los entrevistados. Pongamos como ejemplo una investigación realizada en Italia a mediados de los años sesenta sobre los militantes de base de la Democracia Cristiana y del Partido Comunista. 2. la tendencia a interpretar las fuerzas agentes en la sociedad en términos de "frentes contrapuestos… dos partes.5 38.5 32. por lo que el esfuerzo par operar con los conceptos en términos matemáticamente tratables es máximo. la formalización matemática es considerada no sólo inútil. Resultados.7 Total 100 ¿Qué nos dice esta tabla? Si nos fijamos en la columna relativa al total de los entrevistados (DC +PCI).3. Las dos formas clásicas de presentación de los datos en las tradiciones cuantitativas y cualitativa son. En un caso el lenguaje de las matemáticas es entendido como el lenguaje de la ciencia. y la otra es el enemigo al que enfrentarse y eventualmente vencer y destruir" DC 5. entre los segundos las visión dicotómica es preponderante (más de dos tercios).Queda poco que añadir sobre las diferente relación que investigación cuantitativa y cualitativa tienen con las técnicas matemáticas y estadísticas. Sin embargo. así como la fotografía de un personaje permite un 20 . En la investigación cualitativa.

éstos no son instrumentos unilaterales. Podemos añadir finalmente. en tanto que se reacio a aplicar categorizaciones propias a las respuestas y a las actitudes de los entrevistados. en la formulación de expresiones sintéticas que adoptan una forma cercana a la de las "leyes" de las ciencias naturales. Como hemos tenido ocasión de decir en el capítulo 1.conocimiento muy distinto y mucho más completo respecto de la mera descripción de sus rasgos externos. la cualitativa se interroga sobre los cómo. mientras que la tipología representa el esquema teórico que une a los sujetos (lógica de la "clasificación"). con la misma función que cumple una fotografía en un artículo de periódico. Tabla 2. el análisis cuantitativo aporta una primera síntesis a través de la correlación entre las variables y llega a una unidad conceptual en el modelo causal e incluso. Muy frecuentemente se presenta el denominado "estudio de caso". El investigador que sigue el enfoque interpretativo raramente utiliza la tabla para mostrar sus variables relevantes. 21 .1 hemos denominado perspectiva narrativa. debería poder establecer relaciones entre las variables o conexiones entre los casos. la tabla y la narración son dos formas de presentación elemental y. "efectos" y "condiciones". Ya que el objetivo de la investigación no debería ser sólo describir la realidad. en la que las variables se pueden agrupar en "causas". En el enfoque cualitativo es más difícil encontrar maneras de sintetizar las informaciones suficientemente generales y compartidas por los investigadores. Será la lógica del mecanismo de causa-efecto la que guiará la mente del investigador cuantitativo: hemos dado un ejemplo de ello en la investigación de Sampson y Laub. con el fin de utilizar el "modelo" así obtenido como concepto-límite con el que iluminar e interpretar la realidad misma. Mucho más raro es el caso contrario. sino también proporcionar sistematizaciones y síntesis de orden superior. Diferencia entre el enfoque cuantitativo y el cualitativo con respecto a los dos mecanismos de la "explicación" y de la "interpretación". utilizables sólo por uno o por el otro tipo de investigación. en cierto sentido. En este caso el análisis de los datos se realiza con instrumentos cuantitativos. en los casos más afortunados. aun naciendo de la observación de casos reales. y el interrogante del investigador siempre está guiado por la pregunta de "que causa qué" y bajo qué condiciones. una investigación llevada a cabo sobre una única situación específica. la investigación cualitativa no puede actuar sobre un número muy grande de casos. en un nivel superior de abstracción. fragmentada de los datos. el tipo ideal es una categoría conceptual que no tiene un correlato exacto y específico en la realidad. purificándolos. Es una construcción que. Alcance de los resultados. para que el lector pueda comprender mejor el universo real que está detrás del dato numérico. sobre variables numéricas a través de tablas y análisis multivariados. que el modelo causal enlaza las variables entre sí. los libera de los detalles y de los accidentes de la realidad para extraer sus características esenciales. La narración sirve para ejemplificar los resultados. Mientras que la investigación cuantitativa se pregunta por los porqués. Es muy común el caso de investigaciones de planteamiento neopositivista en las que la narración se emplea con fines ilustrativos. por así decirlo. La conclusión de una investigación debería ir más allá de la simple exposición de distribuciones de variables o ilustraciones de casos. Si bien tabla y narración son dos formas típicas de presentar los resultados en la investigación cuantitativa y en la cualitativa. Tras haber fragmentado al individuo en variables. (recordemos Jankowski). El problema de las generalizaciones.

La primera es la de los que mantienen que enfoque cuantitativo y enfoque cualitativo. Ahora bien. más legítimamente podrán inferirse sus resultados a la población total. más representativa será su muestra de la situación real y. 2. sin embargo. pero con un matiz importante. y el precio a pagar se establece en términos del número de casos estudiados. de la constatación pragmática de que indudablemente a la sociología y a la investigación social les han llegado contribuciones preciosas y fundamentales tanto de investigaciones cuantitativas como de investigaciones cualitativas. Cuanto más amplia sea la investigación. sostiene la plena legitimidad. por tanto. las dos formas de hacer investigación. que. 22 . representan dos puntos de vista incompatibles en tanto que son inconmensurables epistemológicamente. los resultados de la investigación cuantitativa presentan. una mayor capacidad de generalización que los resultados de la investigación cualitativa. Su formación. más que de una reflexión filosófica y epistemológica nueva. Considero difícil que un mismo investigador sea capaz de llevar a cabo una investigación que utilice por igual instrumentos de producción y análisis de datos cualitativos y cuantitativos. no difieren entre sí por meras cuestiones técnicas. se sirven de técnicas tomadas del otro enfoque. aunque como mera instrumentación auxiliar y adicional. En realidad. El segundo punto de vista. dice el autor. caracterizados por divergentes planteamientos filosóficos de fondo. Los procedimientos y los instrumentos utilizados son demasiado distintos. me hace pensar que muy dificilmente y en casos raros se pueda mostrar una flexibilidad semejante. sino que son la expresión directa y lógica de dos visiones epistemológicas distintas.4 Dos formas diferentes de conocer la realidad social ¿ Es mejor hacer investigación social utilizando la perspectiva cuantitativa o la cualitativa? ¿Se puede afirmar que uno de los dos enfoques es superior al otro desde el punto de vista "científico"? Pueden distinguirse tres posturas al respecto. inversamente relacionadas. e incluso la estructura misma de su personalidad científica. utilizar los dos planteamientos dentro de un mismo diseño de investigación. paradigma neopositivista y paradigme interpretativo. considero difícil. utilidad e igual dignidad de los dos métodos. por último. En mi opinión. La profundización tiene un coste.Profundidad y amplitud están. y que la antagonista es la equivocada. abarque un mayor número de sujetos. muy difundido entre los científicos sociales de orientación cuantitativa. pues cumplen una función de estimulación intelectual en una especie de "tormenta de ideas". No creo que los métodos cuantitativos o cualitativos representen dos declinaciones puramente técnicas de un mismo modo sustancial de entender el mundo social y la finalidad de la investigación. pues. según las circunstancias y las oportunidades. es decir. Y los defensores respectivos de las dos posturas afirman que la suya es la exacta. que las técnicas cualitativas puedan aportar una contribución válida a la producción y el análisis de los datos sociales. sin embargo. opte por un enfoque o por el otro ( o por ambos). La tercera postura. los estudios que se citan como ejemplos de investigación que utilizan los dos enfoques. y es el resultado. En conclusión. son investigaciones realizadas sobre la base de una de las dos perspectivas. A las técnicas cualitativas se les imprime un carácter precientífico. De las tres posturas presentadas comparto esta tercera. Pero el número de casos está ligado a la posibilidad de generalizar los resultados. corresponde a la postura de quien habiéndose decantado por el paradigma neopositivista. Esta postura ha crecido en los últimos años. encontrando que son adecuadas para la fase exploratoria de la investigación. sino imposible. y presagia el desarrollo de una investigación social que. no niega. indudablemente.

su perspicacia e inteligencia intuitiva.1 Estructura "tipo" de la investigación cuantitativa La investigación científica es un proceso creativo de descubrimiento que se desarrolla según un itinerario prefijado y según procedimientos preestablecidos que se han consolidado dentro de la comunidad científica. como no hay una representación absoluta y "verdadero" de la realidad. Las cinco fases del proceso de investigación El itinerario "tipo" que un investigador social sigue en la realización de una investigación consiste en un recorrido cíclico que comienza por la teoría. tanto si se desarrolla sobre el plano del examen lógico-formal de la teoría como si aborda el tema de su congruencia con la realidad. deben estar estandarizados. Pero éste no es más que un aspecto. introdujo una distinción entre el momento de la concepción de una nueva idea y el relativo al modo en el que ésta es presentada.Para concluir. Capitulo 3. "El acto del descubrimiento escapa al análisis lógico. La traducción empírica de la teoría 3. del proceso de investigación científica. Es un itinerario trazado más o menos de la misma forma en todos los manuales de investigación empírica 23 . Una de las definiciones más comunes de la ciencia es la de "acumulación sistemática de conocimiento". La primera regla fundamental de la investigación empírica es que debe desarrollarse dentro de un marco compartido colectivamente. sino también en ponerlas a prueba. denominó respectivamente. enfoque neopositivista y enfoque interpretativo. Por otra. El atributo "creativo" es importante en esta definición. y evoca las capacidades personales del investigador. sino un enriquecimiento. La investigación científica. implica la acumulación: " Si he conseguido ver más lejos. el episodio de la iluminación repentina. es porque me he aupado a hombros de gigantes" dijo Isaac Newton. y los resultados de sus intuiciones deben poder ser comprobados también por otros". y vuelve a la teoría. y ni siquiera el más importante. Pero puede haber una infinidad de ellas. En el primer estadio no es posible establecer reglas ni procedimientos. Y esta fase. atraviesa las fases de recogida y análisis de los datos. contexto del descubrimiento y contexto de la justificación. esa misma exigencia de distintos ángulos visuales que en el museo nos hace girar alrededor de la estatua para poder captarla efectivamente en su totalidad.1. 3. en tanto que existe la necesidad de una aproximación múltiple y diferenciada a la realidad social para poder conocerla efectivamente. incluso por el más intuitivo de los sociólogos. Pero esto no es un límite. técnicas cuantitativas y cualitativas conducen a conocimientos diferentes. Se elige una perspectiva. "La ciencia es pública no privada" escribió Merton. El marco de referencia colectivo que el científico social debe tener presente en la realización de su investigación se articula en dos momentos: la estructura lógica del itinerario de la investigación y la instrumentación técnica a utilizar. no hay reglas lógicas en cuyos términos se pueda construir una "maquina descubridora" que desempeñe la función creativa del genio" La labor del científico no consiste únicamente en producir teorías. es un proceso colectivo.1. Reichenbach. No existe un retrato absoluto. Por una parte implica el control: "Los conceptos y los procedimientos empleados. debe seguir unas reglas muy precisas.

La teoría es "general" mientras que la hipótesis es "específica". uniformando las fuentes estadísticas. La tercera fase es la de recopilación de datos y a ella se llega a través del proceso de operacionalización. Este proceso es muy complejo y puede ser dividido en dos momentos. Terminada la recopilación del material empírico.Fases Teoría Procesos Deducción Hipótesis Operacionalización Producción de los datos Análisis de los datos Resultados Inducción (diseño de la investigación) Organización de los datos (matriz-datos) Interpretación La primera fase es la teoría. la matriz de los datos. que suele consistir en 24 . la del análisis de los datos. pues. que será precedida por la organización y sistematización de los datos obtenidos. se podrá operacionalizar el concepto de éxito profesional a través de la renta o bien a través de la consecución de un empleo mejor que el paterno. ésta se obtendrá por ejemplo. La hipótesis representa una articulación parcial de la teoría. etc. es decir. sometiendo los textos a una plantilla de análisis del contenido… La matrizdatos representa el punto de partida para el análisis de los datos. codificando de forma sistemática las respuestas a los cuestionarios. y se coloca en un nivel inferior respecto a ella. de transformación de las hipótesis en afirmaciones empíricamente observables. de un "plan de trabajo" que establece las diversas fases de la observación empírica. estandarizando las respuestas de las entrevistas abiertas. El segundo tiene que ver con la elección del instrumento y de los procedimientos de registro de los datos. en términos de generalidad. La segunda es la hipótesis. a esos mismos materiales organizados de tal forma que puedan ser analizados. y el de datos. se pasará a la cuarta fase. y el paso entre las dos se produce a través del proceso de la deducción. en entidades registrables: por ejemplo. es decir. En la investigación el proceso de organización de los datos consiste generalmente en transformar las informaciones en una matriz rectangular de números. Generalmente se da el nombre de informaciones a los materiales empíricos brutos aún no sistematizados. o sea a la transformación de los conceptos en variables. denominada asímismo matriz "casos por variables" (C x V). La decisión sobre estos aspectos lleva a la definición de lo que se denomina el diseño de la investigación: la definición. El primero se refiere a la operacionalización de los conceptos.

que une individualismo y suicidio. Deducida de regularidades empíricas: la teoría nace de la ( y se confirma en la) constatación de repeticiones en la realidad observada. y más en general. mediante un proceso de inducción. dedujo y controló empíricamente su teoría a través del 25 . mayor será la tasa de suicidios en ese grupo”. Aunque el esquema base prevé que la investigación no comience antes de un repaso exhaustivo de la teoría y la formulación de hipótesis muy precisadas. tal proposición es deducida de uniformidades empíricas ya que Durkheim. el suicidio altruista y el anómico. con la teoría de origen. a la teoría. Pero en cualquier caso el itinerario de referencia sigue siendo el trazado por el esquema. en tanto que la conexión que Durkheim propone se considera válida para un amplio conjunto de la sociedad. Abstracción y generalización: la teoría trasciende las expresiones empíricas específicas tanto desde el punto de vista conceptual (abstracción) como desde el del campo de aplicación (generalización).2. Generalización. encomendadas únicamente a su moralidad personal. que presenta las características de abstracción ( conceptos mencionados de individualismo. más que en la forma de círculo. cohesión social y suicidio tienen significado abstracto respecto a la realidad observada ). Ilustramos lo apuntado hasta aquí con el más clásico de los ejemplos. en un proceso cíclico que podríamos visualizar. el investigador vuelve al punto inicial. La proposición teórica enunciada. es una proposición causal. el equilibrió entre deducción e inducción puede resultar diferente. por individualismo se entiende una situación social y cultural en la que la persona es plenamente libre en las elecciones de la vida.1. en el que a partir de los resultados empíricos se comparan éstos con las hipótesis teóricas. y ésta no es desarrollada ni toma cuerpo hasta la fase del análisis de los datos. Productividad de previsiones empíricas: de una teoría extraída de la observación de determinadas regularidades empíricas se pueden deducir acontecimientos en otros contextos diferentes. Teoría Teoría es un conjunto de proposiciones orgánicamente relacionadas. Por último. hay sin embargo investigaciones que empiezan con un embrión de teoría. El esquema. que formulan un alto grado de abstracción y generalización respecto a la realidad empírica. Conjunto de proposiciones: sistema coherente de afirmaciones que a menudo asume el carácter de proposiciones causales. Fundamento teórico del suicidio egoísta: “Cuanto más elevada sea la tasa de individualismo en un determinado grupo social. en la de una espiral. que son deducidas de regularidades empíricas y de las cuales pueden deducirse previsiones empíricas. 3. Otras veces se salta toda la fase de la recogida de datos en tanto que la investigación utiliza datos ya existentes. La quinta fase es la de la presentación de los resultados. para llegar a su confirmación o a una reformulación. en la que teoría e investigación están conectadas en el proceso de acumulación del conocimiento sociológico.elaboraciones estadísticas realizadas con la ayuda de una calculadora o un programa de análisis estadístico.2 De la teoría a las hipótesis 3. es decir. el relativo a la teoría del suicidio de Durkheim. comienza en la teoría y a la teoría vuelve. que identifica tres ideales de suicidio: el suicidio egoista. En la relación con la teoría. a la cual se llega a través de un proceso de interpretación de los análisis estadísticos realizados en la fase anterior.

aunque las condiciones sociales y ambientales cambien. la tasa de suicidio es más alta en las sociedades protestantes que en las católicas. que se deriva de la teoría pero que espera al control empírico para poder ser confirmada. su menor abstracción ( o mayor concreción) en términos conceptuales y su menor generalidad ( o mayor especificidad) en términos de extensión. demasiado confusas como para poder ser operacionalizadas. En las ciencias sociales el riesgo de teorías vagas. Por hipótesis entendemos una proposición que implica una relación entre dos o más conceptos. debería ser máxima en Alemania: durante la primera guerra mundial los alemanes padecieron carestía. Estas hipótesis son empíricamente controlables. De la teoría general de Durkheim pueden deducirse una serie de hipótesis específicas. Ante todo. “Es mejor una teoría equivocada que una teoría vaga”. La validez de una teorización depende de su convertibilidad en hipótesis empíricamente controlables. 3. Por ejemplo. es especialmente elevado. y es lo más obvio.análisis d elas fuentes estadísticas de su tiempo. Dos son las características distintivas de la hipótesis.3. Ello como consecuencia del hecho de que la orientación de los valores que se constituye en los años de formación tiende a mantenerse durante toda la vida. en la posguerra experimentó un persistente estancamiento económico que le llevó a grados de bienestar inferiores a los de muchos otros países europeos y claramente inferiores a los de la propia nación en la primera mitad de siglo. De esta teoría general pueden derivarse hipótesis específicas. La transformación de la teoría en hipótesis Presentamos a continuación algunos casos de traducción de una teoría en hipótesis específicas. La teoría formulada por Inglehart sobre el cambio de valores de las generaciones crecidas en la posguera serían distintos de los de las generaciones precedentes: de una orientación predominante de sentido materialista a otra que ha sido definida como “postmaterialista”. El criterio de la controlabilidad empírica es el criterio mismo de la cientificidad. La hipótesis es una afirmación provisional aún por probar. tendremos que encontrar en todos los países occidentales un fuerte distanciamiento entre jóvenes y ancianos respecto a la escala de valores.2. Por otra parte. respecto de la teoría. 3. su carácter de provisionalidad. una fuerte inflación. tal proposición da lugar a previsiones empíricas. por una parte. Si la teoría es válida. Causas: los cambios de las condiciones de vida en los años de formación de los ciudadanos. la diferencia debería ser más marcada en las naciones en las que mayor ha sido el salto de la calidad de vida entre los que crecieron antes y después de la segunda guerra mundial. Si una teoría es imprecisa y confusa. Mientras que en la posguerra conocieron un periodo de bienestar económico extraordinario y de paz social. Una segunda hipótesis se refiere a la desigualdad relevancia de este distanciamiento generacional entre los países. El caso de Inglaterra debería ser opuesto: antes de la 2ªGM era el país europeo más rico. difícilmente será susceptible de esas transformaciones. graves conflictos internos y la tragedia de la 2ªGM. 26 .2 Hipótesis Una proposición teórica debe poder articularse en hipótesis específicas. depresión económica.2. que se coloca en un nivel inferior de abstracción y de generalidad respecto a la teoría y que permite una traducción de la teoría en términos empíricamente controlables. a través de oportunas definiciones operativas.

y. según la cual “cuando el elector es sometido simultáneamente a estímulos de igual intensidad pero dirección opuesta. Sin embargo. categorías socialmente centrales. Un análisis detallado del perfil de abstencionistas reveló que se trataba en gran parte de mujeres que habían votado anteriormente a la Democracia Cristiana. es probable que eluda el conflicto relativo a la elección… absteniéndose” Otras veces puede descubrirse una nueva teoría durante la fase empírica. en primer lugar. que sirven de guía para el “diseño de la investigación”. Sucede frecuentemente que las hipótesis se desarrollan después de haber recogido los datos. los datos expresaron un resultado sorprendente. por lo tanto. y analiza sus datos para ver cuál de ellas se verifica efectivamente en el caso empírico analizado. En este caso la elaboración teórica. 27 . para explicar un hecho anómalo o un resultado inesperado. a los que menos alcanza la capacidad movilizadora y comunicativa de los partidos. Todas las hipótesis que hemos mencionado son fácilmente traducibles en términos operativos y. En la segunda hipótesis los autores se esperaban un mayor abstencionismo entre los jóvenes varones de las grandes ciudades del norte. investigación sobre abtencionismo electoral en Italia. Pero después. no son empujados por efectos propulsores. persiguiendo sus objetivos lo mejor que pueden. sino que están sometidos a efectos que les atraen hacia una meta determinada” El autor parte de tres hipótesis precisas de comportamiento. expuestas a los flujos de las nuevas ideas. el rendimiento se mantenía elevado. La práctica de la investigación no siempre se desarrolla tal como la hemos descrito: primero la elaboración de la teoría. deberían ser más numerosos cuanto más rico es el país. que mantiene “que la acción humana es canalizada por vínculos externos que no dejan espacio para hacer elecciones realmente importantes. el punto de vista de la “intencionalidad”. luego la definición de las hipótesis. sin embargo a su análisis. Al principio se constató que con el aumento de la iluminación crecía la productividad. aunque en este caso no tanto por factores estructurales externos como por factores psicológicos internos. que señalara el desacuerdo entre la parte más moderna del país y la vieja política. por consiguiente. Otras veces se recurre a la teoría después de haber analizado los datos. en segundo lugar. debido a la disminuida capacidad de los partidos de movilizar a los electores a través de sus aparatos organizativos. En la primera hipótesis. Para explicar este resultado imprevisto los autores recurrieron a la teoría de las “presiones cruzadas”. o bien un fenómeno de protesta por parte de los electores que.Los que abrazan los valores postmaterialistas. el punto de vista “estructuralista”. finalmente. Por ejemplo. quisieron mostrar a los partidos su descontento y resentimiento. los autores sometieron a control empírico dos hipótesis: que el abtencionismo electoral sea un fenómeno de apatía política. Tomemos el caso de una investigación sobre las decisiones escolares individuales. que “asume que los individuos actúan… conforma a ciertos propósitos. Los experimentos pretendían abordar un problema muy simple: controlar cómo variaba el rendimiento de los trabajadores de un determinado departamento al variar la iluminación. los autores se esperaban una mayor abstención en los estratos periféricos de la sociedad. que ve al individuo condicionado. precede. y se comparan con ellos a posteriori. el punto de vista de la no intencionalidad. aún haciéndose después de la recogida de datos. manteniéndose alejados de las urnas. en contradicción con ambas hipótesis. aún reconduciendo la iluminación a los niveles del punto de partida. la mayoría inconscientes. sometibles a control empírico.

por tanto. los conceptos son los instrumentos. Los conceptos. y que a través de la operacionalización de los conceptos se realiza la traducción empírica de una teoría. es decir. ¿Cómo podemos transformar estos conceptos en entidades empíricamente observables?. desconocido. Desde el concepto parte el puente que conecta la orilla teórica con la del mundo empírico observable. El segundo paso para hacer empíricamente operativo el concepto-propiedad consiste en dar una definición operativa de él. el autoritarismo puede ser operacionalizado a través de las respuestas a preguntas de actitud y asumir una puntuación de 0-5. Sobre la alteración de la secuencia regular teoría-hipótesis-observación hay que decir que en ocasiones la observación viene antes que las hipótesis por razones de fuerza mayor. sino que quiere abarcar intencionadamente un amplio campo de problemáticas. Se puede tener un concepto de la mesa como del número tres. además. como poder. la participación electoral y la criminalidad de 28 . “el término tiene un significado muy general. por ejemplo. y por tanto la investigación se mueve en un plano eminentemente descriptivo. se empezó a delinear una nueva corriente teórica dentro de la sociología del trabajo. felicidad… Podemos decir. que consiste en conocer a través de conceptos universales. cualquiera que sea el objeto al cual se refiere. la de las denominadas “relaciones humanas”. de los específicos objetos estudiados. 3. una vez que tales entidades se vuelven concretas. en convertirlos en atributo o propiedad de objetos. Otras veces la observación no parte de una teorización específica. cuando se aplica un segundo análisis a datos recogidos por otros investigadores en un momento del tiempo precedente. del género y de la especie… de un periodo histórico como de una institución histórica (Renacimiento o Feudalismo). Es el medio a través del cual el hombre puede conocer y pensar. es decir. y es el fundamento de toda disciplina científica. en establecer las reglas para su traducción en operaciones empíricas. abstracto o concreto. Por ejemplo. A veces el tema es nuevo. y será posible establecer las mismas conexiones entre los conceptos transformadores en entidades empíricamente observables. etc. que llamamos unidades de análisis. Ése es. para permitir sucesivos análisis divesificados. pueden hacer referencia a construcciones mentales abstractas que son imposibles de observar directamente. la teoría no está tan bien definida como para admitir hipótesis claras y precisas. y puede incluir todo tipo de signo o procedimiento semántico. El primer paso del proceso de traducción empírica de los conceptos consiste en aplicarlos a objetos concretos. del hombre como de Dios. Con el término “concepto” nos referimos al contenido semántico (significado) de los signos lingüísticos y de las imágenes mentales. que los conceptos son los “ladrillos de la teoría”. a menudo. sino el hecho de sentirse el centro de atención y objeto de experimento. el caso del “análisis secundario”. “La teoría tiene un sentido para la ciencia empírica sólo en la medida en que logra conectarse con el mundo empírico provechosamente. para establecer tal conexión”. cercano o lejano. universal o individual.Y se descubrió que la variable determinante a efectos de rendimiento laboral no era la iluminación. Hay que señalar que. y los únicos instrumentos.3 De los conceptos a las variables. se puede dar una definición operativa del poder de un cargo empresarial a través del número de subordinados que dependen de él. A partir de los resultados de estos experimentos. toda la red teórica se hará concreta. Si la teoría es una red de conexiones entre entidades abstractas representadas por los conceptos.

a propósito del término operacionalizar. Como ha escrito Marradi. Concepto Propiedad Variable Operacionalización (Clasificación. el plan de trabajo empírico).un municipio se pueden operacionalizar a través del porcentaje de votantes sobre electores de unas elecciones determinadas y el tanto por mil de delitos sobre la población. normalmente constituido por un número. Al definir el “diseño de la investigación” (es decir. ordenación. Las ciencias naturales han impuesto el término medir para referirse a la operación general. Llamamos modalidades a los estados opercionalizados de la propiedad. la definición operativa es un “texto”. a cada una de las cuales se le asigna un valor simbólico diferente. en la investigación empírica. Éste término tiene un sentido amplio y se emplea con el significado general de “traducir del lenguaje teórico al lenguaje empírico”. y en general a situaciones de privación relativa más que de privación absoluta. se podría llevar a cabo una investigación tomando como unidad de análisis la región. para quien la revolución francesa se desarrolló en las áreas más acomodadas del país. por último en la aplicación de las mencionadas reglas a los casos concretos estudiados: está es la fase de la operacionalización en sentido estricto. cómputo) 3. Una reflexión teórica no tiene la necesidad de definir unidades de análisis exactas.4 unidad de análisis La Unidad de análisis representa el objeto social al que se refieren. en el recorrido más amplio que conecte teoría e investigación. o bien en un cómputo. representa el puente crucial que une dos vertientes. y de violencia estaban ligadas a situaciones de cambio social que había originado expectativas no satisfechas. “la medición consiste en la atribución de números a objetos o acontecimientos siguiendo determinadas reglas” En realidad cuando no se dispone de unidades de medida es inapropiado hablar de medición: en estos casos el paso de la propiedad a la variable consiste en una operación distinta a la medición. Aún así. dado que “las partes de Francia que habían de ser el foco principal de esa revolución son precisamente aquellas en que más acusado es el progreso”. El tercer paso consiste. debemos establecer ante todo la unidad de análisis. que hemos utilizado al describir el paso de propiedad a variable. la operacionalización es un “hecho”. Aceptando una sugerencia de Tocqueville. que. consiste en una clasificación o en una ordenación. para el caso de la clasificación o de la ordenació. las propiedades estudiadas. nosotros hemos utilizado el término operacionalizar. registrando cada episodio una serie de informaciones con el objetivo de comprobar si las explosiones de conflicto. Llamamos variable a la propiedad así operacionalizada. el término “medir” es inapropiado. Ésta podría estar representada por le episodio de rebelión social. La definición operativa se hace todavía en el plano teórico. medición. La unidad de análisis de una investigación dirigida a controlar la teoría enunciada también podría estar representada por un núcleo territorial. Para definir este proceso. En el lenguaje corriente habríamos dicho “medir”. se 29 . que según los casos. la operacionalización es su traducción práctica. en sentido estricto se refiere al paso de las propiedades a las variables. Sin embargo. Llegados a este punto es necesario hacer una aclaración terminológica. como hicieron Gurr y sus colaboradores.

de grupo-organización-institución cuando la mayoría de las variables está representada por las que llamaremos “variables colectivas estructurales” o “globales”. el ayuntamiento). en las investigaciones sociales está representada por el individuo. sectas religiosas.1. sobre los cuales se recogen los datos. el conjunto de individuos. escrita. etc. y de poner en relación las dos variables. procesos judiciales. Unidades de análisis de este tipo son bastante frecuentes en las investigaciones sociales. golpes de estado. algún indicador de bienestar económico y de intensidad del ímpetu revolucionario. Pensemos en grupos: familias. Hablamos en cambio. y la unidad de registro está constituida por el colectivo mismo. fábricas. partidos. La teoría de la privación relativa aplicada al radicalismo político también podría ser controlada empíricamente tomando como unidad de análisis el individuo. otro tipo de unidad de análisis está constituido por lo que podríamos llamar representación simbólica-producto cultural. A menudo se intentará extraer una muestra casual. Si hacemos una distinción.). fotografías.4. entre unidad de análisis y unidad de registro. reportajes… Concluimos este epígrafe con una anotación terminológica: llamamos casos a los ejemplares de una determinada unidad de análisis incluidos en una investigación. discursos políticos. instituciones públicas. transmisiones televisivas. organizaciones laborales (hospitales. ene este caso la unidad de registro se coloca en un nivel inferior respecto a la unidad de análisis. guerras. Hemos dicho que la traducción empírica de un concepto (que es abstracto por definición) se produce asignándolo como propiedad a un objeto social concreto (“unidad de análisis”) En una primera aproximación. En este caso las variables derivan de operaciones matemáticas realizadas sobre variables registradas de forma individual. 3. otros acontecimientos son huelgas. grupos étnicos. programas electorales. Esta unidad se localiza en el tiempo y en el espacio. La unidad de análisis es una definición abstracta. en organizaciones-instituciones: sindicatos. y está representada por el individuo. el grupo-organización-institución. que denomina el tipo de objeto social al que se refieren las propiedades. otras veces podrá haber diferentes criterios de selección. Mientras que la 30 . el acontecimiento y el producto cultural. unidades administrativas locales (por ejemplo. En la que la unidad de análisis está representada en la mayoría de los casos por mensajes de la comunicación de masas. textos literarios. espectáculos teatrales. Un cuarto caso está representado por las situaciones en las que la unidad de análisis es el acontecimiento. los siguientes tipos de unidades de análisis: el individuo. bandas juveniles. pandillas. definiendo “la población de referencia” de la investigación. Conjunto de individuos. oral o audiovisual: artículos de periódicos. hasta sociedades enteras y los paises mismos. basadas en conjuntos “territoriales” de individuos.trataría pues de encontrar. Un segundo caso bastante frecuente es aquel en que la unidad de análisis está representada por un colectivo. … Finalmente. asociaciones. en las investigaciones de tipo sociológico. para las regiones de Francia en la época de la revolución. ceremonias religiosas. Este “colectivo” puede ser un conjunto de individuos o bien un grupo-organización-institución. podemos identificar. Los casos son los ejemplares de esa determinada unidad de análisis que son estudiados. como a veces se hace. el ejemplo más común lo constituyen las fuentes estadísticas oficiales. Acontecimiento electoral. Los distintos tipos de unidad de análisis La unidad de análisis más frecuente.

peso de un objeto (propiedad). ya no es llamada variable. para someter a control empírico que el cáncer de pulmón está correlacionado con el consumo de cigarrillos se procede de forma diferente. El género por ejemplo es variable. sobre el mismo sujeto. En cambio. Por ejemplo. En ambos casos. propiedad y variable existe la misma diferencia que entre peso (concepto). La definición operativa no elimina la arbitrariedad. observando como varia la concentración de glóbulos blancos en la sangre. y constituyen los objetos específicos de la investigación empírica.unidad de análisis es singular y abstracta. ordinales y cardinales Una clasificación muy importante de las variables se refiere al tipo de operaciones que pueden efectuarse sobre ellas. Entre concepto. En las CC sociales sin embargo es más frecuente la segunda situación. aunque variable en principio. Características lógico-matemáticas de una variable a las que están en la base de esa clasificación. Del mismo modo que hemos dicho que los conceptos son los ladrillos de la teoría. pero lo hace explícita y por lo tanto controlable. medicamento que se suministra un paciente y queremos ver como afecta a los glóbulos blancos. enfermedad. la nacionalidad es una propiedad que puede variar entre los individuos. el de la variación en el tiempo y el de la variación entre los sujetos. de estudio transversal. los casos son múltiples y concretos. correspondientes a los diversos estados de la propiedad. varían entre los sujetos. En este caso las variables consideradas. dado que un concepto puede ser operacionalizado de distintos modos. comparamos un grupo de pacientes sano. o bien entre los casos. consumo de cigarrillos. al mismo tiempo. la de las variables que varían simultáneamente entre las unidades de análisis (ello por el carácter de no manipulabilidad de las mayoría de las variables sociales). en tanto que hacen referencia a las operaciones 31 . En este caso esa propiedad. En el primer caso se habla de estudio longitudinal y en el segundo caso.5 Variables Por variable entendemos un concepto operacionalizado. se habla de variables. y peso del objeto medido a través de una balanza. La variación de una variable puede producirse de dos formas: en el tiempo. pues el concepto ha tenido que ser aplicado a un objeto convirtiéndose en propiedad. pero si el estudio se realiza sobre la población española es invariante. sobre un mismo caso. 3. a diferentes unidades de análisis. puede resultar invariante en el subconjunto específico de los objetos estudiados. Una variable puede “variar” entre diversas modalidades. No hay correspondencia biunívoca entre “concepto” y “variable”. para hacerlo haremos variar las dosis de los medicamentos. 3. con otros enfermos de cáncer y constatamos si a estados de enfermedad/salud diferentes corresponden también diferentes grados de consumo de cigarrillos.6 Variables nominales. En las cc naturales el primer caso es muy frecuente y el experimento se fundamenta en variaciones en el tiempo de variables (hago variar X y observo como varia Y). como propiedad. y adopta el nombre de constante. Una propiedad. en su forma operacionalizada. puesto que puede adoptar los estados de macho o hembra. Ejemplo. consiste más precisamente en la propiedad operacionalizada de un objeto. en este caso dos variables varían en el tiempo. Puede ser asociado. podemos decir que las variables son el elemento central del análisis empírico.

exclus. Las únicas relaciones que podemos establecer entre las modalidades de una variable nominal son las relaciones de igual y de desigual. en el sentido de que cada caso que examinamos debe poder ser colocado al menos en una de las categorías previstas. no la nacionalidad media). Esta distinción toma como referencia el análisis de los datos. la operación de clasificación es la primera y la más sencilla operación realizable en toda ciencia. de la naturaleza de las operaciones empíricas realizadas para el registro de los datos. en el sentido de que un caso no puede ser clasificado en más de una categoría. y. el genero puede ser varón o mujer). Llamamos modalidades a los estados de la variable operacionalizados y valores a los símbolos asignados a las modalidades. Estados “no ordenables” son aquellos entre los cuales no es posible establecer un orden. Las categorías en las que los estados de la propiedad se clasifican deben cumplir el requisito de la a) exhaustividad. la clasificación. ordinales y cardinales). ordenación. Nos encontramos en los niveles inferiores de formalización matemática. en este caso. Hasta las estadísticas más comunes. operaciones de igual y desigual) o matemáticas (por ejemplo. Estados de la propiedad Discretos no ordenables Discretos ordinables Discretos enumerables Continuos Procedimiento de operacionalización Clasificación Ordenación Cómputo Medición Tipo de variable Nominal Ordinal Cardinal Cardinal Características Operaciones de los valores posibles = = Nombres Números con caract. las cuatro operaciones aritméticas) a las cuales se pueden someter sus valores. Variables nominales Con estados discretos se entiende que la propiedad puede adoptar solamente una serie de estados finitos: no hay posibilidad de estados intermedios (la religión puede ser católica o musulmana. como la media o un índice de asociación. en efecto. dependen de las características lógico-matemática de la variable (se puede calcular edad media de una muestra de individuos. y b) exclusividad mutua.6. empleado y desempleado… tales variables se denominan dicotómicas y presentan la importante propiedad de poder ser tratadas estadísticamente 32 . Procedimientos de operacionalización que pueden agruparse en cuatro clases ( clasificación. una jerarquía. de este segundo requisito se deriva también la unicidad del criterio de división.lógicas (por ejemplo. Ordinales Números con características Cardinales Números con características cardinales = > = > + = > + = < = < x: = < x: 3. (variables nominales. Diferenciaremos las variables en tres grandes tipos. es decir para operacionalizar los estados de la propiedad en el momento de su traducción en variable. La operación que permite pasar de la propiedad a la variable es. dependiendo estrechamente. cómputo y medición). Un caso particular de variables nominales es aquel en el que las modalidades son sólo dos: hombre y mujer.1.

no sólo relaciones de orden (20 años es menor que 22) sino también pueden efectuarse operaciones de suma y de resta entre los valores. pero no de las cardinales. y b) existe una unidad de cálculo. Esto permite aplicar a las distancias las cuatro operaciones que se aplican a los números y por tanto permite realizar sobre las variables todas las operaciones matemáticas y las elaboraciones estadísticas más sofisticadas. puesto que existe una unidad de referencia. Variables cardinales Los números asignados a las modalidades tienen pleno significado numérico. el número de hijos. poco. sino también las cardinales. O porque derivan de propiedades continuas. que han sido registradas en una secuencia solamente ordinal por carencia de instrumentos de medición. Variables ordinales La propiedad que registra adopta estados discretos ordenables.3. Variables de este tipo son la edad. es decir de “mayor que” y “menor que”. sino utilizables sólo para variables colocadas a un invel superior de operacionalización. Porque derivan de propiedades originariamente constituidas por estados discretos. poco. Ése es el caso de las citadas preguntas de un cuestionario que prevén respuestas graduadas ( de tipo: mucho. No se conoce la distancia existente entre las distintas modalidades. en absoluto) 3. Se pueden obtener variables cardinales a través de dos procesos de operacionalización de la propiedad: la medición y el cómputo. en preguntas en las que el entrevistado deba escoger la respuesta entre las categorías ordenadas de tipo: mucho. bastante. es decir asume estados finitos.6. Por ello casi siempre se utiliza la serie de los números naturales. entre las modalidades de una variable de este tipo podrán establecerse no sólo relaciones de igualdad y de desigualdad ( una edad de 20 años es distinta a una de 22). en absoluto. sino que tendrá que utilizar un criterio que preserve el orden entre los estados. la renta. Tenemos en cambio un cómputo cuando: a) la propiedad a registrar es discreta. en el caso de un cuestionario. en la clase social.2. bastante. El proceso de medición conlleva el redondeo del número real correspondiente al estado medido en un número de cifras compatible con la aproximación que hemos establecido para nuestra medición. en una jerarquía militar. sino también instaurar relaciones de orden. Dado el carácter cardinal de los valores.6. que gozan de las propiedades ordinales de os números. Es posible determinar estas distancias o intervalos. Piénsese en el título de estudio. Se conoce la distancia existente entre dos valores y entre estas distancias también pueden aplicarse las operaciones de multiplicación y de división. entendiendo por pleno le hecho de que no sólo presentan las propiedades ordinales de los números. La atribución de los valores a cada una de las modalidades ya no podrá ser causal. 3. La medición es cuando concurren las dos condiciones siguientes: a) la propiedad de medir es continua. no fraccionables. y b) contamos con una unidad de medida preestablecida que nos permite comparar la magnitud a medir con una magnitud de referencia. es decir puede asumir infinitos estados intermedios en un determinado intervalo entre dos estados cualquiera. como título académico o clase social.con instrumentos normalmente no aplicables a las variables nominales. No sólo permite establecer relaciones de igualdad y desigualdad entre las modalidades. Las variables pueden ser ordinales por dos motivos. es decir una 33 .

En muy pocos casos disponemos de técnicas pensadas específicamente para las variables ordinales. podrá obtenerse un número medio de 0. En cuanto a las técnicas de elaboración estadística aplicables a las variables.3). Sin embargo. por la velocidad. los metros cuadrados habitados disponibles por persona derivan de una división entre dos variables cardinales: una que se refiere a una propiedad continua (la superficie de la habitación) y otra a una propiedad discreta ( el número de componentes de la familia). Las fundamentales están representadas. por la temperatura: las derivadas.unidad elemental que está contenida un determinado número finito de veces en la propiedad objeto.2 hijos. es decir registrado en 34 . desde la religiosidad al ordenamiento político. éstas se pueden dividir fundamentalmente en dos grandes grupos: las técnicas para las variables cardinales y las técnicas para las variables nominales. a variables en las que la distancia entre dos valores sea conocida. y es operacionalizado. por la densidad. El objetivo es acercarse a “mediciones” en sentido estricto. y es operacionalizado. mediante cómputo. ni pueden realizarse redondeos (una persona puede tener 2 hijos. En física se distingue entre variables fundamentales y variables derivadas. Las variables del primer tipo. por ejemplo. por el tiempo. Un subconjunto de variables cardinales está representado por las variables cuasicardinales. son infrecuentes en las ciencias sociales. que varían de forma gradual entre los individuos. por la dificultad de aplicar una unidad de medida a las actitudes humanas. INDICADORES E ÍNDICES Hemos dicho que en el proceso de traducción empírica. Hemos hablado de variables cardinales que derivan. por la masa. el porcentaje de desempleados sobre la población activa. es objeto (unidad de análisis). Nos referimos en particular a la “técnica de las escalas” que desde los años veinte se propuso medir opiniones. Al tratarse de propiedades discretas (la unidad de cálculo es indivisible). cohesión social… pueden considerarse propiedades continuas. El caso de las variables derivadas es especialmente importante cuando la unidad de análisis está representada por un grupo territorial de individuos. Las segundas no son más que funciones matemáticas de las variables fundamentales. la variable podrá dar lugar a decimales tras operaciones matemáticas: por ejemplo. mediante medición. deviene en una propiedad. Podemos encontrar hasta hoy numerosos intentos de superar ese límite. pero no 2. (número de hijos. la operacionalización consiste en “contar” cuántas unidades de cálculo están incluidas en la cantidad de propiedad que posee el objeto. de propiedades discretas. Por otra parte. El porcentaje de votos obtenido por un determinado partido sobre los votos válidos en una determinada provincia. 3. en las elaboraciones siguientes. sobre todo. y de variables cardinales que derivan. y más en general propiedades continuas relativas a la estructura psicológica y de los valores del individuo. un concepto se liga a un objeto (unidad de análisis) deviene en una propiedad. En una familia. esas propiedades no lograr pasar la condición de propiedad continua a la de variable cardinal por un defecto en la fase de operacionalización en concreto. en la fase de cómputo no puede haber decimales. actitudes y valores ("la medida de las actitudes” es el nombre con el que se conoce esta rama disciplinar). por la longitud. autoritarismo. de propiedades continuas.7 CONCEPTOS. número de habitaciones … ). Las propiedades más características de las ciencias sociales.7 habitaciones por persona. es decir. También en las ciencias sociales muchas variables cardinales derivan de operaciones realizadas sobre otras variables cardinales. En este caso. o una tasa de fecundidad de un país igual a 1.

en las sociedades cultural y políticamente dominadas por las instituciones eclesiásticas. etc. Por otra. experiencial…). el concepto de práctica religiosa es definido como propiedad de los sujetos humanos. Para la dimensión ritual de la religiosidad hemos mencionado la participación en los ritos colectivos. un indicador lo puede ser de más de un concepto simultáneamente. son conceptos más sencillos. esta fase corresponde a la identificación de los cuatro componentes que hemos mencionado (ritualista. en la que el concepto es analizado en sus principales componentes de significado (“dimensiones”). Indicadores. la participación en los ritos religiosos puede ser indicador de conformismo social más que de religiosidad. Por una parte.múltiples indicadores de un mismo concepto. de cara a la comunidad científica. Podemos clasificar los conceptos en función de un contínuum dado por el distinto grado de generalidad-especificidad. que están ligados a los conceptos “generales”. Resulta evidente que la relación entre concepto e indicador es sólo parcial. Podemos decir que la observación empírica de un concepto no directamente observable pasa por la sucesión de cuatro fases: 1) la articulación del concepto en dimensiones. es argumentar y justificar su elección. La primera fase es una pura reflexión teórica. más fácilmente observable desde el punto de vista empírico que un concepto general. y la segunda es la parte que le es ajena. Hemos dicho que el indicador es una representación parcial de un concepto. operacionalizado con el número de veces que una persona va a la iglesia al mes (variable). Así. puesto que eso es demostrable. Un indicador puede estar relacionado con más de un concepto. 2) la elección de los indicadores. más general. Está correlacionada en el sentido de que un concepto específico también es.forma de variable. En el ejemplo de la religiosidad . 3) su operacionalización y 4) la formación de los índices. Una tercera cuestión es la relativa a la arbitrariedad de la elección de un indicador. el concepto (general) no se agota con un único indicador (específico). la fe en dios no es observable. Ejemplos de indicadores del componente consecuencial podrían ser los actos de caridad llevados a cabo por una persona. tendremos dificultades mayores para darle una definición operativa. y que puede haber – y normalmente los hay. Distingue dos partes en un indicador: la parte de indicación y la parte ajena. o un comportamiento político y una moral sexual inspirados en las convicciones religiosas. pero la práctica religiosa sí que lo es. La segunda fase consiste en la identificación de los indicadores correspondientes a cada dimensión. La elección entre esta multiplicidad la hará el investigador con su propio criterio y la única obligación que tiene. incluso de contenido semántico radicalmente distinto. y es. en general. traducibles a la realidad. Por ejemplo. pero no “demostrar” que es correcta. De ahí la necesidad de recurrir a más de un indicador para registrar operativamente el mismo concepto. la lectura de los textos sagrados. Pero si el concepto a operacionalizar. es el de religiosidad. “específicos”. Naturalmente. de conceptos generales a conceptos específicos. ligados ambos por afinidad de significado. Por ejemplo. La primera es la parte de contenido semántico que éste tiene en común con el concepto del que es adoptado como indicador. la oración individual. siempre tendremos que privilegiar indicadores para los que la parte de indicación sea máxima y la parte ajena sea mínima. en lugar de la práctica religiosa. 35 . por lo que se define como una relación de indicación o representación semántica (o sea del significado). Se trata de descender. por ejemplo.

en el sentido de que el “valor observado” tiende sistemáticamente a sobreestimar o subestimar el “valor verdadero”. o se trate de réplicas de la investigación sobre los mismos individuos. Su valor medio sobre el total de los casos observados no es igual a cero. “clasifica” la religiosidad en tipos diferentes entre si y no graduables. tratan de arreglárselas con lo que tienen a disposición. es decir. sigue a la recogida de datos en lugar de orientarla. no siempre se realiza en la secuencia temporal presentada hasta el momento. Por lo tanto. si han ido a votar.En la tercera fase se procede a la operacionalización de los indicadores. no religiosos. Desgraciadamente. Hay que tener especial cuidado en elegir los indicadores para operacionalizar conceptos complejos. como devotos. el valor de la variable empírica tal y como es registrado por el investigador. por lo que se obtendrá en todas las encuestas una tasa media de participación electoral “observada” sistemáticamente superior a la “verdadera”. Varía en hipotéticas réplicas del mismo registro sobre el mismo individuo. es decir. Podrá tratarse deun indice unidimensional que “ordena” la religiosidad según una puntuación de las características ordinales. La cuarta y última fase es la de la construcción de los índices. forzando la correspondencia semántica entre indicador y concepto. Por ejemplo. o bien de un índice tipológico que. ante conceptos complejos para los cuales sus datos son inadecuados. que varia de registro a registro. y los dos componentes del error. conformistas. Número de veces que una persona va a misa al mes. 3. por el motivo que sea. cuando esta elección. puede decirse que el valor observado. en el sentido de que se presenta en todas las investigaciones: ya se trate de investigaciones sobre individuos diferentes. representa el desfase entre concepto (teórico) y variable (empírica). Formalmente: Valor observado = Valor verdadero + Error sistemático + Error aleatorio (variable) (concepto) Lo que equivale a escribir: Error = Valor observado – Valor verdadero = Error sistemático + Error aleatorio El error sistemático (distorsión) es un error constante. que recorre la fase de articulación en dimensiones seguida por la definición de los indicadores y por su obtención operativa. El error aleatorio es un error variable. y llegando a utilizar indicadores con una parte de indicación excesivamente modesta. cuando el investigador no observa directamente los datos sino que utiliza datos ya recogidos. es el resultado de la suma de tres partes. son frecuentes los casos de investigadores que. el valor verdadero no observado ni observable del concepto que la variable pretende registrar. se encuentra ante la imposibilidad de planificar la obtención de los indicadores según su análisis conceptual. En particular. por ejemplo. y varía al pasar de una 36 .8 Error total Error de medición o error total. sino que toma un valor positivo o negativo. Este error tiene dos componentes: el error sistemático y el error aleatorio. la participación electoral. o que la mide llegando a una puntuación cuasicardinal. a su transformación en variables. existe una difundida tendencia por parte de los entrevistados a no declarar la abstención. El itinerario de la traducción de un concepto en operaciones empíricas. practicantes.

muestra de individuos a otra. Se trata de oscilaciones que tienden a una media (valor esperado) igual a cero, sobre todas las réplicas posibles del registro y sobre todas las muestras. En resumen, si el error sistemático es la parte del error común a todas las aplicaciones de una determinada investigación; el error aleatorio es la parte de error específica de cada una de las investigaciones. ¿En qué fases del recorrido que conduce de los conceptos a las variables surgen estos errores? Hemos visto que este paso se articula en dos fases: una fase teórica, que podríamos llamar de indicación, que lleva a la elección de los indicadores, y una fase empírica, que hemos denominado de operacionalización y que consiste en la obtención de los indicadores mismos. En ambos momentos podemos cometer un error: un indicador puede ser elegido mal o puede ser operacionalizado mal. • El error en la fase de indicación, es decir, en la elección de los indicadores adecuados para representar un determinado concepto, es un error de tipo sistemático. Por ejemplo, tomar como indicador de participación política de una persona el hecho de que esté inscrita o no en un sindicato, puede ser una elección afectada por error sistemático: de hecho, la inscripción en un sindicato puede expresar un cierto conformismo social o la preocupación de proteger los intereses propios o un comportamiento que se reproduce cada año por inercia, más que una participación política real. Un indicador será más válido cuanto mayor sea su parte indicante y menor su parte ajena. El error cometido en la fase de operacionalización puede ser tanto sistemático como aleatorio. En una investigación realizada a través de entrevistas sobre una muestra de sujetos, el proceso de operacionalización se articula en diversos momentos, y en cada uno de ellos podemos cometer errores, podemos distinguir 3 fases: a) la fase de la selección de las unidades estudiadas b) la fase de recogida de los datos, que llamaremos de observación, y c) la fase de tratamiento de los datos. Podemos cometer errores en cada una de estas fases.

Errores de selección. Errores debidos a que en una investigación no se actúa sobre la población total sino sobre una muestra de sujetos. Tres tipos diferentes de errores de selección. El Error de cobertura, la lista de la muestra de sujetos es incompleta. Error de muestreo, realizar la investigación sobre una muestra, lleva a un error que con otra muestra habría sido diferente. El Error de no respuesta, algunos sujetos a pesar de estar en la muestra pueden negarse a contestar. Errores de observación. Pueden ser achacados a cuatro fuentes. Errores debidos al entrevistador,(registro erróneo de una pregunta) al entrevistado,( comprensión errónea de una pregunta) al instrumento,(preguntas mal formuladas) al modo de administración, (no es lo mismo por teléfono, por correo, en directo…). Errores en el tratamiento de los datos. Errores de transcripción, de codificación, de memorización en el soporte informáticos… Pueden ser tanto sistemáticos como aleatorios. El error global de una investigación es imposible de evaluar. Escapan de nuestro control demasiados componentes; y si bien los intentos de considerar la investigación a examen como una de las posibles réplicas del mismo diseño de investigación permitirían evaluar 37

el error aleatorio, no ocurre lo mismo con el sistemático, que por definición se presenta en todas las posibles réplicas de las investigación y escapa por lo tanto a cualquier examen. Lo que sí se puede medir es un componente de este error global, el error de muestreo: existe un sector de la estadística que ha desarrollado técnicas de estimación del error provocado por el hecho de actuar sobre una muestra en lugar de sobre la población total examinada. Como es el único cuantificable, muchos investigadores consideran este error como si fuera el error total de la investigación. 3.9 FIABILIDAD Y VALIDEZ Con respecto a la fase que hemos llamado de “observación”, los psicométricos han elaborado dos nociones sobre las que queremos profundizar aquí: la fiabilidad y la validez. La fiabilidad tiene que ver con la “reproducibilidad” del resultado, e indica el grado en el que un determinado procedimiento de traducción de un concepto en variable produce los mismos resultados en pruebas repetidas con el mismo instrumento de investigación (estabilidad) o bien con instrumentos equivalentes (equivalencia). Cuando pesamos un mismo objeto varias veces y la medición coincide la mayor parte de las veces concluimos que la báscula es fiable. La validez en cambio, hace referencia al grado en el que un determinado procedimiento de traducción de un concepto en variable registra efectivamente el concepto que se pretenda registrar. Si el coeficiente intelectual regristra efectivamente la riqueza de un país, si el PIB registra efectivamente la riqueza de un país. Está claro que en este caso no es la repetición de la prueba lo que permite controlar este tipo de error. Generalmente se asocia la fiabilidad al error aleatorio y la validez al error sistemático. Por ello, la fiabilidad es más fácilmente verificable que la validez, puesto que el error aleatorio puede localizarse a través de repeticiones de la observación sobre el mismo sujeto; mientras que la validez es más difícil de identificar, puesto que el error sistemático, que está en su base, se presenta constantemente en cada observación, y por tanto hace que no se pueda conocer el estado efectivo de la propiedad estudiada. 3.9.1 Fiabilidad

La primera forma de fiabilidad que ha sido estudiada es la estabilidad en el momento de la observación. Ésta puede medirse a través de repetir la observación y en calcular la correlación entre los dos resultados. Es difícil de aplicar en las ciencias sociales por dos motivos: la reactividad del sujeto humano y el cambio que puede introducir en el sujeto entre la primera y la segunda exploración. La primera exploración no deja inalterada la propiedad que queremos registrar; por ejemplo, el recuerdo del primer test o el aprendizaje que se ha adquirido después pueden alterar el resultado del segundo. Además, la repetición en el tiempo permite controlar las incidencias que varían de un momento de la administración a otro, pero no los otros dos tipos de variación accidental antes mencionados, atribuibles al instrumento y a las modalidades de investigación. Se ha propuesto una segunda definición de fiabilidad en términos de equivalencia, en la que la fiabilidad se mide a través de la correlación entre dos procedimientos distintos, aunque muy similares entre si. La primera técnica es la denominada subdivisió a mitad, en la que la fiabilidad se obtiene por la correlación entre dos mitades del mismo test.

38

Un procedimiento similar es el de las formas equivalentes: dos test se denominan paralelos cuando se consideran que miden el mismo valor verdadero subyacente, y difieren sólo en el error casual. Una tercera solución para medir la fiabilidad es la que se basa en el supuesto de que los errores aleatorios varían no solo entre test y test, sino también entre pregunta y pregunta dentro de un mismo test. Así, se han propuesto las medidas basadas en la coherencia interna, en las que la fiabilidad del test se estima a través de la correlación de las respuestas a cada pregunta con las respuestas al resto de las preguntas. Todas las técnicas que hemos presentado, no obstante, han sido concebidas dentro de la psicometría, teniendo presente como único procedimiento de operacionalización el test psicológico, consistente en una bateria de preguntas, es decir, una serie de preguntas sobre el mismo argumento. Sigue siendo mucho más difícil de evaluar la fiabilidad de una investigación en otras situaciones: por ejemplo, cuando, manteniéndose siempre la unidad de análisis representada por el individuo, se quieren registrar comportamientos específicos o bien cuando la unidad de análisis es distinta al individuo. En vista de la dificultad de la repetición, se mantiene válido al planteamiento de fondo de que la fiabilidad de una investigación puede ser controlada a través de investigaciones múltiples con instrumentos distintos. 3.9.2. Validez Si tras un error de validez hay un error sistemático, es muy difícil darse cuenta, puesto que éste se reproduce de forma constante en todas las investigaciones. Generalmente el error de validez se sitúa en el paso del concepto al indicador y nace del “error de indicación”, en el que ya nos hemos detenido. La validez de un determinado indicador es, en efecto, mucho más complicado de reconocer, y es muy difícil de medir. El concepto de validez se puede articular en torno a dos aspectos y con dos procedimientos de convalidación correspondientes: las denominadas validez de contenido y validez por criterio. La validez de contenido se sitúa en un plano teórico, e indica que el indicador o los indicadores seleccionados para un determinado concepto cubren de forma efectiva el significado del concepto. Puede darse sólo en un plano puramente lógico (por eso hablan de “convalidación lógica”); está consiste en una descomposición analítica del concepto estudiado, correspondiente a la fase de articulación de un concepto en dimensiones que hemos citado anteriormente, con el objetivo final de cerciorarse de que todas las dimensiones están cubiertas por los indicadores seleccionados. El segundo tipo de validez ha sido definido como validez de criterio: en este caso, la convalidación se basa en la correspondencia entre el indicador y un criterio externo que por algún motivo se considera correlacionado con el concepto. Este criterio puede estar representado a) por otro indicador ya aceptado como válido b) por un hecho objetivo, generalmente de carácter conductual. Dada la posibilidad de cuantificar esta correspondencia, también se ha propuesto para este tipo de validez el nombre de validez empírica, contrapuesta con la precedente validez de contenido, que sería denominada “validez teórica”. Terminología que sin embargo no debe inducir a creer que la validez es empíricamente mensurable; de hecho, lo que se mide con este procedimiento es la correlación entre dos indicadores y no la correspondencia entre el indicador y su concepto. La validez por criterio ha sido clasificada en varios tipos. Tenemos la validez predictiva, que consiste en relacionar el dato del indicador con un acontecimiento sucesivo unido a

39

él. Un test de actitudes referente a una determinada profesión puede convalidarse por la comparación entre su resultado y el sucesivo rendimiento en el trabajo. Se habla de validez simultánea cuando el indicador está correlacionado con otro registrado en el mismo momento temporal. Un tipo importante de validez simultánea es la validez por grupos conocidos, en la que el indicador se aplica a sujetos cuya posición sobre la propiedad a examen es conocida. Por ejemplo, un indicador de religiosidad puede aplicarse a personas pertenecientes a grupos religiosos y habitualmente asiduos de la iglesia, para controlar si efectivamente, como se espera, el indicador registra valores especialmente altos de religiosidad para estas personas. Los manuales de psicometría incluyen un tercer tipo de validez denominada validez de constructo. No se trata más que de una combinación de los dos tipos de validez anteriores. La conformidad de un indicador a las expectativas teóricas en términos de relaciones con otras variables. Existe una correlación inversa entre nivel de instrucción y prejuicio racial. Si establecemos un nuevo indicador de prejuicio, su validez de constructo puede ser evaluada según su conformidad con estas expectativas: si las expectativas no son confirmadas, podemos concluir que probablemente el indicador considerado no es un indicador válido de prejuicio. El procedimiento se basa en consideraciones teóricas y en la referencia a otros indicadores ya aceptados como válidos; de ahí que pueda considerarse una combinación de los dos criterios de convalidación ilustrados anteriormente. Concluimos esta larga reflexión sobre el error total subrayando la importancia de este argumento y una llamada de atención sobre la necesidad de que el investigador ponga especial cuidado en este punto. Los errores cometidos en la fase de transformación de los conceptos en variables son muy graves pues, al ser colocados al inicio de la fase empírica, perjudican todo el posterior desarrollo de la investigación.

40

Si C. manteniéndose constantes todas las otras posibles causas de Y. En la relación entre clase social y tendencia política. sino que se afirma que “más allá de ser acompañado por la causa. La noción de causa queda confinada en el reino de la teoría. y debemos resignarnos a la imposibilidad de comprobar empíricamente las leyes causales. y el efecto es la variable dependiente. debemos poder observar una variación de la variable independiente. y variable dependiente a la variable influida. entonces ( y sólo entonces) E siempre. contamos con un fuerte elemento empírico de corroboración de la hipótesis de que X es la causa de Y. 4. Covariación entre variables independientes y dependientes. entonces (y sólo entonces) E siempre producido por C. la clase es la variable independiente. Si C. “conocimiento y ciencia consisten en darse cuenta de las causas y no son nada fuera de esto”. el efecto es generado por ella". Cuando una variable influye en otra llamamos variable independiente a la variables que influye. ya que en muy pocos casos pueden valerse del principal instrumento para evaluar empíricamente una relación causal: el experimento. relativo a la distinción entre variables dependiente y variables independientes.1. Si queremos tener elementos empíricos que confirmen la afirmación teórica de que el individualismo social produce una elevada tasa de suicidios. Podemos decir que el hecho de que “el pensamiento causal pertenece completamente al nivel teórico y que las leyes causales nunca puedan ser demostradas empíricamente” es una opinión comúnmente compartida. Si la relación de dependencia es de tipo causal. El elemento esencial que añade este enunciado está representado por la idea de producción: no se limita a afirmar la existencia de una “conjunción constante” entre dos fenómenos.2 Corroboración empírica de la relación causal Preliminarmente aún debemos introducir un apunte terminológico. Nunca podemos decir. Esta formulación expresa algunas de las características del nexo causal ( condicionalidad.1 CONCEPTO DE CAUSA Desde siempre el hombre ha tratado de entender cómo un fenómeno podía influir en otro. en el plano teórico. es decir. sucesión. debemos poder observar situaciones con diferentes grados de individualismo. nunca puede asegurarnos que X produzca una transformación en Y. Pero si observamos empíricamente que una variación de X es seguida regularmente por una variación de Y. 4. y que una transformación en X preceda siempre a una transformación en Y. pero resulta especialmente relevante en las ciencias sociales. pero sigue siendo insuficiente. que la variación de X “produce” la variación de Y. en el plano empírico (lo podemos plantear en el plano teórico). consideramos que el la “causa”. El problema de la causalidad existe en todas las ciencias. 41 .2. la causa es la variable independiente. constancia y univocidad). En primer lugar. El simple hecho de que X e Y varíen conjuntamente de una forma previsible. de la que.CAPITULO 4 CAUSALIDAD Y EXPERIMENTO 4. y la tendencia política es la variable dependiente.

Si decimos que existe un nexo causal entre clase social y tendencia política. Si decimos que una socialización impregnada de valores religiosos (X) genera en la edad adulta una actitud más intolerante hacia las ideologías distintas (Y). en lugar de variable independiente estudiada X. el concepto de causalidad pertenece al ámbito teórico.2. Dos adjetivos: natural para el análisis de la covariación. se dice que debemos poder observar una “covariación” entre las dos variables. mientras que el de covariación pertenece al empírico. consistente en analizar las covariaciones tal y como se presentan en las situaciones sociales no manipuladas por el investigador. 42 . 4. En el lenguaje estadístico.2. el hecho de que la primera variable preceda en el tiempo a la segunda establece la dirección del nexo causal. es posible establecer la dirección del nexo causal mediante el criterio de la sucesión temporal. que nace de la observación de que la variación de la variable independiente X precede a la variación de la variable dependiente Y. simultáneamente. Mediante la manipulación de la variable independiente. “Covariación no significa causalidad”. no estamos en disposición de discernir si la causa de la distinta tasa de suicidios es la religión o la nacionalidad. pero. prevé la posibilidad de una variación artificial (manipulación) de una de las dos variables. Control de las variables superfluas Cuando forzamos a la variable independiente X a cambiar de valor. al mismo tiempo. Análisis de la covariación y experimento Los científicos disponen de dos técnicas básicas para controlar empíricamente una afirmación causal: el análisis de la covariación en su realización natural y la situación artificial del experimento.3. una covariación nunca puede ser alegada como única prueba empírica para afirmar la existencia de una relación causal. Cuando no podemos utilizar esta estrategia. como veremos en breve. tenemos que asegurarnos de que no sean esas otras variables las verdaderas causas del cambio en la variable dependiente Y. Podemos establecer empíricamente este hecho de dos formas. debemos poder observar. 4. puesto que se realiza en el laboratorio y la variación de la variable independiente es producida por el investigador. éste sólo puede existir en la dirección que va de la primera variable a la segunda (es imposible que un individuo cambie de clase social como consecuencia de una modificación de sus tendencias políticas) 4.2. si la tasa de suicidios en las regiones aumenta al pasar de regiones católicas a protestantes.2. Hay que añadir que deben excluirse algunas direcciones causales por imposibilidad lógica. estar en condiciones de observar que al variar la variable independiente se obtiene una variación de la variable dependiente. Al variar la variable independiente. todas las religiones protestantes son alemanas y las católicas son francesas. una variación de la variable dependiente. pero que no se produce lo contrario. camino que puede recorrerse sólo en el caso del experimento. que. artificial para el experimento.4.No podríamos proceder a observaciones empíricas sobre la influencia de la cohesión social en la tasa de suicidios si observáramos situaciones en las que la variable independiente (cohesión social) es constante. Dirección causal Debemos. Por ejemplo.

No. Analizando la covariación entre X y Y en grupos de igual edad. e Y es la variable dependiente “voto”. el procedimiento se complica si queremos mantener bajo control muchas variables simultáneamente. en efecto “confusas”: los que más ven la TV son también los más ancianos. Si la relación se mantiene. ¿podemos concluir que la televisión ha jugado a favor de este candidato. han utilizado la TV durante la campaña electoral. no podemos saber si la verdadera causa que orienta el voto es la edad o la exposición a la propaganda televisiva. y dentro de estos tres grupos se observa la covariación entre propaganda televisiva y voto. de la determinación por vía matemática y de la consecuente eliminación de los efectos de las variables extrañas. no son distintos entre sí sólo por esta variable: probablemente. sino del hecho de que ambas están influenciadas por una tercera variable Z (edad). no estamos en condiciones de poder afirmarlo. Las dos variables son. varia también el voto Y. Análisis de la covariación Se trata de entrevistar a una muestra de sujetos. la clase social… sin embargo. Si encontramos una correlación entre las dos variables. Se entiende por relación espuria una covariación entre dos variables X e Y que no deriva de un nexo causal entre sí. los dos grupos de ciudadanos. el objetivo del investigador es relacionar las variaciones de las dos variables X e Y. mujeres más que hombres. transformando la Z en una constante para eliminar su efecto. Este último problema puede ser superado mediante el recurso de la depuración (control estadístico) de los efectos de las terceras variables Z. como la edad. Naturalmente. que se realiza por medio de 43 . que. de mantener bajo control las variables de perturbación potencial. Por lo tanto si X es la variable “exposición a la propaganda televisiva”.1. Jóvenes. En el primer caso se trata. servirán para aclarar las dos formas de enfrentarse al problema. los que más ven la televisión son las personas que están más tiempo en casa. es decir. sólo nos interesa la propaganda televisiva. de la transformación de las variables extrañas en constantes. y el de la b) depuración. para simplificar. adultos y ancianos. ya no podemos seguir con las sospecha de qué quienes más han visto la televisión son también los más ancianos. el género. 4. vamos a imaginar dividida en las dos alternativas “ha seguido/no ha seguido la campaña electoral en televisión”. En un caso como éste el investigador dispone de dos modos de asegurarse de que la relación entre X e Y no se deba en efecto a la acción externa de Z sobre las dos variables: el procedimiento del a) control.? En este caso la covariación entre audiencia televisiva y voto representaría un ejemplo clásico de lo que se denomina en sociología relación espuria. puesto que hemos comparado entre sí grupos en los que la edad era constante. para ver si al variar la exposición a la propaganda televisiva X. ¿Ellos votan al candidato A porque son más ancianos o porque ven más la televisión. es decir ha influido en el voto en esa dirección?. Dos candidatos A y B. la educación. la variación de Z provoca (por una acción causante) la variación simultánea de X e Y sin que entre estas últimas exista un nexo causal. en los que la misma cuestión (el impacto de la proopaganda televisiva sobre las tendencias políticas de los ciudadanos) se aborda con los dos distintos procedimientos. De hecho. ancianos más que jóvenes… Si las personas que ven más la TV son más ancianas que la media. en el sentido de que entre los más expuestos a la propaganda televisiva encontramos también una frecuencia mayor de voto para el candidato A. los que han visto la televisión y los que no la han visto.3. es decir. dado que tendremos que hacer comparaciones entre grupos cada vez más pequeños de casos.Dos ejemplos. Sabemos que sobre el voto influyen una infinidad de variables “independientes”. también dividida en “voto para el candidato A/ para el candidato B”.

al asignar por sorteo los sujetos al grupo experimental y al grupo de control. el investigador produce una variación de X en una situación controlada y a continuación mide cuánto varia Y. En el experimento. Experimento Existe otra via para resolver este problema. digamos para tener bajo control las “terceras variables” no es necesario que estén fisicamente “bajo control”. a variables preestablecidas por el investigador y registradas en la fase de la recopilación de los datos. en la mayoría de las investigaciones sociales nos encontramos más frecuentemente en la situación de observar covariaciones que en la de construir experimentos. resulta que en el grupo expuesto a la televisión ha habido mucho más votos para el candidato A-. por término medio. intencionadamente “al azar”.2. analizando la relación entre X e Y cuando éstas asumen valores constantes en los casos analizados. El grupo expuesto a la televisión no es. no de analizar los datos. que él se limita a analizar. sino de producir los datos a analizar. En el segundo. En el primer caso nos encontrábamos en una situación de análisis de la covariación. si conocemos las relaciones de las terceras variables entre sí y con la variable dependiente podemos calcular la correlación existente entre X e Y teniendo en cuenta estos efectos. los procedimientos de control estadístico del análisis de la covariación son aplicables sólo a un número finito y explicitamente conocido de variables. 44 . pidiendo a un grupo que siga la campaña por televisión y al otro que se mantenga rigurosamente alejado de ella. tras una entrevista sobre el voto de los sujetos estudiados. Supongamos que el investigador. en cambio. también las no registradas o directamente desconocidas por el investigador y efectivamente los dos grupos comparados se diferencian sólo por la variable experimental.elaboraciones estadísticas: la técnica de la correlación parcial si la variable que se quiere controlar es sólo una. en ambos casos se estudia una covariación entre una variable independiente X supuesta como causa y una variable Y supuesta como dependiente. Aunque el experimento constituye la respuesta más rigurosa al problema del estudio empírico de la relación causal. En el primer caso el investigador observa y analiza. Diferencias. dicha covariación ya no está expuesta a los riesgos de “espuriedad” del caso anterior. ni está más instruido queel grupo no expuesto a la televisión: la asignación de los individuos a cada uno de los grupos se ha efectuado. Sin entrar en detalle acerca de estos procedimientos de estadística multivariada. es decir. y la de la regresión múltiple si las variables que hay que mantener bajo control son más de una. se produce una covariación entre exposición a la campaña televisiva X y voto Y – por ejemplo. más anciano. en el segundo. Si con la elección resultante. que se basa en un modo distinto. se tienen bajo control todas las posibles variables de perturbación. De hecho. plantee un diseño de investigación con las siguientes características: que seleccione una muestra de 200 ciudadanos y los subdivida aleatoriamente después en dos grupos de 100. la hace variar. En el segundo caso el investigador controla previamente la producción misma de los datos. “produce” puesto que manipula desde el exterior la variable independiente.3. 4. En el primer caso la intervención del investigador se sitúa después de la recopilación de los datos. que tiene lugar en una situación artificial construida por él. de hecho. en la del experimento. de forma que obtengamos una medida de la correlación ente X e Y depurada de los efectos del resto de variables. es decir. ni tiene un presencia femenina más alta.

La solución científica La solución científica es alcanzable si se puede adoptar una de las dos tesis (indemostrables) siguientes: la tesis de invariación o la tesis de equivalencia. Yc e Yt ya no tienen que ser registradas simultáneamente sobre la misma unidad. eso no quiere decir que no sea posible llegar a soluciones parciales.4 El experimento en las Ciencias Sociales Podemos definir el experimento como una forma de experiencia sobre hechos naturales que ocurre como consecuencia de una intervención modificadora y deliberada por parte del hombre. pero nunca las dos cosas simultáneamente. 4. y fue Galileo quien colocó el experimento en la base del conocimiento científico moderno. Es evidente la imposibilidad de observar el valor Yt e Yc en la misma unidad al mismo tiempo.e Yt. La tesis de invariación consiste en suponer: . El experimento encuentra una formulación filosófica y sus primeras aplicaciones científicas en el siglo XVII. ya que un individuo o ha estado expuesto a la propaganda electoral o no lo ha estado. está representado por la diferencia algebraica: 45 . se modifica X y se registra Yt. Éste es el denominado problema fundamental de la inferencia causal. De la imposibilidad de una observación simultánea sobre la misma unidad Yt e Yc se deriva la incapacidad de observar el efecto de X sobre Y. Llegados a este punto. la diferencia entre los dos valores de Y revela el efecto causal.186 julios (a la unidad de medida de la energía se le dio el nombre del experimentador). sino que además pudo determinar cuantitativamente la magnitud de la relación (“ley”) existente entre calor y energía. de controlar empíricamente la presencia de un nexo causal.Estabilidad temporal: el valor de Yc puede ser sustituido por una medida del mismo Yc en un momento previo.Irrelevancia del registro (procedimiento del medición): el valor de Yt no se resiente del registro precedente de Yc de la misma unidad. respectivamente. se registra Yc. para controlar empíricamente el principio de conservación de la energía –que establece que calor y trabajo son formas equivalentes de energía -. existen dos vías practicables para este propósito. Finalmente. En otras palabras. En particular. estableciendo que una caloría corresponde a 4. En 1.4. construyó un instrumento en el que unos pesos descendientes ponían en rotación unas palas en un contenedor de agua. solución científica y solución estadística. podemos decir que el efecto causal. y si indicamos con u la unidad de análisis sobre la que hemos efectuado el experimento. después del tratamiento. y por tanto. El experimento se distingue de la forma de experiencia que se deriva de la observación de los hechos en su desarrollo natural. De ahí se deriva la incapacidad para observar el efecto de X sobre Y.4. a principios del siglo. .1. que Holland llama.850 el físico inglés James Prescott Joule. en una determinada unidad u. sino que Y puede ser registrada en un momento precedente. distinguió entre la experiencia observadora y la experiencia provocada por la intervención manipuladora del hombre. Se suponía que el trabajo mecánico producido por las palas haría aumentar la temperatura del agua. aunque no sea posible llegar a una solución empírica definitiva y segura del problema de la inferencia causal. Si Yc es la temperatura del agua antes del tratamiento (antes de la administración de la energía mecánica). Sin embargo. El experimento no sólo permitió a Joule demostrar la existencia de este nexo causal. Fue Bacon quien.

La diferencia entre los dos valores de la variable dependiente Y representa el efecto causal sólo si la tesis de la invariación es sostenible.2. En el ejemplo agrícola. El valor de Yc debería mantenerse estable como en el corto intervalo de tiempo que transcurre entre el inicio y el final del experimento. otros acontecimientos políticos concomitantes.4. Piénsese siempre en el ejemplo del efecto de la propaganda televisiva sobre el voto. 4. Y el efecto causal vendrá dado por Yt (u) – Yc (v). Por eso la temperatura del agua antes de la rotación de las palas puede considerarse idéntica a la temperatura del agua que se habría registrado al final del experimento si las palas no se hubieran movido. se podría tomar la diferencia entre un año sin nada y un año con fertilizante pero hay que tener en cuenta que las variaciones climatológicas tampoco son idénticas en dos años diferentes. Supongamos que quiere controlarse el efecto de un fertilizante en un campo. sobre la otra unidad (u). en tanto que no es posible encontrar dos unidades equivalentes. se le expone al debate televisivo y se registra de nuevo su intención de voto (Yt). sino por otros motivos. La solución estadística Tanto la tesis de la variación como la de la equivalencia son normalmente inaceptables en las ciencias sociales. También la tesis de la equivalencia de las unidades es inadmisible en las ciencias sociales. además. Y piénsese en la aplicabilidad de la tesis de la invariación en un experimento en el que se le pregunta a un individuo cuál es su intención de voto antes de la exposición al debate televisivo entre los dos candidatos (Yc). También en este caso la tesis de equivalencia es indemostrable. en tanto que la primera medición de la temperatura del agua no influye en la segunda medición de la temperatura. La estabilidad temporal de Yc es poco fiable: en el tiempo transcurrido entre las dos encuestas el sujeto podría haber modificado su intención de voto no por el efecto del debate televisivo. un intercambio de opiniones con su cónyuge.Efecto causal t = Yt (u) – Yc (u) sobre la misma unidad. El efecto causal será t = Yt(u) – Yc (v) sobre dos unidades u y v al mismo tiempo. Es posible. para no parecer incoherente. y la medición de Yt (valor de Y cuando X = t). por ejemplo. esta asunción es indemostrable. Es decir: Yc(u) = Yc (v) Yt (u) = Yt (v) En este caso la medición de Yc (valor de la Y cuando X= c) se realiza sobre una unidad (v). No obstante. por eso lo más correcto sería tomar dos campos conlindantes. la lectura del periódico. en tiempos distintos. es presumible que dos campos contiguos derivados de la división en dos de un único terreno puedan ser considerados iguales para todas las variables ligadas a la 46 . el individuo podría contestar del mismo modo en la segunda entrevista aun habiendo cambiado de opinión. La no influencia de la primera medición también es difícil de sostener: recordando lo que ha dicho que habría votado en la primera entrevista. efectuar lo mismo en ambos campos y que uno fuera abonado y el otro no. Se acepta la estabilidad temporal de Yc porque no existen otras formas de variación de energía. aceptar la irrelevancia del primer registro.

1. una de las diferencias epistemológicas fundamentales entre ciencias sociales y ciencias naturales. Experimentos de laboratorio La diferencia entre experimentos de laboratorio y experimentos de campo es sencilla: es la distinción entre el experimento llevado a cabo en una situación artificial y el experimento que se realiza en un contexto de la vida real.5 Experimentos de laboratorio y experimentos de campo La primera distinción se refiere al contexto en el cual se realiza el experimento. La solución estadística. la lógica del experimento no cambie aunque la variable X tome más de dos valores y tampoco cambia la lógica del experimento si las variables independientes X son más de una. excepto en las diferencias accidentales. ¿Cuál es entonces la solución?. interpretable como “valor medio” (por lo que E(Yt) es la media de los valores Yt en el grupo de sujetos sometidos a X = t). la irrigación. que conditio sine qua non para la realización de un experimento es la capacidad de control del investigador sobre la variable independiente (manipulabilidad). estaremos en disposición de cuantificar el efecto causal. 4. etc. Piénsese en dos experimentos 47 . Como veremos. Hay que decir por último. como la composición del terreno. Grupos con estas características se obtienen mediante un proceso de aleatorización: la muestra inicial de sujetos a los que someter al experimento es subdividida en dos grupos asignados al “azar” a los individuos en un grupo o en el otro. En las ciencias sociales no se pueden encontrar unidades idénticas. En psicología cuando el valor X = t es la variable independiente corresponde a la exposición de un grupo a un determinado tratamiento (presencia). tiene por objeto los procedimientos de realización y distingue entre el caso de los experimentos “verdaderos”. Tras haber distribuido a los sujetos en los grupos. y los casos en los que. No es posible encontrar dos individuos idénticos. debe poder atribuir a los grupos los diferentes valores de la variable X. las variaciones meteorológicas. en cambio. debe poder manipular los valores de la variable independiente X. En otras palabras. Pero es posible obtener dos grupos de individuos que sean estadísticamente equivalentes para poder exponer a uno de ellos a un valor de X y al otro a un valor de X diferente. La segunda distinción. a los que exponer a dos valores distintos de la variable X para ver cómo se modifica la variable Y entre ellos. la exposición al sol. Sometiendo a uno de los dos grupos. no se trataría de un “verdadero experimento”. de lo que se derivan dos únicos grupos (grupo experimental y grupo de control). en aras de la sencillez. Nótese en fin que. Los dos grupos obtenidos serán equivalentes en la media de todas las variables que caracterizan a los individuos. que esta vez será el efecto causal medio: Efecto causal medio T = E (Yt) – E (Yc) sobre dos grupos “aleatorizados” donde E es el “valor esperado”. sobre los cuales registrar la variación Y. los que responden a todos los requisitos del método. sino de algo distinto. y el valor X = c corresponde a la no exposición al tratamiento (ausencia).5. uno a un valor (c) y el otro a un valor diferente (t) de la variable X y observando en los dos grupos los resultados medios de las variables Y. no se respeta alguno de los requisitos básicos del método experimental. Si esto no es posible.productividad. 4. al primer grupo se le asigna el nombre de grupo experimental y al segundo el de grupo de control. hemos supuesto hasta ahora que la variable X toma sólo dos valores (presencia/ausencia). es decir. en cambio.

la influencia ejercida por los roles sociales. Un ejemplo es el experimentos sobre la obediencia a la autoridad. y así sucesivamente. El segundo. etc. las dos condiciones que caracterizan el experimento – la manipulación de las variables independientes y la aleatorización – pueden obtenerse tanto en laboratorio como en experimentos de campo. El primero. en el que se asignan a unos sujetos tareas que requieren concentración mental en situaciones perturbadas por varias formas de ruidos producidas artificialmente. El elemento que caracteriza el laboratorio está representado por el control. El laboratorio permite crear situaciones y realizar observaciones que no son posibles en el ambiente natural: piénsese en la creación de dinámicas de grupo especiales. realizado en un instituto escolar. el laboratorio persigue. En cuanto al segundo punto. Desde este punto de vista. aislándolos del confuso contexto en el hecho que se manifiestan. el laboratorio se caracteriza por una gran flexibilidad. son más fácilmente realizables en laboratorio. y por las relaciones dentro de los grupos. para replantearlos en una situación purificada de los deshechos de las accidentalidades. en el caso mencionado de los ruidos. como la interferencia con las actividades de la vida cotidiana. que por efecto de la dinámica experimental son inducidos a comportamientos que pueden ser distintos de los que tendrían en una situación de espontaneidad. En resumen el laboratorio experimental de las ciencias sociales permite al investigador extirpar de la realidad social unos factores específicos. consistía en observar de cerca y aclarar el mecanismo de la obediencia para hacer tal 48 . estableciendo detalladamente todas las modalidades de desarrollo. también en las ciencias sociales. en el doble sentido de: a) posibilidad de mantener fuera del ambiente experimental variables e influencias externas no deseadas. puede experimentar si un ruido con intermitencia regular provoca un efecto distinto puede experimentar si un ruido con intermitencia regular provoca un efecto distinto que un ruido con intermitencia irregular o que uno continuo. registrando en un test el rendimiento de clases perturbadas por el ruido del tráfico vial y de clases no sujetas a esa perturbación. el objetivo del aislamiento del ambiente experimental con el fin de minimizar la acción de factores externos. en el laboratorio el investigador tiene la posibilidad de “construir” su propio experimento. Se dividen los experimentos en tres grupos: Implicación de los sujetos estudiados (impact studies) Aquellos a los que se les pide su opinión (judgement studies) Aquellos en los que se requiere la observación sobre los sujetos experimentales (observational studies) Estudios de implicación. precisamente por las características de control sobre el ambiente que éste ofrece. realizado en un laboratorio. Por lo que respecta al primer punto. aunque. o bien en la posibilidad de estudiar mecanismos de interacción gestual y verbal entre personas a través de una cámara de vídeo o de un espejo unidireccional. y de b) posibilidad por parte del investigador de establecer hasta en los detalles más mínimos las condiciones de realización del experimento.dirigidos a estudiar la perturbación producida por el ruido sobre la concentración mental. como hemos dicho. Por último. ya que permite al investigador producir (y repetir) situaciones experimentales que se diferencian entre sí sólo por un pequeño detalle: por ejemplo. la intervención manipuladora del investigador actúa sobre los sujetos mismos.

en este caso en la figura de un profesor universitario. Se mostraron ocho cuadros a 120 mujeres. La violencia era representada tanto por escenas recitadas en vivo por actores como por filmaciones televisivas de esas escenas grabadas en la realidad. un representante de la autoridad. o de dibujos animados. Una de las dificultades por parte de las mujeres de alcanzar el mismo éxito social que los hombres se debe a un prejuicio negativo hacia las mujeres por parte de las mujeres mismas. de llegar hasta el grado extremo de obediencia a la autoridad (no individuos sádicos) gente normal. no motivada por una especial agresividad pero que puede convertirse en cómplice de un proceso de destrucción. Al alumno se le ataba a una silla y se le fijaba un electrodo en el pulso. Las mujeres leían una breve biografía sobre el artista. más débil es su impacto. un grupo tuvo la función de control. Las mujeres juzgaron más positivamente los mismos cuadros cuando éstos eran atribuidos a hombres si eran cuadros que no habían ganado el premio. incluso ante escenas de dolor creciente y peticiones de que se suspendiera el experimento. género. mientras que este prejuicio negativo hacia la artista-mujer no se daba en el caso de los cuadros que habían sido declarados ganadores de premios… un trabajo que es equivalente al del hombre es juzgado inferior hasta que no recibe un reconocimiento oficial. En estas circunstancias. las variables independientes (X) manipuladas fueron en este caso dos: el género del artista ( a la mitad de las mujeres se les dijo que el autor era un hombre y a la otra mitad que era una mujer ) y el éxito del cuadro ( a la mitad de las mujeres se les dijo que el cuadro había obtenido un premio y a la otra mitad se le dijo que simplemente había optado a un premio). tenía que aprender de memoria una lista de asociaciones de palabras por cada error se le administraba una descarga de intensidad creciente. por parte de personas adultas. El experimento estaba dirigido a comprender hasta que punto una persona está dispuesta a obedecer a la autoridad. A un sujeto se le asignaba el papel de profesor a otro de alumno. En realidad. Los otros tres fueron expuestos a una escena recitada con un actor que cumplía acciones violentas e 49 . y ello con el fin de controlar la hipótesis de que cuanto más lejanas de la realidad son las representaciones. se les mostraba una diapositiva del cuadro y se les sometía a un cuestionario con cinco preguntas de evaluación sobre el cuadro mismo. inducía a una persona a cumplir acciones que iban cada vez más en contra de su conciencia. Estudios basados en la observación los efectos imitativos de naturaleza agresiva inducidos en los niños después de la exposición a escenas de violencia transmitidas por la televisión. Experimentos basados en la opinión de los sujetos. el profesor era un sujeto desconocedor. convencido de que participaba en un experimento sobre aprendizaje. Dejo perplejos a los investigadores “la voluntad exasperada. 96 niños de entre 3-5 años en cuatro grupos de 24 unidades (niños y niñas en mismo número. de diferentes clases sociales. de diferente edad. El experimento se repitió con más de 100 sujetos. mientras que el alumno era un colaborador del investigador y no recibía ninguna descarga (fingía recibirlas). podemos citar un estudio sobre el prejuicio hacia las mujeres. agresivos y no-agresivos). extracción social… La serie de experimentos aclaró algunos de los mecanismos de obediencia a la autoridad.cosa en un laboratorio de sicología. se invitaba al laboratorio a dos personas para tomar parte en un estudio sobre “memoria y aprendizaje” y el investigador que dirigía la prueba explicaba que se trataba de un estudio sobre los efectos del castigo sobre el aprendizaje.

Se hizo un test de inteligencia a los alumnos de un colegio de un barrio pobre y de inmigrantes.5. Segundo experimento “la profecía que se autocumple”. y en particular sobre las modalidades de desarrollo del sentido del “nosotros” y del “ellos”. La relación profesor-alumno. la mitad representada por juegos agresivos y la otra por juegos no agresivos. se falseo el resultado a los profesores. su expresión facial. y demostraron que éstas inducían una efectiva mejora en el rendimiento de esos alumnos. la hostilidad se deshacía y se formaban vínculos que transpasaban los límites de los grupos anteriores. la variable independiente está constituida por los objetivos del grupo. 4. Los dos grupos volvían a interactuar enseguida. Los resultados evidenciaron una fuerte influencia del efecto de la imitación. Los niños expuestos a las escenas violentas manifestaron reacciones agresivas en doble medida respecto al grupo de control. Al final la cuarta fase. los dos autores crearon en los profesores expectativas positivas con respecto a algunos alumnos. por el tipo de relaciones interpersonales. El experimento demuestra que las relaciones interpersonales están condicionadas por el contexto estructural en el que las personas son colocadas y tienen que actuar. creando un conflicto de intereses entre los grupos. a los dos grupos en conflicto se les colocaba frente a objetivos que no podían alcanzarse por el grupo solo. La dinámica relacional entre los grupos se transformaba rápidamente de amistosa rivalidad a abierta hostilidad. En este estudio. Experimentos de campo. El niño después era sometido a una experiencia de frustración. En la aplicación experimental. afirmando que los niños “desaventajados” de las minorías étnicas americanas tienen a menudo un rendimiento escolar deficiente porque eso es exactamente lo que se espera de ellos. con diferentes fases. Durante el año escolar se volvieron a hacer test y estos alumnos efectivamente fueron progresando como había avanzado el falso resultado del test de inteligencia. la primera se agrupaban al azar. y la dependiente. Se confirmó sólo parcialmente la hipótesis de la relación entre realismo de la escena y comportamiento agresivo: los niños expuestos a las escenas reales mostraron más agresividad que aquellos expuestos a los dibujos animados. El resultado hay que atribuirlo a alguna forma de interacción inconsciente entre profesor y alumno: “el tono de voz del profesor. Esta comunicación puede 50 . su forma de actuar –seguramente de forma totalmente inconsciente – comunica a los alumnos sus expectativas. Más predisposición de agresividad por parte de los varones. pero la diferencia resultó ser moderada. La mayoría de las acciones agresivas de los niños reproducía las vistas en las representaciones. Las expectativas de A en relación al comportamiento de B pueden influir en B hasta el punto de que éste lleva a la práctica en efecto el comportamiento esperado. Dos ejemplos. por razones éticas.2.inusuales contra una muñeca de goma hinchable. la segunda los grupos los dictaba el monitor y eran totalmente separados del otro grupo (se elegían nuevos amigos dentro del grupo) y en la tercera los dos grupos competían. señalando al azar a cinco alumnos de cada clase como alumnos que podían progresar rápidamente. Otro a una grabación sobre una filmación televisiva de las mismas acciones y el tercero a escenas similares de dibujos animados que reforzaban la irrealidad de la escena. El primero sobre las dinámicas de grupo. es decir sobre los mecanismos que llevan a la formación de la solidaridad hacia los miembros del propio grupo (ingroup) y de la hostilidad hacia aquellos que están fuera de él (outgroup). sino que requerían la colaboración del otro grupo. luego era llevado a una sala donde tenía ante si diferentes oportunidades de juego. Experimentos que se realizaban en campamentos.

podemos concluir afirmando que el primer elemento no puede faltar (si falta nos situamos en la investigación basada en el análisis de la covariación. La variable independiente está representada por una variable nominal y su variación entre los grupos experimentales consiste en que cada grupo presenta una modalidad o categoría distinta de dicha variable. Volviendo a las dos características del experimento representadas por la manipulación de la variable independiente y por la aleatorización de los sujetos en los grupos. Así se obtienen grupos equivalentes. Se forman parejas (tríos.6. sólo en pequeñas variaciones accidentales. con Y la variable dependiente (“observación” o “respuesta” ) 4. sin entrar en consideraciones sobre la estructura de lo que se define como diseño experimental. 4. Asignación de los sujetos a los grupos. aunque. el número y las modalidades de las variables independientes. Éste procedimiento es inferior a la aleatorización por eso se emplea cuando es imposible emplear ésta. Combinándolos dan lugar a una multiplicidad de posibles diseños experimentales. e indicaremos: con R la aleatorización de los sujetos en los grupos. con X la variable independiente (“tratamiento” o “estímulo” en la terminología de la psicología experimental ). consistente en formar parejas de sujetos idénticos sobre características que se consideran relevantes para la cuestión estudiada. sus motivaciones y sus capacidades cognitivas. 4. Cuando la asignación casual no es posible. un criterio alternativo que puede seguirse es el emparejamiento. como veremos algunos autores introducen casos particulares de esta situación en los denominados experimentos ex post facto ). También se utiliza un procedimiento que emplea aleatorización casual y emparejamiento. grupos…) de sujetos idénticos para algunas variables clásicas. y después se asignan por sorteo a los dos conjuntos los componente de cada pareja.1 Experimentos verdaderos Al describir los diversos tipos de diseños experimentales emplearemos la representación gráfica de Campbell y Stanley. Dos elementos que caracterizan el método experimental: la asignación de los sujetos a los grupos y la manipulación de la variable independiente.ayudar al alumno a cambiar su concepción de sí mismo. la eventual repetición de las observaciones. asignando después un componente de la pareja al primer grupo y el otro al segundo grupo (experimento Sampson y Laub).6. sobre todas las variables.6 experimentos y cuasi experimentos La distinción entre experimentos de laboratorio y experimentos de campo se basa en el contexto ambiental en el que se desarrolla el experimento. La aleatorización es la forma más común de obtener grupos que difieran. el modo en el que han sido formados. las características técnicas y organizativas que definen el experimento: el número de grupos experimentales.1 Diseño “sólo después” a dos (o más ) grupos 51 . tenemos los denominados cuasiexperimentos. Si no se cumple la segunda condición. Manipulación de la variable independiente.1.

además del registro de la variable dependiente después de la exposición al estímulo. b) se manipula la variable independiente de forma que en un grupo asuma la modalidad X1 y en el otro la modalidad X2.Y1 El experimento se desarrolla en tres fases: R.6. es decir. antes de la exposición al estímulo. y c) se observa en los dos grupos el valor medio de la variable dependiente Y. mediante aleatorización. Se obtiene una variante de este diseño cuando la variable X adopta más de dos estados. al efecto de esta manipulación la diferencia entre las medias de los grupos de la variable dependiente (Y2 – Y1) registradas después de haber provocado la variación de X. el registro de la variable dependiente tras la exposición. valores medios iguales (salvo oscilaciones accidentales). y el otro por la ausencia de exposición al estímulo (grupo de control). Por lo tanto.1. la exposición al estímulo. las dos modalidades de la variable independiente X están representadas por “presencia/ausencia”: es decir. sean equivalentes. uno por la exposición al estímulo experimental (que da lugar al grupo experimental). La variable dependiente Y se mide sólo después de la exposición al estímulo experimental y no antes y después de dicha exposición. Se trataría de: a) Subdividir por sorteo a los niños en dos grupos b) exponer a un grupo a la transmisión televisiva y no exponer al otro y c) examinar el comportamiento de los niños en la siguiente sesión de juego. Diseño “antes-después” a dos (o más ) grupos Y1 R Y3 X2 Y4 Efecto causal: (Y4-Y3) – (Y2-Y1) Este diseño experimental presenta. pues. en dos grupos. En el caso más simple. tras la exposición a los distintos estadios de la variable independiente X. que presenten. El efecto causal inducido por la variación de X se mide por la diferencia Y2-Y1. Experimento de Bandura sobre la influencia de la violencia televisiva. Podemos atribuir. contiene todos sus elementos esenciales: la aleatorización. también un registro antes de la exposición (de ahí X1 Y2 52 . X e Y: a) los sujetos se subdividen. los dos grupos difieren sólo en el valor distinto de esta variable.R X1 X2 Y1 Y2 Efecto causal : Y2 . por lo que se habla de diseño experimental a grupos multiples.2. como sucede con otros diseños experimentales que veremos en breve. Éste es el más sencillo de los diseños considerados “experimentos verdaderos”. sobre todas las variables. La aleatorización garantiza que los grupos. X1 (grupo de control) X2 (escenas reales) X3 (filmaciones) X4 (dibujos animados) Y1 Y2 Y3 Y4 R 4.

Obsérvese que (Y4-Y2) (Y3-Y1) = (Y4-Y3) (Y2-Y1). que puede distorsionar el experimento.6. Puede ser que sus respuestas no expresen sus opiniones reales sino lo que se socialmente deseable. Sin embargo. Podría afirmarse. 4. Y también podría ocurrir que el pretest influya en los dos grupos de forma distinta. Nos encontramo frente a un efecto de interacción entre pretest y estímulo. Puede influir en las respuestas del postest. El pretest no es esencial en los experimentos verdaderos.la denominación “antes-después”.1.6. Sin embargo. El diseño experimental que sigue se ha propuesto precisamente con el objetivo de controlar este efecto. Los dos registros de la variable dependiente también se denominan pretest y postest. no obstante.4.3. Con simples diferencias entre los seis valores de los pretest y postest (Y1…. Diseño de Solomon a cuatro grupos Y1 Y3 R X1 X2 X1 X2 Y2 (diseño 2) Y4 Y5 (diseño 1) Y6 (Y4-Y2) : Efecto causal + efecto de eventual no equivalencia igual a (Y3-Y1) (Y4-Y2) (Y3-Y1): efecto causal depurado de la no equivalencia (Y4-Y3): efecto causal + efecto de eventual no invariación igual a (Y2-Y1) (Y4-Y3) (Y2-Y1) : efecto causal depurado de la no invariación. Frecuente en el campo de los estudios de evaluación. Este diseño experimental combina los dos diseños anteriores.1. puesto que la aleatorización garantiza la equivalencia inicial de los dos grupos. 53 . Diseño factorial Son aquellos en los que las variables independientes son más de una. por lo tanto. el pretest añade un control adicional sobre esta equivalencia. sumando las ventajas del primero (ninguna interferencia por parte del pretest) a los del segundo (disponibilidad del prestes como punto de partida antes del estímulo). con consecuencias sobre el postest que no pueden distinguirse de las diferencias producidas por la exposición al estímulo. no se le escapará al lector la complejidad de un diseño tal y el coste mayor que conlleva el hecho de utilizar cuatro grupos para estudiar el efecto de sólo dos estados de la variable independiente.Y6) se puede seraparar el efecto del estímulo del de la interacción entre pretest y estímulo. que este efecto de perturbación es igual en los dos grupos y que. En el estudio sobre el prejuicio hacia las mujeres teníamos una situación en la que las variables independientes eran dos. especialmente si los dos test no se administran con mucha distancia el uno del otro. El diseño pretest presenta algunas desventajas. 4. no influye en las diferencias de los dos grupos. Este diseño experimental une variaciones de la variable independiente entre los grupos y variaciones en el tiempo dentro del mismo grupo. representadas por el género del artista y por su éxito.

6. El hecho de que el investigador ya no pueda tomar como punto de partida la equivalencia de los grupos antes de su exposición al estímulo. se dice que las variables “género” y “comportamiento” presentan un efecto principal (main effect) no significativo. lo que significa que tenemos dos variables independientes (o factores). postest y grupos experimentales. Resultado del experimento. La comparación se basa. mientras que su interacción sí que es altamente significativa. la edad también está dicotomizada en “joven” y “adulto”). el diseño se convierte en 2x2x2 y los grupos serán ocho. observaciones. sino que permite estudiar también el efecto de la interacción entre las variables independientes. Z1 dominantes. Se trata de dos variables dicotómicas (X1 hombre. dos hombres. Uno adoptaba el papel de lider otro el papel de sumisión. pero que era un actor/actriz. En términos estadísticos. el investigador nunca podrá saber si las diferencias que obtiene entre los grupos sobre los valores de las variable dependiente se deben a la no equivalencia inicial o al efecto del estímulo.2. Z2 sometido).Cuatro grupos de discusión. uno por grupo). Resultado éste que no podría haberse obtenido por dos experimentos separados con una sola variable independiente. dentro de los cuales incluyeron a un individuo que fingía ser un sujeto experimental. diseño factorial 2x2. Cuasiexperimentos Son experimentos que tienen tratamiento. si quisieramos añadir al diseño inicial 2x2 una tercera variable independiente (por ejemplo. Si inicialmente los grupos no son equivalentes. sumiso. X1 X1 R X2 X2 Z1 Z2 Y3 Y4 Z1 Z2 Y1 Y2 Si en cambio la variable independiente Z toma tres valores (dominante. Tras la discusión debía atribuirse una puntuación de popularidad-simpatía al resto del grupo. en grupos no equivalentes que difieren entre sí también por otras características. compuesto cada uno por 5-8 sujetos. En este experimento las variables independientes son dos: género del actor X y su comportamiento Z. La hipótesis de los investigadores era que la puntuación estaba condicionada por los estereotipos sociales relativos a los comportamientos considerados convenientes para los hombres y para las mujeres. y dos mujeres. neutro) el diseño deviene en 2 x 3 y se necesitarán 6 grupos (y seis actores. y que puede obtenerse sólo en un diseño factorial como el descrito. Como puede verse. X2 mujer. pues. Dada la imposibilidad de aislar el efecto del estímulo 54 . el diseño experimental se complica rápidamente con el crecimiento del número de las variables independientes y de su número de categorías. La principal ventaja del diseño factorial radica en el hecho de que coloca al investigador en condiciones de estudiar no sólo el efecto aislado de las variables independientes sobre la variable dependiente. actor incluído. representa evidentemente un grave menoscabo de la lógica experimental. además de por el tratamiento cuyos efectos están bajo examen. 4. cada una de las cuales asume dos valores. pero que no emplean la aleatorización para crear comparaciones de las que poder deducir los efectos del tratamiento. hombre y mujer era rechazados por el grupo cuando transgredían los estereotipos ligados al género.

Dicho esto. para evitar que la diferencia en el valor de Y antes y después de la exposición al estímulo. En realidad. sino las tendencias de Y antes y después del estímulo. se pueden aplicar diseños experimentales muy próximos a la lógica de los “experimentos verdaderos” y que producen resultados interesantes no alcanzables a través de la investigación basada en el análisis de la covariación. si se produce una variación en la evolución de la tendencia de Y entre Y3 e Y4 simultáneamente a la variación de X.2 Diseños en serie temporal interrumpida Se trata siempre de un diseño sobre un solo grupo. se deba no tanto al efecto del estímulo. Diseño “antes-después” a un solo grupo Y1 X Y2 Efecto registrado: Y2 – Y1 Si sólo hay un grupo. y no entre grupos. 4.6. 4. algunos autores llegan a negar legitimidad a la existencia misma de la categoría de los cuasiexperimentos. Al mismo tiempo. Por ello. no obstante. en el que teníamos dos grupos. es aconsejable recurrir a este diseño sólo cuando no es posible aplicar otros diseños experimentales o cuasiexperimentales. de la variación de X en el tiempo y en el mismo grupo. el investigador no puede hacer deducciones causales sobre el efecto de la variable independiente sobre la dependiente. uno expuesto al estímulo y uno no expuesto. Es necesario proceder de tal forma que entre las dos observaciones Y1 e Y2 no se produzca otro hecho – además de las variaciones de X – que también pueda influir en Y. Esta vez las dos observaciones se efectúan sobre el mismo grupo.experimental de todos los demás efectos. mezclándose con el efecto del estímulo. y poco perturbado también por la concurrencia de acontecimientos externos incontrolados entre dos registros sucesivos. es improbable que se deba al efecto del pretest 55 . El diseño consiste en una sucesión de registros de la variable dependiente Y.6. Con respecto al diseño anterior. este diseño experimental es muy importante como sucedáneo del diseño experimental “sólo después” a dos (o más) grupos. este diseño compara no ya los valores medios.2. Por lo tanto. no podemos tener un “verdadero experimento”. y el sucesivo registro de la variable dependiente.2. acusándola de ser una categoría híbrida y confusa. En cualquier caso. en la secuencia temporal. Entonces podíamos comparar los registros Y2 e Y1 atribuyendo la diferencia al efecto del estímulo. llegados a un cierto punto. es necesario que le pretest no influya en el postest. en particular en todas las situaciones en la que los grupos son preconstruidos. Sin embargo. Se trata. Piénsese en todos los programas de evaluación que no disponen de un grupo de control. situaciones a las que. La diferencia respecto al diseño precedente radica en el hecho de que. este diseño presenta la ventaja de estar poco perturbado por la influencia del pretest sobre el postest. no es excluye que este tipo de diseño cuasiexperimental pueda proporcionar contribuciones cognoscitivas útiles. se produce una variación de la variable independiente X y se registra si este hecho introduce una variación en la evolución de la tendencia de Y. en la investigación social es a menudo imposible aleatorizar los sujetos en los grupos. por tanto.sino a una tendencia de Y ya en curso.1. Por tanto. por sus estrictos límites.

aunque no pueden ser 56 .2. o a la concurrencia de otros factores desconocidos. Mediados de los 60 en Dinamarca. Y1 X1 Y2 --------------------Y3 X2 Y4 Efecto registrado: (Y4-Y3) – (Y2 – Y1) Esquema parecido al del epígrafe 6. realizar el pretest. Cuando no puede manipular. por lo que parece aceptable su atribución a una acción causal de X. La disponibilidad de la serie temporal de los datos con relación a la variable dependiente (tasa de delitos sexuales) permitió aplicar un “diseño a serie temporal interrumpida”. pero el pretest proporciona informaciones sobre las diferencias preexistentes entre los grupos. y después volver a aplicar el postest a los do grupos.6. ya no podemos hablar de experimento estamos ante la lógica del análisis de la covariación.4. puesto que éstos ya desde 1. registrando los incrementos de conocimiento repecto al registrado antes de empezar. pero siempre puede manipular la variable independiente. por ejemplo. Diseño “antes-después” a dos grupos sin asignación causal. estaban disminuyendo.1.Y3. Existen situaciones de investigación que exentas de aleatorización y manipulación.---Y1 Y2 Hemos atribuido el nombre de cuasiexperimentos a aquellas situaciones en las que el investigador no puede asignar al azar los sujetos en los grupos experimentales. que demostró la existencia efectiva de una contribución positiva a la tendencia de disminución de los delitos. Se trata de tomar dos grupos. Diseño “ex postfacto” X1 Emparejamiento X2 ----. Se trata de un diseño aplicable sólo en casos particulares. Los dos grupos no son equivalentes.6. puesto que se trata de efectos presentes en ambos grupos que no influyen en las diferencia entre los dos. Un simple análisis antes-después habría sido engañoso para evaluar el efecto de esta medida sobre los delitos sexuales. una serie de medidas legislativas de liberalización de la prensa pornográfica condujo a una mayor difusión de ésta.3. se les denomina Expostfacto (para remarcar que se basan en hechos ya acaecidos). Dos clases. Ejemplo: evaluar clases de inglés audiovisual. La presencia del grupo de control elimina los efectos de perturbación debidos a acontecimientos entre el pretest y el postest y a la influencia del pretest sobre el postest. 4. Se empleó un diseño de este tipo para estudiar el controvertido efecto de la pornografía sobre los delitos sexuales. que resienten sólo en parte el nivel de origen del pretest. atribuible a la nueva normativa.956. en el estudio de los efectos producidos por un cambio normativo determinado.2 aunque desaparece la letra R con las flechas que dirigían a los dos grupos que indica la aleatorización y aparece una línea horizontal entre los grupos. que indica su origen separado y su no equivalencia. presentan un diseño que recuerda mucho al de los experimentos.2. una con la enseñanza innovadora y otra con la tradicional. 4. exponer a un grupo al estímulo y no exponer al otro. sino sobre la variación postest/pretest. dado que permite que el investigador no trabaje sobre las puntuaciones absolutas de la variable dependiente.

Planteamiento. nos permite alcanzar una conclusiones acerca de la causalidad que no pueden conseguirse a través del análisis de la covariación. El experimento es aplicable sólo a determinados fenómenos y a determinadas situaciones sociales. • Artificialidad se divide en dos aspectos: la artificialidad del ambiente y el de la reactividad de los sujetos experimentales. fenómenos específicos que en condiciones naturales no podrían ser estudiados de una forma tan sistemática. y por el ruido de fondo presente en la vida real.incluidos ni en experimentos ni en cuasiexperimentos. comportándose quizá de forma diferente a como lo harían de forma natural. Artificialidad del ambiente. El otro problema es el de la selección de los sujetos. Una de las formas que adopta la reactividad es el efecto del experimentador: las expectativas de quien realiza el experimento. 4. El hecho ya ha acaecido.7 VENTAJAS Y LIMITES DEL EXPERIMENTO Ventajas. pero no expuestos al estímulo. 57 . los resultados no son a menudo generalizables a la población total. Desventajas del método experimental en sus aplicaciones a las ciencias sociales bajo dos títulos generales: artificialidad y no representatividad. y se comparan las medias de la variable dependiente en los dos grupos. influyendo inconscientemente en el comportamiento de los sujetos. tiene con ver con el hecho de sentirse observados. los sujetos ya han sido expuestos a un estímulo. se eligen otros sujetos con características lo más parecidas posible a las de este grupo. Sabemos que el error de muestreo y la amplitud de una muestra son inversamente proporcionales. por la coexistencia de otros factores que los esconden. desarrollándose en un laboratorio. Hay cuestiones que pueden ser estudiadas sólo con este método. Los grupos experimentales no pueden aspirar a ser muestras representativas de la población. extrayéndolos del flujo de la vida cotidiana. por motivos de comodidad suelen ser elegidos dentro de un determinado ambiente. por la amplitud de la muestra y por los criterios de selección de los sujetos experimentales La primera cuestión surge porque los experimentos sólo pueden realizarse sobre muestras muy reducidas. una de carácter metodológico: se trata del método de investigación que mejor permite enfrentarse al problema de la relación causal. La segunda ventaja se refiere a la naturaleza de los problemas que permite afrontar: el método experimental permite aislar. ya que se inspiran en la lógica experimental tanto en el diseño como en el tratamiento de los datos. la posibilidad de construir experimentos diferenciados entre sí por un solo elemento. estimulando una relación de autoridad innatural diferente a la de la vida real. la historia de la investigación social muestra que se han obtenido importantes avances con el método experimental. • La no representatividad. que encubre la señal de los fenómenos menos llamativos. confunden y distorsionan. recordemos la sumisión a la autoridad. Reactividad de los sujetos experimentales. El objetivo del experimento es la causa-efecto A pesar de todas las desventajas vistas. se suelen presentar en los manuales de metodología en el capítulo de experimentos. Esta limitación conlleva una escasa representatividad de la muestra. La flexibilidad de este método. Por dos motivos.

El experimento es un método de investigación social que se presta muy bien al estudio de problemas específicos. 58 .

al censo… Por encuesta de muestreo entendemos. cara a cara.2. b) a los mismos individuos objeto de la investigación c) que forman parte de una muestra representativa d) mediante un procedimiento estandarizado de cuestionario y e) con el fin de estudiar las relaciones existentes entre las variables. LA ENCUESTA POR MUESTREO Es la técnica de investigación social cuantitativa más difundida. sino que un estudio realizado sobre una muestre oportunamente preseleccionada podría producir resultados igualmente exactos. sondeo electoral. (P: ¿le gusta la política? R: Depende.1. Es decir. el afianzamiento del principio de que. respuesta libre. Todo esto da lugar a tres instrumentos de investigación distintos: . La formulación de preguntas suele ser de forma oral.2 LA ESTANDARIZACIÓN O INVARIACIÓN DEL ESTÍMULO 5. investigación sobre la afición futbolística. por teléfono… el denominador común es la pregunta. Criterio objetivista frente a criterio constructivista 59 . La interpelación a un individuo consta de dos elementos: la pregunta y la respuesta. a todos los sujetos se les plantean las mismas preguntas con la misma formulación. La estrategia de recoger informaciones preguntando directamente a los sujetos implicados en los fenómenos sociales abarca situaciones muy diversas. a los presos. poco. Dichas preguntas se plantean directamente a los individuos que constituyen el objeto de la investigación. (P: ¿le gusta la política ? R: mucho. Ya Marx en el año 1. nada) Pregunta estandarizada. van desde la encuesta periodística al estudio de mercado. pero el verdadero salto cualitativo en el ámbito de las técnicas de encuesta se realizó al consolidarse el concepto de representatividad y la introducción de los procedimientos de muestreo. un modo de obtener informaciones: a) preguntando. bla. no era necesario estudiar toda la población.La entrevista estructurada . Pregunta y respuesta estandarizada.1 La encuesta por muestreo en la investigación social Dos formas de recoger información: observar y preguntar. bastante. en ocasiones escrita.880 utilizó el cuestionario. 5. ) Ni pregunta ni respuesta estandarizada. el entrevistador sabe que en el curso de la entrevista debe tocar el tema del interés por la política pero puede formular las preguntas como considere más oportuno. (Si es sobre la condición social de los presos. bla. para conocer la distribución de un número determinado de variables en una población determinada. 5.El cuestionario . los mismos hinchas…) Las preguntas están estandarizadas.La entrevista libre En este capítulo nos dedicaremos sólo al primer caso. Ambas pueden formularse de forma estandarizada o bien su formulación puede ser libre.5.

para la cual el dato social no es observado. la búsqueda de lo que tienen en común los individuos y no de lo que les distingue: la elección de limitarse a estudiar ese mínimo común denominador en el comportamiento que puede ser uniformado. no cambiar el orden de las preguntas. la posición que podríamos definir como constructivista. clandestinos… 5. Las soluciones que se dan tanto al primer dilema (despersonalizar la relación entrevistadoentrevistador) como al segundo (estandarizar las preguntas y las respuestas). incluso la más ligera modificación en las palabras puede distorsionar la respuesta. le coloca al nivel del hombre medio.2. cada caso.Primer dilema es el que contrapone a los que consideran que la realidad social existe fuera del investigador y es plena y objetivamente cognoscible por éste. En segundo lugar. 60 . unas regularidades en los fenómenos sociales y en los comportamientos humanos. hace una elección: la de privilegiar la búsqueda de uniformidad respecto a la búsqueda de la individualidad. el cuestionario es igual para todos y se administra a todos del mismo modo. Uniforma al individuo. la preocupación principal del entrevistador debe ser la de no alterar el estado del objeto estudiado. Esto nos lleva a la estandarización del instrumento de investigación. Dejando fuera a los analfabetos. que son clasificables y estadarizables. recogido o registrado. que se consideran comparables porque todos los entrevistados han sido sometidos a las mismas preguntas y en situaciones de entrevista prácticamente uniformes. Según el criterio objetivista. como si todos los destinatarios estuvieran dotados de igual sensibilidad. rapidez. Posición objetivista. y los que ven en el acto mismo de conocer una alteración de la realidad. Hay dos. ignora que la sociedad es desigual. sino “construido” o “generado” en la interacción entre el sujeto que estudia y el sujeto estudiado. viejos. Dirigido a la comparabilidad de las respuestas. evitar cualquier cambio. con un procedimiento no muy distinto al de la “observación” en las ciencias naturales y por otra. conducen hacia el mismo punto: la neutralidad del instrumento de investigación (del que también forma parte el entrevistador). pero quién nos garantiza que la uniformidad de los estímulos corresponde a una uniformidad de los significados. en primer lugar. Individualista. el dato social puede ser registrado objetivamente. es decir. indigentes. el cuestionario obliga al sujeto a un nivel determinado.3 El objetivo del mínimo común denominador El objetivo fundamental de la postura objetivista-uniformista es evidente. la invariación del estímulo. es decir. con un lenguaje conductista. En el momento en que el investigador elige el instrumento de recogida de las informaciones al que se dedica este capítulo. el cuestionario y por consiguiente la encuesta por muestreo. cada acción social. no puede dar testimonio de las realidades en las que vive por debajo o por encima del nivel consentido por el cuestionario. la relación entrevistado-entrevistador debe estar despersonalizada. Uniformista. Limitaciones de un cuestionario o esquema estandarizado de investigación. es un acontecimiento único. madurez. Enfoque uniformista frente a enfoque individualista Segundo dilema confronta las posiciones que podríamos llamar uniformistas e individualista. considera que existen sino unas leyes como en el mundo físico. si unas uniformidades empíricas.2.2. 5.

El investigador no puede distinguir cuáles de esas respuestas están basadas en opiniones profundamente arraigadas y emotivamente comprometidas y cuáles son simplemente opiniones superficiales. de una encuesta longitudinal realizada reentrevistando a las mismas personas en momentos sucesivos. Estos hechos sugerían que los entrevistados podían clasificarse en dos categorías de personas muy distintas: los estables y los que contestan al azar. considerando el “no sé” como de incapacidad mental. que sobre algunas de estas temáticas. una operación elemental. Los primeros son personas perfectamente coherentes en sus contestaciones a lo largo del tiempo. el cuestionario es percibido como un test de inteligencia. El primero es el que tiene que ver con la denominada deseabilidad social de las respuestas. no tenga una opinión al respecto. ¿El comportamiento verbal es una fuente de exploración fiable de la realidad social?. En la dinámica de la entrevista se crea una especie de presión por responder por la cual. los otros son individuos “sin una opinión real sobre el tema en cuestión. como la baja correlación entre las respuestas dadas a la misma pregunta por los mismos individuos en dos encuestas sucesivas. La pregunta estandarizada registra la opinión pero no su intensidad ni su convencimiento. tras aprender que lo que la gente dice que ha hecho o hará no corresponde al comportamiento efectivo. comparado a pesar de la individualidad de los sujetos y que puede ser registrado a pesar de la variabilidad de las dinámicas entrevistado-entrevistador. que requiere gran empeño y una gran atención. una pregunta que se refiera a ella puede dar lugar a respuestas fuertemente distorsionadas. que en una determinada cultura se da a una actitud o comportamiento individual determinados.. Los antropólogos han abandonado la idea de que las contestaciones a las preguntas son un dato estable en el estudio del comportamiento humano. Al entrevistado se le presenta una secuencia de afirmaciones y para cada una de ellas se le pregunta si está de acuerdo o en desacuerdo. es la valoración socialmente compartida. pero la formulación de un cuestionario es una labor complicada y difícil. nacidas quizás en el acto de la pregunta misma. un cierto número de entrevistados no haya reflexionado nunca seriamente y que. por tanto. Converse acuño el término de non-attitude. Analizaremos el problema de la fiabilidad del comportamiento verbal desde dos puntos de vista. muchos entrevistados eligen al azar una de las respuestas posibles. 5. La técnica del cuestionario no es capaz de distinguir las opiniones intensas y estables de aquellas débiles y volubles. Es posible.3 LA FIABILIDAD DEL COMPORTAMIENTO VERBAL Hay una segunda objeción de fondo que toca aspectos que tienen que ver con si la encuesta por muestreo es o no empíricamente practicable. y su redacción. Si una actitud tiene una fuerte connotación en sentido positivo o negativo en una cultura determinada. Es segundo es el de la falta de opiniones (o de las pseudo-opiniones) La deseabilidad social. es decir. Al estudiar los resultados de un panel. 5. pero que por alguna razón se sienten obligados a contestar” y que contestan al azar.4 Fondo y forma de las preguntas Un cuestionario puede parecer una secuencia banal y simple de preguntas. Falta de opiniones. Converse notó algunos hechos inexplicables. 61 .clasificado.

Son las preguntas más difíciles de formular y sus respuestas pueden estar fácilmente influidas por la forma en que la pregunta se expresa. Mientras en el caso de la pregunta cerrada. A posteriori conlleva un alto grado de arbitrariedad por parte del codificador. En resumen: las respuestas a preguntas abiertas tienen que ser codificables ( o sea. con la elección de la contestación de entre las opciones propuestas. y c) la claridad de las hipótesis de investigación. si le confiere carácter de pregunta abierta o de preguntas cerradas. la espontaneidad de la respuesta.1 Datos sociodemográficos. Preguntas relativas a propiedades sociodemográficas básicas. un abanico de posibles respuestas de ente las que se le invita a elegir la que considere más apropiada. actitudes y comportamientos. Descripción de las características sociales básicas del individuo (género. Copiar preguntas de otros cuestionarios no es plagio.Para la redacción de un buen cuestionario son necesarios: a) la experiencia del investigador. edad. un campo más sólido que el anterior. Los autores han propuesto diversas clasificaciones al respecto. Es una de las primeras decisiones del investigador en el momento de formular una pregunta. Se refieren a motivaciones. La ventaja es la libertad de expresión. éstas pueden reconducirse en último término a la distinción entre propiedades sociodemográficas básicas.4. b) el conocimiento de la población a la que se administra el cuestionario. Si bien con algunas variaciones. para hacer posibles las comparaciones y los sucesivos análisis cuantitativos. 5. La pregunta abierta es aquella que el investigador plantea dejando plena libertad al entrevistado en la formulación de la respuesta. actitudes y comportamientos Iniciamos el tema con la cuestión de las preguntas. lugar de nacimiento. sentimientos. si no hay una precodificación. profesión. Nos situamos en el campo de las acciones. 62 .2 Preguntas abiertas y preguntas cerradas. estandarizadas). opiniones. por la manera de plantearse por parte del entrevistador… Pregunta relativas a comportamientos. tendrá que haber una postcodificación. valoraciones. su clasificación en un número finito y limitado de categorías. es aquella en la que al entrevistado se le presenta además de la pregunta. En manos de un buen entrevistador la pregunta abierta llega siempre a un resultado no ambiguo y dentro del marco de referencia deseado por el investigador. Los comportamientos son inequívocos y además son empíricamente observables.4. orientaciones. clase social originaria. Podemos añadir que el primer punto puede ser sustituido para los investigadores noveles por la atenta consulta a los cuestionarios anteriormente empleados por otros investigadores. estado civil) La mayoría de estas preguntas se plantean en todas las encuestas por muestreo y para ellas existen formulaciones estándar a las que conviene adaptarse. juicios y valores. Pero esta forma de proceder tiene un alto coste y no es practicable para grandes muestras. título académico. Pregunta abierta. en cambio. La pregunta cerrada. 5. Preguntas relativas a actitudes. si se quiere llegar a la matriz-datos. ya hemos alcanzado el objetivo final de la encuesta en la investigación cuantitativa: la matriz de datos (clasificación de las respuestas dentro de un esquema estandarizado válido para todos los entrevistados) con la pregunta abierta. Es necesaria una fase ulterior la denominada “codificación” de las respuestas: es decir. por su colocación en el cuestionario. estamos todavía a mitad del camino que conduce a la matriz de datos. se registra lo que dice que hace o ha hecho.

a) el lenguaje del cuestionario debe adecuarse a las características de la muestra estudiada. Se mantiene vigente. a la sintaxis y al contenido mismo de las preguntas. la pregunta cerrada implica una condición absolutamente esencial: que todas las alternativas posibles están presentes en el abanico de respuestas ofrecidas al entrevistado. Es. 63 . se impone la opción de la estandarización del instrumento de investigación. En algunos casos la pregunta cerrada no es practicable: cuando las posibles alternativas de respuesta no están perfectamente claras para el investigador. Una misma pregunta puede tener interpretaciones distintas. etc.¿Cómo podemos – se pregunta Cicourel – controlar que los entrevistadores utilicen todos el mismo marco teórico de referencia e interpreten cada hecho. de forma idéntica. empleando las mismas estructuras de significado en contextos diferentes con las mismas reglas interpretativas?. a) la pregunta cerrada ofrece a todos el mismo marco de referencia. por motivos esencialmente prácticos de costes y de factibilidad. cuando éstas son demasiado numerosas o tratan de cuestiones demasiado complejas. cuando se trata de cuestiones delicadas. b) Las alternativas propuestas por la pregunta cerrada influyen en las contestaciones. la pregunta cerrada. como veremos más adelante. accesibles sólo a través de una entrevista en profundidad. La táctica de añadir al final de la lista la opción “otros” es necesaria. pero poco eficaz. y la investigación utiliza un gran número de entrevistadores. Cuando los sujetos estudiados son varios centenares o miles. 5. aclara al entrevistado cuál es el marco de referencia presupuesto y ofrece el mismo marco a todos los entrevistados. b) La pregunta cerrada facilita el recuerdo c) Estimula el análisis y la reflexión. Las encuestas por muestreo sobre grandes muestras se realizan actualmente con cuestionarios de preguntas cerradas. El entrevistado tiende a elegir entre las propuestas.Sencillez en el lenguaje. pues. Tres limitaciones: a) Deja fuera todas las alternativas de respuesta que el entrevistador no ha previsto. incluso pequeños cambios durante la expresión verbal de las preguntas pueden producir variaciones sensibles en las respuestas.5 Formulación de preguntas La manera en que se formula la pregunta puede influir en la respuesta. Sugerencias ligadas al lenguaje .. La pregunta cerrada presenta algunas ventajas. dispersos en un amplio territorio. cuando los entrevistados tienen un nivel cultural muy bajo y están poco habituados al lenguaje abstracto de las respuestas precodificadas. es decir. para investigaciones sobre muestras de dimensiones reducidas. ya que el primero no puede aportar explicaciones. c) Las respuestas propuestas no tienen el mismo significado para todos Por lo dicho aquí. b) el cuestionario autocumplimentado exige un lenguaje más sencillo que el cuestionario con entrevistador. 1. a través de sus respuestas preestablecidas. por lo que la pregunta abierta se ha ido abandonando progresivamente en las grandes encuestas de muestreo. persona entrevistada.

Es pues una buena regla. No se puede preguntar a quién votó si antes no hemos preguntado si votó. Deben evitarse 11. 17. Preguntas tendenciosas. Precisión en el tiempo. Falta de opinión y “no sé”. 5. Deben ser concisas. y además. puede irritar al entrevistado. Utilizar puntos de referencia temporales relativos a acontecimientos más relevantes que el estudiado. Comportamientos asumidos. Comportamientos y actitudes. Hay cuestiones delicadas que son extremadamente difíciles de investigar con el instrumento del cuestionario. Las actitudes son por naturaleza mucho más imprecisas. O personas que por pereza no se terminan de leer las baterías de preguntas y contestan siempre el “bastante de acuerdo”. b)da más tiempo al entrevistado para pensar. Preguntas no discriminantes. Evitarlos. Definiciones ambiguas. ambiguas y expuestas a respuestas normativas que los comportamientos. La pregunta abstracta puede dar lugar con facilidad a respuestas genéricas o normativas. Tendencia a elegir las respuestas que expresen acuerdo a dar contestaciones afirmativas más que negativas. Concreción – abstracción. 13. Establecer límites temporales al recuerdo. 64 . Expresión en jerga.Palabras con una fuerte connotación emotiva. centrar la pregunta sobre un comportamiento en lugar de quedarse en el ámbito de la opinión. cuando el objeto de la pregunta lo permite. c) favorece una respuesta más articulada. 14. Número de las alternativas de respuesta. 6. 3. y también hace más difícil el malentendido. Intensidad de las actitudes. Más frecuente en personas menos instruidas. Descartado. o superficiales. Sintaxis lineal y simple 8. se recomienda que no sean más de cinco. 9. 16. el entrevistador debe poner el acento e su profesionalidad científica. también puede hacerse una pregunta que implique un conocimiento específico. Deseabilidad social de las respuestas. aunque cuando se trata de cuestiones complicadas puede ser preferible la pregunta más larga. sobre todo si es negativo 7. Las preguntas deben construirse de tal forma que produzcan diferencias en las respuestas del total de los entrevistados. Las consideraciones son similares a las del punto anterior. Preguntas sintácticamente complejas. 15. El registro de la intensidad requiere una profundización mediante ulteriores preguntas. la identificación con el problema real. debería estudiarse a través de preguntas abiertas. 19. dado que a) facilita el recuerdo. La precisión en un periodo de tiempo definido facilita el recuerdo y hace más difícil la superposición del comportamiento ideal al real. y muchos darán repuestas al azar antes que pedir explicaciones. Además de preguntar si se mantiene al corriente de la política (actitud) y si lee los periódicos (comportamiento). Preguntas embarazosas. Aquiescencia. Evitar el uso de términos ambiguos. la extensión de la respuesta está directamente relacionada con la extensión de la pregunta y. 10. si se presentan oralmente. 20. 4. Preguntas con respuesta no unívoca. 2. puesto que los entrevistados sienten vergüenza a la hora de admitir que no entienden. No pueden ser demasiado numerosas. como aquellas sobre cuestiones queno estén lo bastante articuladas. 18. Deben evitarse tanto las preguntas explicitamente múltiples. 12. La concreción del caso facilita en cambio la reflexión.c) incluso en presencia de un entrevistador tampoco hay que contar con sus intervenciones explicativas. Extensión de las preguntas. Efecto memoria.

La primera tarea pues será tranquilizar al entrevistado. a veces se pueden utilizar diarios o instrumentos análogos. En los ejemplos anteriores cada una de las preguntas de la batería se formulaba en términos absolutos. Orden de la pregunta. sigue siendo perfectamente válida la sugerencia que hemos avanzado al principio de este tema. consideradas de forma aislada. el entrevistador que tiene experiencia y el entrevistado que no sabe porqué es interrogado. sino también al presente y al futuro. 21. Cuando el comportamiento a estudiar se refiere no sólo al pasado. La primera parte del cuestionario consistirá en que el entrevistado se sienta a gusto y hacerle entender cómo funcionará la entrevista. Conviene tener en cuenta ante todo la dinámica de la relación entre entrevistado y entrevistador. 5. al principio preguntas fáciles. los temas tratados en el cuestionario se desarrollen en un orden lógico. el hecho de que siempre. en la lectura de los porcentajes de respuesta a cada una de las preguntas. el cuestionario debe estar estructurado de tal manera que se mantenga viva la atención en todo momento. en ciertos casos la respuesta a una pregunta puede estar influida por las preguntas que la preceden. el investigador aporte también la formulación exácta de la pregunta que los ha producido. Las respuestas están fuertemente influenciadas por la manera en que se formulan las preguntas. dejando para el final las más tediosas pero que no requieren una reflexión. es decir. se recomienda poner las preguntas más complicadas en las partes centrales de la entrevista. Un tercer criterio es el de la secuencialidad de la entrevista. En conclusión.6 BATERIA DE PREGUNTAS Es frecuente el caso de preguntas que al ser formuladas todas del mismo modo. se ha demostrado que la atención y el interés del entrevistado siguen una curva creciente hasta la mitad de la entrevista y después decrece. Extensión del cuestionario en torno a los 45 minutos en cara a cara y sobre los 25 minutos si es telefónica. se presentan al entrevistado en un único bloque. a la mitad del cuestionario preguntas potencialmente embarazosas. Éste es un requisito básico de cientificidad para esta técnica de investigación social. 65 . En el orden de las preguntas hay que seguir el paso de preguntas generales a particulares. según la técnica denominada “de embudo” que consiste en formular primero preguntas amplias. Es importante distinguir entre el caso en que se formula en términos absolutos y aquel en que se formula en términos relativos. como las relativas a las características sociodemográficas. en la fase del análisis de los datos pueda construir índices sintéticos que resuman en una única puntuación las repuestas dadas a las diversas preguntas de la batería. a la que el entrevistado puede contestar independientemente de las otras preguntas. La relación es asimétrica. Hay que decir que esta dependencia es sobre todo relevante en lo que se denomina “análisis de una variable”. El efecto contaminación. El segundo criterio a tener en cuenta tiene que ver con el interés y el cansancio del entrevistado. que fluya la entrevista como una conversación natural.Presentar al entrevistado listas de posibles respuestas. para evitar basarnos en el recuerdo. en el sentido de que cada elemento de la batería es una entidad autosuficiente. para centrarse progresivamente en los aspectos más específicos. son las baterías de preguntas y tiene como objetivo: a) ahorrar espacio y tiempo b) facilitar la comprensión del mecanismo de respuesta c) mejorar la validez de la respuesta d) permitir que el investigador. en cada presentación de datos extraídos de un cuestionario. hay quien sugiere colocarlas al final.

será conveniente una especial vigilancia por parte del investigador y del entrevistador al formular y al proponer este tipo de pregunta. Por tanto. de la manera que plantea y conduce la relación con el entrevistado. la saturación de los ciudadanos respecto a cualquier tipo de entrevista. de los cuatro motivos antes mencionados que justifican la organización de las preguntas en batería. Para cada uno de ellos. usted debe decirme si lo considera un problema muy importante. aquella en la que la respuesta nace de una comparación con las otras respuestas posibles. En conclusión. aquella que se formula en términos relativos) es a menudo mejor a efectos de la valoración del punto de vista del entrevistado. Un procedimiento que en la investigación social hace especialmente uso de las baterías es el de la técnica de las escalas. a medida que se los lea. que se aplica en particular en el ámbito de la denominada “medición de las actitudes”. 5. conlleva también el mayor peligro de este tipo de formulación. la principal ventaja de las baterías de preguntas. Por ejempolo. pidiéndole que haga su evaluación de cada uno de ellos (puntuar de 1 a 10) éstas son preguntas en términos absolutos. O bien se le puede pedir que coloque a los políticos de las lista por orden de preferencia. “ a continuación le voy a leer…. El tono insistente de la batería y la repetición del esquema de respuesta pueden producir fácilmente dos de los errores de repuesta más comunes: el de las preguntas dadas al azar (seudeopiniones) y el de las respuestas mecánicamente iguales entre sí (response set).7. constituida por la posibilidad de comprimir en poco tiempo y en poco espacio una serie de múltiples estímulos.7 MODALIDADES DE RECOGIDA DE DATOS Tres modos de administrar un cuestionario: la entrevista cara a cara. puesto que permitir diferenciar sus distintas posturas. el más importante es el cuarto: se plantean al entrevistado baterías de preguntas precisamente con el objetivo de condensar las respuestas en una puntuación única. debido a el rápido incremento del coste de las entrevistas. En el caso de las escalas. En principio lo más común eran las entrevistas cara a cara pero éstas fueron sustituidas en los años ochenta por las entrevistas telefónicas. Cuáles considera usted que son los tres más importantes”. o que elija a los tres que más le atraigan: y éstas son preguntas en términos relativos. La pregunta que implica una comparación (es decir. 66 . 5. importante.Una pregunta en términos relativos es. poco importante o nada importante” Términos relativos. la entrevista telefónica y el cuestionario autocumplimentado (dentro de éste. apta para operacionalizar esa particular actitud a examen. la desconfianza hacia los extraños a causa de la creciente criminalidad… Junto a estas dos formas siempre ha habido espacio para los cuestionario autocumplimentados. la técnica más importante la constituye el cuestionario postal). Por ejemplo se le puede presentar al entrevistado una lista de políticos. Términos absolutos.1 Entrevista cara a cara El entrevistador asume una posición fundamental. “a continuación le voy a leer una serie de problemas de nuestra sociedad. en cambio. de su actuación. consideremos la pregunta sobre los “problemas más importantes del país”. depende gran parte de la calidad de la entrevista.

Se hacen necesarias instrucciones detalladas sobre cómo debe comportarse en estos casos. todos con idéntica legitimidad. y de que en el mundo existe toda una amplia gama de opiniones y de comportamientos. deberán distribuirse instrucciones escritas y deberán preverse encuentros preparatorios preliminares. Motivaciones. Las expectativas se transmiten a menudo de forma inconsciente en la dinámica de la entrevista. a través del tono de voz del entrevistador. Presenta menos resistencias a la concesión de la entrevista y mayor garantía de anonimato. Con el mismo coste cubre también a los entrevistados localizados en las áreas periféricas del país. Expectativas. Las ventajas se resumen en los siguientes punto: Gran rapidez de realización. Preparación. diplomada. Ante todo al entrevistador se le debe informar del tipo de interacción existente entre él mismo y el entrevistado.La técnica que estamos presentado es la del cuestionario estandarizado. aburrida y desmotivada del entrevistador sólo puede repercutir negativamente en el entrevistado. énfasis al leer las preguntas o las alternativas de respuestas. Una persona con sentido común. orientada a una permisividad.7. sino que se dedique tiempo y relevancia considerable también a la exposición de los objetivos de la investigación 5. que logre transmitir implícitamente al entrevistado la idea de que no hay respuestas correctas o equivocadas. Rasgos que deben presentar los entrevistadores: Características. Deberá tener una actitud amistosa pero a la vez neutral. estandarizando su comportamiento y limitando el margen de discrecionalidad mediante una fase de formación. ama de casa y de clase media. la modalidad más difundida de administración de los cuestionarios. de sus gestos faciales. El problema es el de reducir el efecto del entrevistador. que se ubica claramente dentro de la corriente objetivista. De ahí que en los encuentros preliminares de instrucción para los entrevistadores no se traten sólo las cuestiones prácticas.2. para limitar su variabilidad subjetiva e interpretativa y evitar que se den indicaciones discordantes. Una actitud pasiva. Permite utilizar directamente el ordenador en la fase de recogida de datos. Facilita enormemente el trabajo de la preparación de los entrevistadores y su supervisión. Entrevistas Telefónicas En los últimos años se ha producido un boom de entrevistas telefónica. así como la intervención de supervisores a los que los entrevistadores puedan dirigirse en caso de necesidad. Cuál es la disposición psicológica del entrevistador hacia su trabajo y hacia la entrevista en cuestión. Costes muy inferiores a los de la entrevista cara a cara. En todo caso. En investigaciones de gran magnitud el entrevistador debe inhibirse de cualquier comportamiento que pueda influir en el entrevistado. Desventajas: 67 . Un perfil ideal lo presenta una mujer casada de mediana edad. de los mecanismos de aquiescencia y de influencia subliminal que suelen crearse. encuentros de control durante la encuesta.

por ejemplo. las más graves son la primera (falta de contacto) y la última (presión por el tiempo). 68 . Una segunda limitación radica en la autoselección de los que contestan. El entrevistador no puede recoger datos no verbales Algunos sectores sociales más marginales no tienen teléfono Los ancianos y las personas con título académico inferior suelen estar muy subrepresentadas en la entrevista telefónica. persona instruida para esta tarea. Podemos distinguir dos casos fundamentales de autocumplimentación : la encuesta de grupo y la individual. de no poder hacer entrevistas “largas” o profundizar demasiado en los temas. 5.El entrevistado se siente menos implicado en la entrevista La relación con el entrevistado se deteriora antes (debe ser mucho más corta que un cara a cara) Resulta imposible emplear en el curso de la entrevista material visual. Cuestionarios autocumplimentados Es el cuestionario que el sujeto rellena solo. La primera ventaja es el enorme ahorro en los costes de investigación. Un caso de devolución vinculada es. Por otro lado su instantaneidad. hace que este instrumento resulte poco adecuado cuando la investigación requiere una información detallada. no podemos contar con la certeza de que no hay errores de cumplimentación. La presión por responder (sobre el entrevistado) y la ansiedad por el correr del tiempo (en el entrevistador) condicionan enormemente la dinámica de la entrevista telefónica y justifican la opinión generalizada de que las respuestas dadas por teléfono son más superficiales que las obtenidas en una entrevista directa. mientras que en la cara a cara una buena entrevistadora pueden conseguir con paciente insistencia que les reciba incluso una anciana indecisa. la inmediatez con la que se obtienen los resultados y se pueden alcanzar grandes muestras de la población. la principal limitación es que no lo rellena el entrevistador. Esta técnica de recogida de datos no ofrece ahorros extraordinarios respecto al procedimiento de la entrevista cara a cara. disponible para las aclaraciones. además el hecho de que se controle que todos los cuestionarios repartidos sean rellenados evita el riesgo de la autoselección. la que se hace en una clase de estudiantes.7. sin que haya un entrevistador. La encuesta de grupo. La limitación del tiempo disponible obliga a una simplificación de los interrogantes. La encuesta individual. El hecho de estar obligados a mantenernos en la superficie. el del censo. el hecho de que se puedan acumular en una única encuesta temas dispares y el consiguiente abaratamiento de los costes. Por otra parte la ausencia de un contacto personal en la entrevista telefónica hace más formal la relación. La entrevista telefónica obliga a la simplificación de las cuestiones y de las problemáticas. De esta forma se resuelven los errores de cumplimentación y la autoselección también se evita. y exige preguntas cortas y respuestas con un reducido número de alternativas. en ella es necesario diferenciar entre situaciones con y sin vínculos sobre la devolución del cuestionario rellenado. convierte este instrumento en muy adecuado para estudios a gran escala. hace menos probables los errores más burdos. De todas las limitaciones.3. en ella se reduden en gran medida las dos limitaciones recordadas antes: la presencia de una persona encargada durante la cumplimentación.

familiaridad con la comunicación escrita Falta de controles sobre la cumplimentación Imposibilidad en cuestionarios complejos Extensión del cuestionario: no puede superar ciertos límites. ésta tiene sentido en una relación dinámica con el entrevistador. que son muy inferiores a los de la entrevista cara a cara.Pasando por último. Tanto en los cuestionarios telefónicos como autocumplimentados es necesario reducir al mínimo las preguntas abiertas. a) Envio del cuestionario con carta de acompañamiento b) Envio de la carta de solicitud c) una segunda carta de solicitud con una copia del cuestionario y d) llamada telefónica de solicitud. Ventajas: Ahorros en los costes Mayor flexibilidad para contestar por parte del entrevistado Mayor garantía de anonimato respecto a la entrevista cara a cara Ausencia de distorsiones debidas al entrevistador Accesibilidad a entrevistados residentes en zonas muy distantes del centro de recogida de datos o aisladas Desventajas Bajo porcentaje de respuestas Distorsión de la muestra debido a la autoselección Nivel académico de la población estudiada: debe ser medio-alto. Características de los entrevistados. El más completo consta de cuatro momentos. Consiste en enviar por correo el cuestionario a una lista de nombres que representan a la población estudiada. 5. estimular y grabar. 69 . En el cuestionario autocumplimentado la ausencia del entrevistador excluye uno de los requisitos previos de la pregunta abierta: en efectos. La tasa de éxito repecto a las contestaciones depende de varios factores.4. buena una del 60% y nuy buena una del 70% o más. adjuntando una carta de presentación de la investigación. el cuestionario a rellenar y un sobre para la devolución con franqueo a cargo del remitente. al caso de la cumplimentación individual sin vínculos con la devolución del cuestionario. El problema principal de esta técnica lo representan las devoluciones de los cuestionarios. Babbie clasifica de adecuada una tasa del 50%. no es fácil superar el 50%. Entrevistas computarizadas (electrónicas) Abordaremos muy brevemente las entrevistas que utilizan el ordenador en la fase de recogida de datos. Extensión del cuestionario.7. podemos mencionar cuatro: Institución que patrocina la investigación. el caso que queremos tratar con cierta atención es el del cuestionario postal. mejor resultado un segmento específico Tipo de solicitud. que puede guiar.

La preparación y la supervisión de los entrevistadores. una de las finalidades del pretest es ver si las preguntas y respuestas son las adecuadas. se añade la ventaja de agilización en el uso de cuestionarios complejos. el investigador debe conocer perfectamente el problema objeto de estudio antes de empezar a redactar las preguntas. Simultáneamente a la encuesta. La ventaja económica más evidente de esta técnica radica en la eliminación de la figura del entrevistador. El entrevistado mismo lee las preguntas en la pantalla y escribe las respuestas en el teclado. Los investigadores –según Schuman y Presser – deberían comenzar con entrevistas de preguntas abiertas y utilizar sus respuestas para construir las alternativas de las preguntas cerradas. El estudio exploratorio. Es indispensable identificar las posibles modificaciones a realizar antes del inicio de la auténtica recogida de datos. El pre-test. Las limitaciones de los cuestionarios autocumplimentados y el de las encuestas longitudinales (saber que le están entrevistando a lo largo del tiempo puede alterar el comportamiento del sujeto estudiado). por parte de una empresa de sondeos. por ello se prevé una especie de ensayo general. Después de la formulación del cuestionario en su versión definitiva comenzará la encuesta verdadera. El contacto inicial con los sujetos entrevistados. Para poder formular las preguntas adecuadas. se contará con supervisores que tengan la función tanto de asesoramiento como de control. es decir. la preparación de los entrevistadores y el contacto inicial con los sujetos que van a entrevistarse.8 ORGANIZACIÓN DE LA RECOGIDA DE DATOS Fases que preceden a la recogida de datos mediante encuesta: las entrevistas exploratorias preliminares. se abre la fase de prueba. lee las preguntas en un ordenador personal portátil y transcribe las respuestas en el teclado. de la dotación de un ordenador portátil para cada entrevistador puede amortizarse rápidamente con el ahorro en las fase de codificación e introducción de los datos antes mencionados. La inversión inicial. el entrevistador puede transmitir por módem al final de la jornada de trabajo su archivo de entrevistas al centro de recogida de datos. tras lo cual se celebrará un segundo encuentro para discutir sobre el funcionamiento del instrumento. etc. 5. el tiempo que dura. El entrevistador. describir su diseño e ilustrar detalladamente el instrumento de investigación. Gracias a la posibilidad del ordenador de gestionar la entrevista según una programación previa. los rechazos. Son determinantes la forma en que se presenta el entrevistador. Si se modifica el pretest debe probarse de nuevo. tanto en términos de apariencia exterior como de motivaciones que expone. En su presentación el entrevistador deberá preocuparse por dejar claro: a) quién ha encargado la investigación b) cuáles son sus objetivos c) por 70 . Después se procede a la redacción del cuestionario. la prueba del cuestionario. Desaparecen las fases de codificación y de introducción de datos. en lugar de disponer del cuestionario en un soporte de papel. Cuando el cuestionario está listo en una versión casi definitiva. se añade otra ventaja importante: la posibilidad de efectuar encuestas longitudinales. A este encuenttro le seguirán las entrevistas de prueba. con la que se conoce el pretest. Problemas. Teleentrevista. el ordenador pasa a ser un instrumento dinámico de interacción entre el centro de recogida de datos y el sujeto entrevistados. encuestas repetidas en el tiempo a los mismos sujetos.Capi. Un primer encuentro entre el equipo de investigación y los entrevistadores. con el objetivo de presentar la investigación.

Puede que ya no sean visibles eventuales errores cometidos en la fase de memorización o de tratamiento de los datos. Además han surgido nuevas técnicas de elaboración estadística que permiten responder hoy en día. Hasta el momento se han desarrollado dos tendencias. Es una propuesta que se ha consolidado en los últimos años en los países en los que la investigación social está más desarrollada y ha producido ya un cuerpo muy amplio de logros empíricos que plantea con urgencia el problema de nuevas formas de síntesis. Análisis secundario Es posible hacer una investigación original con datos ya recogidos por otros. no es el único posible. Por una parte. a partir de los resultados de los estudios y no a partir de los datos. en su conjunto. Durante varias décadas la investigación social ha avanzado según el modelo tradicional del investigador que plantea el problema. Y ello por varios motivos. formula el diseño de la investigación. cada vez son más frecuentes las investigaciones realizadas sobre bases de datos preexistentes. porque normalmente el análisis de los datos se limita a una parte de los que éstos. rigor científico. 5. es una investigación realizada sobre datos de encuesta por muestreo recogidos procedentemente y disponibles en la forma de la matriz de datos original. que a medida que pasa el tiempo va formulando nuevos interrogantes. por los continuos desarrollos teóricos de cada disciplina. Ahorro sobre los costes de investigación. La argumentación para ganarse al entrevistado es la del anonimato. Este hecho ha sido favorecido por el desarrollo de la informática. La comunidad científica también se ha organizado promoviendo agencias que reunen recursos para esta fase tan cara y que luego ponen los datos al servicio de los investigadores. En la actualidad. Metaanálisis. Se entiende por metaanálisis un método de selección. podrían decir. a viejos interrogantes. otros dos elementos son la institución que encarga la encuesta y la figura del entrevistado.qué nos dirigimos precisamente a él d) resaltar la importancia de su colaboración. integración y síntesis de estudios que tienen un mismo objeto de análisis.9.9 ANÁLISIS SECUNDARIO Y ENCUESTAS REPETIDAS EN EL TIEMPO El recorrido de la encuesta por muestreo que se ha presentado hasta el momento. Limitaciones. 5. así como las encuestas repetidas a lo largo de tiempo. así como e) darle seguridad sobre el anonimato de sus respuestas. con nuevos instrumentos de análisis.1. Análisis secundario. se ha hecho evidente que investigaciones efectuadas en el pasado ofrecen aún amplios márgenes para nuevas y originales profundizaciones. posibilidad de realizar estudios de gran envergadura con pocos recursos. La falta de control sobre las fases de la recogida de los datos puede colocar la investigador en la imposibilidad de valorar la calidad de los datos. En segundo lugar. que hace hoy fácilmente accesible y utilizables bases de datos recogidas en cualquier parte del mundo. En primer lugar. 71 . Pueden producir investigaciones hechas a partir de los datos disponibles en lugar de hipótesis teóricas previas. recoge los datos y después los analiza. Ventajas. Hemos presentado el caso en el que el mismo investigador: a) produce los datos y b) los analiza al mismo tiempo.

El primer tipo son estudios transversales y el segundo tipo estudios longitudinales. evitando entrevistar a las mismas personas.1 Estudios transversales 72 . o podemos estudiar a lo largo del tiempo una muestra constituida siempre por los mismos sujetos. en cambio.2. como en el tiempo. es una vía para incluir el factor tiempo en la indagación. (encuestas del CIS). así como recoger la variación en el tiempo de informaciones procedentes de la misma fuente. Otra solución la constituye la encuesta (transversal) retrospectiva. cuando la indagación se repite en el tiempo sobre los mismos sujetos. El metaanálisis aplica procedimientos estadísticos para llegar a síntesis de los resultados de las investigaciones consideradas. Plantean algunos problemas específicos. para asegurar que las posibles diferencias surgidas entre las diversas encuestas se deban a cambios efectivos en la población y no a variaciones en la composición de la muestra. repitiendo en el tiempo el registro de sus opiniones políticas. Debe cumplirse además la condición de que dichas muestras sean comparables entre sí. la única forma de efectuar un estudio longitudinal. sin embargo.9. es el análisis estadístico de una amplia colección de resultados derivados de estudios sobre los individuos. ver cómo varían éstas con el paso de los años. Encuestas transversales repetidas.10. son las encuestas (transversales) repetidas. El problema general de todos los diseños de investigación que incluyen la variable tiempo radica en su coste. El metaanálisis. consistentes en registrar las mismas informaciones en momentos temporales diferentes. sin embargo. que consiste en una encuesta transversal normal en la que a los sujetos se les plantea. La mortalidad de la muestra. hemos apuntado el hecho de que una variable puede “variar” tanto entre los casos. el análisis secundario es el reanálisis de los datos para responder a las preguntas originales con mejores técnicas estadísticas. una serie de preguntas relativas a su pasado. 5. La repetición de la recogida de datos sobre los mismos sujetos no representa. de este modo se pueden relacionar informaciones individuales de distintas fuentes registradas en tiempos distintos. Por ejemplo si queremos estudiar la relación existente entre el conservadurismo político y edad.10 BASES DE DATOS EN ESPAÑA Y EN EL EXTRANJERO. pero no sobre los mismos sujetos. sino en distintas muestras de individuos. como al hablar de experimentos. Tenemos pues la encuesta longitudinal. con el fin de llegar a una integración de los resultados. podemos registrar el conservadurismo político de una muestra de sujetos de distintas edades y ver cómo varía al variar la edad. 5. (panel en inglés). Un estudio efectivo debería repetirse durante décadas por eso se confian estos estudios a instituciones permanentes. reducción del tamaño de la muestra que se registra en cada nueva oleada. es un “análisis del análisis”. o bien para responder a nuevos interrogantes con viejos datos.El análisis primero es le análisis original de los datos de una investigación. 5. Otra posibilidad la ofrece la conexión de base de datos censales y administrativos. Encuestas repetidas en el tiempo Tanto al introducir el concepto de variable. consistente en unir datos individuales de fuentes distintas.

ha publicado también cinco informes sociológicos sobre la situación social en España. género o desigualdad territorial. El cuestionario recoge preguntas de temas variados como: democracia e instituciones políticas. economía. cultura y participación política.960. que se realiza anualmente en 17 países de América Latina. Los temas principales de estos informes sociológicos son la situación económica y política. es una de las encuestas transversales repetidas de referencia internacional. Los barómetros se realizan con una periodicidad mensual o bimensual y recogen información sobre aspectos políticos. es otra institución pública que dispone de datos individuales. aunque su finalidad principal sea la actividad estadística pública y la difusión de datos estadísticos. Las series del American National Election Study ( ANES) que se inició en 1. son también una rica fuente de datos individuales. percepciones y opiniones sobre líderes y grupos políticos o de evaluación de 73 .600 estudios. son entrevistados de nuevo. En el ámbito sanitario. Otra serie de microdatos producida por la oficina censal de los EEUU es cl Current Population Survey (CPS) se utiliza extensamente para el estudio de tendencias.948. además otras series monográficas sobre la pobreza. como son las encuestas. Los datos de estos paneles rotativos son tratados normalmente como estudios transversales repetidos.963 ha realizado más de 1. desde 1. que es trimestral y está dirigida a las unidades familiares la hace el INE desde 1. El Centro de Investigaciones sobre la Realidad Social. La CPDS utiliza un diseño de paneles rotativos que se caracteriza por una muestra de hogares entrevistados durante cuatro meses consecutivos y. y del que se disponen datos individuales transversales. la desigualdad y la marginación social. La Fundación Foessa que se creó en 1. la Oficina del Censo ha producido las IPUMS en consonancia con sus esfuerzos de difusión de los datos. Otro ámbito de reciente aplicación. Entre los numerosos estudios existen diversas series de encuestras transversales de tipo electoral. Los microdatos son los ficheros que contienen los datos individuales de una estadística. Entre las encuestas. el Latinobarómetro. es el relacionado con las cuestiones de defensa y el ejército.En España el Centro de Investigaciones Sociológicas (CIS) es uno de los principales organismos públicos dedicado a la producción de estudios sobre la realidad social y política de España. durante cuatro meses adicionales. realizó encuestas de opinión sobre diversos temas sociopolíticos y para todo el territorio español. El Instituto Nacional de Estadística.965 con el patrocinio principal de Cáritas. A través de la colaboración con el CIS. después de un paréntesis de ocho meses. Desde 1. las reformas sociales. se han llevado a cabo también diversas encuestas nacionales de salud de satisfacción del usuario con los servicios sanitarios. en este caso microdatos.996. económicos y coyunturales. políticas sociales. desigualdad de género. En el contexto latinoamericano. de 1. cabe mencionar la Encuesta sobre la población activa. valores y actitudes sociales y políticas. integración y pactos comerciales. y temas relacionados con el medio ambiente. preelectorales y postelectorales. los cambios de valores. de cultura política o las de coyuntura política y social. distribución de la riqueza. los llamados barómetros de opinión pública.964. Los censos longitudinales que se realizan cada 10 años en Estados Unidos. esta encuesta también se produce en España. Un ejemplo de ello son las muestras de microdatos integrados de uso público.990 a 1. Se trata de ficheros ASCII con estructura de campos que recogen para cada registro individual de la encuesta los valores que toma cada variable. facilitan datos individuales sobre participación política. aunque a menudo considerados en la categoría de estadísticas oficiales.

es otro ejemplo de estudio longitudinal se realiza en 12 países de la UE.000. de tipo privado. se inició en 1. La encuesta mundial de valores. Posiblemente una de las encuestas sociales más conocida es la General Social Servey (GSS) que realiza en EEUU desde 1. se realizan entrevistas cada dos años. la ocupación laboral y el nivel educativo. entre ellos España y que analiza el cambio de la continuidad de las actitudes. Las encuestas longitudinales empezaron en EEUU en el año 1. el acceso a las ayudas de asistencia pública. 74 .970 se lanzó una serie de encuestas que con el tiempo se han ido ampliando tanto por sus objetivos temáticos como por la cantidad de países incluidos en el proyecto. las relaciones sexuales.000 y 2.981 y 1.10. la religión o la moral. Los datos de estas encuestas reflejan la fecha de inicio y salida de las historias laborales de cada individuo. la ocupación. Fue diseñada para investigar los factores determinantes de los ingresos familiares. Las series del Eurobarómetro. como posibles cambios en el estado civil. Otro proyecto europeo de estudios transversales que está en la actualidad en su etapa inicial es la Encuesta Social Europea (ESS).966. Los temas son variados. El tamaño de las muestras de estos estudios oscila entre 1. atributos y comportamientos sociales y políticos de los ciudadanos europeos.990-1. está realizando un estudio panel sobre las desigualdades sociales en Cataluña. es otra encuesta transversal que se repite en el tiempo y que incluye España. Panel study of income dynamics.968 entrevistando a una muestra de 4. centradas únicamente en el ámbito electoral y de pocas oleadas de seguimiento.990 y 2. Otros datos. Las entrevistas personales se realizan cada año a cerca de 6. en 1. el origen étnico. la religión. la familia. entre ellos España.997.000 familias. Entre los estudios del CIS existen algunas series de encuestas longitudinales.972 con una periodicidad anual o bianual.983. la fertilidad. 5. con información sobre cada trabajo específico. y también incluyen variables soicodemográficas como la edad. La encuesta se repitió y fue ampliando el número de países en 1. trayectorias laborales e ingresos ayudas familiares o de amigos y caracteríticas sociodemográficas. El ampliio cuestionario de la GSS incluye aspectos como el empleo. Con la intención de medir el grado de apoyo y las actitudes públicas hacia el Mercado Común Europeo y las instituciones comunitarias. es seguida a lo largo de su vida hasta que exista un cambio en la composición del hogar. han ido creciendo en número de países hasta cubrir los 15 estados miembros de la Unión Europea. de 30 años de duración. El Panel de Hogares de la UE.2 Estudios longitudinales La experiencia en España es escasa debido al alto coste tanto económico como organizativo. o al subsidio de paro. La Encuesta Mundial de valores se realizó en 10 países de Europa Occidental y repetida en otros 12 países en la primera ola entre 1.800 unidades familiares se caracteriza por una sobrerrepresentación de las familias con bajos ingresos. son también recopilados bajo el mismo formato de event history. las relaciones interraciales. La cuarta ola se realizó entre 1.política públicas. e incluye preguntas sobre actitudes y comportamientos.995-1. la Fundación Jaume Bofill. el género.500 entrevistados.993 y otra vez en 1. A escala autonómica. la educación. el Eurobarómetro toca temas variados. es un proyecto comparado que se llevará a cabo cada dos años en 24 países europeos.

el investigador se limita a analizar datos ya recogidos por otros: es el caso de análisis secundario. el empleo. En la NELS se entrevistan a 25.988 y su evolución en los estudios. información sobre sus padres. son las partes vulgares que se subcontratan. pero el proceso de recogida de la información estaba dirigido y controlado paso a paso por el investigador. Había antes una separación entre la función del investigador y la función del entrevistador. Los entrevistadores profesionales realizan diferentes entrevistas en nada de tiempo.. Otro caso muy frecuente es aquel en el que el investigador prepara el cuestionario. 75 .También existen series de estudios con datos longitudinales sobre educación y resultados educativos. ambiente de aprendizaje. Los acontecimientos de los que se compone la trayectoria incluyen la educación postsecundaria. el del análisis de los datos. la experiencia militar.000 estudiantes de último curso de educación primaria en 1. Se separa enormemente el momento de la elaboración teórica. En los últimos años se han manifestado algunas tendencias que se contemplan con preocupación. Los peones de investigación. la formación y disolución de la familia. estilo profesional e impersonal. la difusión de la investigación social que impone muestras cada vez más numerosas. Antes era importante que incluso ante una clara separación de investigador y entrevistador hubiera un contacto entre ambos para saber el entrevistador las motivaciones. 5. y el de la recogida de datos. Actualmente los modelos más comunes son otros dos.11 NUEVAS TENDENCIAS Y NUEVOS RIESGOS La encuesta por muestreo es la técnica de investigación más difundida e sociología y probablemente en la investigación social en general. Esto no existe cuando los datos los facilita una empresa. las empresas especializadas en encuestas. gestionables sólo por organismos especializados. lo que va marginando la investigación local. las causas son varias: la disponibilidad de archivos de datos ya recogidos y listos para su elaboración sobre los fenómenos sociales más diversos. característica de las familias. pero contrata la recogida de los datos a una empresa de sondeos.

son semánticamente autónomas. a partir de las respuestas y de las opiniones expresadas por los entrevistados. una expresión empíricamente registrable de ella. no es el único. LA TÉCNICA DE LAS ESCALAS 6. prejuicios y nociones preconcebidas. Pero la medida de las actitudes si bien constituye el campo de aplicación más importante de la técnica de las escalas. por ejemplo podemos atribuir a las profesiones una puntuación de prestigio social. Una escala es un conjunto coherente de elementos (items) que se consideran indicadores de un concepto más general. cada una tiene un significado 76 . Los primeros intentos de registrar actitudes mediante el uso de escalas se remontan a mediados de los años veinte. o bien establecer una jerarquía de popularidad entre los políticos. ese cuasi indica la imposibilidad de alcanzar el objetivo de atribuir pleno significado numérico a las puntuaciones de las escalas. en la que la unidad de análisis es el individuo.2 Preguntas de respuesta graduada: La autonomía semántica de las respuestas. en tanto que ordenables. En una pregunta cerrada. El elemento es el componente individual.CAPITULO 6. se pueden adoptar tres formas de proponer tales alternativas. temores. Los manuales de metodología y la práctica básica de la investigación social se han centrado durante años en los tres modelos de las escalas de Thurstone. sin embargo nuevos desarrollo teóricos. junto con los nuevos recursos de cálculo aportados por la informática. La primera consiste en presentar unas posibilidades de respuesta que. Podríamos decir que la actitud es el concepto general. empleando una noción ya introducida podemos decir – limitándonos siempre el caso más frecuente – que una escala esta constituida por una batería de preguntas. Actitud es aquel conjunto de tendencias y sentimientos. el concepto general es una actitud y los conceptos específicos son opiniones. han conducido recientemente a la elaboración de modelos estadísticos capaces de producir variables para las que se realiza es “igualdad de intervalos” que equivale a la existencia de una unidad de medida. ideas. la escala es el conjunto de los elementos. es decir. Likert y Guttman 6. por lo que podemos decir que el cuerpo central de las técnicas de la investigación social no va más allá de las escalas cuasicardinales. La opinión es una de las formas en las que la actitud se hace patente. Las variables que produce la técnica de escalas son las denominadas cuasicardinales.1 LA OPERACIONALIZACIÓN EMPÍRICA DE LOS CONCEPTOS COMPLEJOS Con la expresión “técnica de las escalas” traducimos el término inglés scaling y nos referimos a un conjunto de procedimientos creados por la investigación social para “medir” al hombre y a la sociedad. cuando las alternativas de respuesta ofrecidas al entrevistado están ordenadas. la técnica puede ser utilizada no sólo para registrar las propiedades de los individuos a través de sus respuestas a una serie de estímulos en función de las respuestas de los individuos. inquietudes y convicciones de una persona hacia una determinada cuestión. La aplicación más frecuente de la técnica de las escalas en el campo de la sociología y de la psicología social la constituye la denominada medida de las actitudes. es decir. y las opiniones son sus indicadores. Se trata de aplicaciones complejas y de difusión limitada (las escalas de Rasch). Una escala está formada por varios elementos. que en el caso más difundido están constituidos por preguntas. Ante todo.

Dos. Es presumible que la subdivisión que el sujeto realiza mentalmente sobre el continuum consista en una subdivisión de éste en espacios iguales. Nada Tipo de municipio de residencia. Cuasirrural 6. Rural Intervalos de autoposicionamiento: En política suele hablarse de izquierda o de derecha. graduado de 0 a 100 grados. controvertida.Dos o tres veces al año 3. Preguntas con respuestas semánticamente autónomas: ¿Ha ido a la iglesia en el último año? 1. sino ante variables que hemos denominado cuasicardinales. sin embargo. poco. para ser comprendido. Izquierda 1 2 3 4 5 6 7 Derecha 8 9 No sé 99 Querría pedirle ahora su opinión sobre algunas instituciones. Una o más veces a la semana ¿Cuál es su título de estudios? 1. Semirrural 5. Urbano 2. aunque todos los investigadores están de acuerdo en tratarlas como si fueran variables cardinales. bastante. 77 . Educación Primaria 3. hechos o partidos. Preguntas con respuesta de autonomía semántica parcial: ¿Le interesa a usted la política? 1. ayudándose de esta ficha ¿dónde colocaría su posición política?. y al respecto existe un amplio debate entre los investigadores sociales. Por ello no nos encontramos ante verdaderas variables cardinales. por lo que esta técnica debe garantizar equidistancia entre las categorías. en otras palabras no se dispone de una unidad de medida externa. 2.tres veces al mes 5.acabado intrínseco que. Diploma universitario 5. Un segundo caso es aquel en que las categorías de respuestas son de autonomía semántica parcial (mucho. válida para todos los sujetos estudiados así como para el sujeto que estudia. Una vez al mes 4. esta figura representa un termómetro. Mucho 2. Poco 4. puede servirse de ella para darnos su opinión: Mucha simpatía o una opinión muy positiva coloque la ficha a 100 o a 95-90 Mucha antipatía o una opinión muy negativa coloque la ficha a 0 o a 5-10 Opinión intermedia. generalmente asignando a las categorías valores numéricos en secuencia simple ( 1. nada…) Por último están las escalas de intervalos de autoposicionamiento en las que sólo dos categorías extremas están dotadas de significado. Esta práctica es. Educación Secundaria 4. 1. Bastante 3. Licenciatura. En la práctica de la investigación social es bastante común tratar como variables cardinales también las variables de segundo y del primer tipo. este procedimiento es subjetivo. Ninguno 2. en torno a los 50 o 40-60 . no necesita relacionarse con el significado de las otras alternativas presentes en la escala.Cuasiurbano 3. Semiurbano 4. mientras que entre ellas se coloca un continuum en el que el entrevistado ubica su posición. Nunca 2. 3…).

Tradicionalmente el formato de las preguntas individuales de las escalas de Likert está representado por una serie de afirmaciones para cada una de las cuales el entrevistado debe decir si está de acuerdo y en qué medida. Si la escala está compuesta por pocas preguntas conviene ofrecer al entrevistado una amplia gama de posibilidades de respuesta y viceversa. pero también puede ofrecer una escapatoria a quienes prefieren no decantarse o no exponer claramente lo que piensan. en cambio. Ej. obligando al entrevistado a tomar una posición. o bien no hacerlo. 6. estás podrían plantearse como una elección binaria (Si/No). Inicialmente se proponían siete alternativas: muy de acuerdo. por varios elementos. menos fiables.La opción central neutral. No hay acuerdo entre los expertos sobre si un formulación es preferible a la otra. El número de categorías de respuesta. puesto que no consigue discriminar entre las distintas posiciones de los sujetos respecto a la propiedad considerada. que traduciremos como escalas aditivas. Test escolar de 30 preguntas. Se le puede preguntar al entrevistado si está de acuerdo o en contra de una determinada afirmación. bajo está denominación colocamos una amplia variedad de escalas. para ser más exactos. menos precisas. Una escala está compuesta normalmente por varias preguntas o. que. En primer lugar. se plantea el problema de la conveniencia de ofrecer explícitamente al entrevistado una opción central neutral. 78 . En conclusión: las escalas compuestas por un único elemento son menos válidas. El procedimiento es simple e intuitivo. atribuirle un punto a cada pregunta. esta técnica es el procedimiento más utilizado en el estudio de las actitudes y se ha desarrollado y enriquecido notablemente respecto a las propuestas iniciales de Likert. es el primero que se la pasa por la cabeza a un profano cuando debe atribuir una puntuación total basándose en las puntuaciones de pruebas individuales: hacer la suma de los puntos de las pruebas individuales. si la escala está compuesta por muchas preguntas. Nunnally cita tres razones por las que las escalas de varios elementos son superiores a las de un único elemento. después se le pregunta en función de la respuesta si mucho o sólo bastante… aunque está formulación lleva a resultado no diferentes de los obtenidos con una sola pregunta que contenta desde el principio todas las alternativas graduadas. dudoso.3 ESCALA DE LIKERT Likert lo propuso a principio de los años 30. tienen menor peso cuando la escala se basa en más repuestas. Es recomendable la opción “no sé” para evitar seudoopiniones. En segundo lugar. un único registro carece de precisión. cada pregunta está más expuesta a los errores accidentales. Por último. El objetivo de la escala es captar la diversidad entre los entrevistados respecto a la propiedad que es registrada En las entrevistas telefónicas que implica la imposibilidad de utilizar soportes visuales ha contribuido la uso de preguntas formuladas a través de una sucesión de elecciones binarias. parcialmente de acuerdo. La oferta del punto neutral puede favorecer la fidelidad del registro en los casos en los que existan efectivamente posiciones intermedias. Cuando la variable es de autonomía semántica parcial. la complejidad de los conceptos que se pretenden registrar hace improbable su cobertura con un único indicador. de acuerdo.

el coeficiente de correlación cobra un valor elevado. y el coeficiente alfa. se trata de preguntas con respuestas de autonomía semántica parcial. se calcula la puntuación de cada sujeto sobre toda la escala así como el coeficiente de correlación entre esta puntuación y la puntuación sobre cada elemento individual. La coherencia interna de la escala: el Alfa-Cronbach. Esta comprobación se realiza en la tercera fase. Por ello es importante que se incluyan las respuestas “no sé”. La construcción de la escala se produce en cuatro fases: a) formulación de las preguntas b) administración de las preguntas c) selección de las preguntas y determinación del grado de coherencia interna de la escala d) control de la validez y de la unidimensionalidad de la escala. que se basa en la matriz de relación entre todos los elementos y en su número. Se han elaborado algunos criterios para valorar la coherencia interna global de la escala. en contra. Los instrumentos básicos que en ésta se utilizan son dos: la correlación elemento-escala. En general esta técnica exige un alto nivel educativo de los entrevistados. y r es su correlación media. se plantea el problema de valorar la capacidad efectiva de la escala para conseguir el objetivo para el que fue construida. Después se han reducido a cinco. a veces a cuatro. Es muy recomendable seguir una estrategia de tipo deductivo. esto no sólo vale para las escalas de Likert. Remontándonos a la clasificación precedente. que en caso de ausencia total de correlación es cero. y que las afirmaciones no vayan todas en el mismo sentido (para obligar a los entrevistados a reflexionar. Esos conceptos suelen ser complejos. más que inductivo. Se trata de índices que resumen esta coherencia y entre los más conocidos se encuentra el alfa de Cronbach. la premisa que lo sostiene es que todos los elementos que la componen estén correlacionados con un mismo concepto latente. Debemos asegurarnos de la unidimensionalidad de la escala. Para la correlación elemento-escala. el coeficiente tiene un valor bajo. y bajo esta perspectiva han sido elegidos los elementos en la primera fase. que sirve para juzgar el grado total de coherencia interna de la escala. que sirve para identificar los elementos de la escala que no son coherentes con los otros. En la primera fase. Como sabemos. absolutamente en contra. se establecen las dimensiones de la actitud estudiada y se formulan afirmaciones que cubran los diversos aspectos del concepto general que se quiere destacar. Es necesario. si las variables no están correlacionadas. 79 . El coeficiente de correlación es una medida que cuantifica el grado de relación existente entre dos variables cardinales. Una vez sometidos los entrevistados a las preguntas de las escala.parcialmente en contra. contiene múltiples dimensiones que la escala debe ser capaz de cubrir. por tanto definir algún criterio empírico para asegurarnos de que el requisito de una dimensión común a todos los elementos sea efectivamente reconocible incluso en la percepción de los entrevistados. La correlación elemento-escala. Su fórmula es : nr A = ----------1 + r (n-1) donde n es el número de los elementos de la escala. A continuación la escala es sometida a un muestreo de entrevistados (segunda fase). puesto que la coherencia de las respuestas exigirá expresar consenso en unas ocasiones y disenso en otras. Si las dos variables covarían.

una escala para registrar la autoestima. toma un valor normalmente positivo. Un alfa inferior significa que los elementos de la escala tienen poco en común. Elevado número de elementos que son suministrados a una muestra limitada de casos. la de los controles sobre la validez y la unidimensionalidad de la escala. El punto de partida para el análisis lo constituye una matriz de correlación entre las variables observadas. la religiosidad. La escala se aplica. la escala no es sino un aspecto de la investigación. incluso muy distintas. acumulando en el curso de su utilización sucesivas pruebas de validez (validez predictiva. concomitante. Cuarta fase. Las saturaciones. a diversas investigaciones. éste no es suficiente para garantizar la unidimensionalidad de la escala. tenga como fin precisamente establecer que todos los elementos son indicadores de la misma propiedad. se eliminarán los elementos (ítems) que presenten una menor correlación elemento-escala. por grupos conocidos. Por ejemplo. y el objetivo es explicar estas correlaciones a través de la existencia de factores subyacentes. Es posible. su popularidad se atribuye a su simplicidad de su estructura teórica y a su facilidad de aplicación. Eliminará los elementos con correlación elemento-escala demasiado baja. siempre y cuando esta operación produzca un aumento en el valor de alfa. y de este modo elevará la correlación media entre los elementos r. aunque tenga esa apariencia. la correlación entre las notas en álgebra y las notas en geometría de un determinado grupo de estudiantes (si un estudiantes va bien en álgebra también va bien en geometría) podría ser reconducida al hecho de que ambas notas están influidas por un factor subyacente. con el objetivo de crear un instrumento aplicable también a poblaciones distintas de aquellas para la que la escala fue construida. Una técnica muy eficaz para el control de la unidimensionalidad la constituye el análisis factorial. Aunque el procedimiento de “análisis de los elementos”. Al eliminar los elementos más insatisfactorios de la escala. son los coeficientes de correlación entre el elemento de la escala y el factor subyacente. aun en ausencia de unidimensionalidad. Las escalas de Likert son las más difundidas. por ejemplo. En definitiva. sobre la base de esta primera prueba son eliminados los elementos incoherentes y se establece la aceptabilidad de la escala. el objetivo del análisis factorial es reducir una serie de variables relacionadas entre sí a un número inferior de hipotéticas variables independientes entre sí. la ansiedad. por ejemplo. entre 0 y 1. o bien que su número es demasiado bajo. Nunnally sugiere un umbral de 0. en el mismo instrumento de registro (usualmente un cuestionario) pueden coexistir varias escalas. En el planteamiento tradicional la construcción de la escala es una operación que tiene una autonomía propia: se construye. Entre los sociólogos y politólogos se ha ido afirmando un punto de vista más simplificado de la técnica de las escalas: las escalas en este caso están constituidas por una decena de elementos aproximadamente. el investigador tendrá en cuenta tanto las correlaciones elementos-escala como el coeficiente alfa.70 para poder aceptar la escala. Comenzamos por los controles de validez y con este fin introducimos una diferencia entre la aplicación clásica de la técnica de las escalas y una aplicación simplificada. que no requiere los 80 . que hemos presentado en la tercera fase. cuanto más altos son los valores. pero correlacionados entre sí: lo que produciría valores satisfactorios de correlaciones elemento-escala y del coeficiente alfa.Alfa no es un coeficiente de correlación. El análisis factorial. mayor es la coherencia interna de la escala. por frase) como prueba del hecho de que efectivamente es capaz de registrar la propiedad para la cual ha sido construida. etc. Nos enfrentamos ahora al problema de los controles de unidimensionalidad de la escala. que los elementos impliquen dos propiedades distintas.

Es por ello que sea muy posible que dos puntuaciones idénticas correspondan a respuestas muy distintas. Si indicamos con 1 la respuesta positiva y con 0. que luego son tratadas como escalas cardinales. Segundo problema se refiere a la falta de reproducibilidad de la escala. que es uno de los puntos débiles de la técnica de Likert. De ahí la definición de esta escala como escalograma o escala acumulativa. 1110. Cada elemento es una variable ordinal. en principio sólo deberían ser posibles las secuencias: 1111. que adopta el nombre de reproducibilidad ( a partir de la puntuación se pueden “reproducir” las respuestas a cada pregunta). su administración. ¿ y a casarse con él?. de manera que quien ha contestado afirmativamente a una pregunta debe de haber contestado también afirmativamente a todas las que la preceden en la escala de dificultad. Su escala constituye una sucesión de elementos que presentan dificultad creciente.4 ESCALOGRAMA DE GUTTMAN Nace con el fin de proporcionar una solución al problema de la unidimensionalidad de la escala. que serán consideradas “errores”. 0000. uno constituido por respuestas todas positivas y el otro por respuestas todas negativas. 1100. Esta técnica sólo utiliza elementos dicotómicos. En cada aplicación real se producirán también respuestas al margen de las secuencias previstas en el modelo. 6. 2. El problema reside en establecer cuántos errores puede tolerar una escala para poder ser aceptada y cuáles son los procedimientos a seguir para poder minimizar dichos errores. “Escala de distancia social” ¿Estaría ustede dispuesto a aceptar un negro como visitante de su país?. … 5. probablemente también está dispuesto a tenerle como amigo personal. como vecino de casa… mientras que quién no lo aceptaría como amigo personal. Si los elementos de la escala están perfectamente escalonados. En la construcción de la escala de Guttman. a partir de la puntuación de la escala. el análisis de los resultados con la 81 . de “autonomía semántica parcial” en el caso más frecuente de cinco modalidades. Es evidente que quién está dispuesto a casarse con un negro. las respuestas a cada uno de los elementos es una característica típica del escalograma de Guttman. podemos distinguir tres-cuatro fases: la formulación de las preguntas. Desventajas. la puntuación final de la escala es global y no hay manera de averiguar a qué combinaciones de respuestas corresponde una puntuación determinada. a las que se les asigna arbitrariamente 1. Como visitante 1 1 1 1 0 Como vecino 1 1 1 0 0 Como amigo 1 1 0 0 0 Me casaría 1 0 0 0 0 Puntuación 4 3 2 1 0 Las respuestas posibles dan lugar a una matriz dividida en dos triángulos. ¿y cómo vecino de su casa?. Ejemplo. probablemente tampoco está dispuesto a casarse con él. lo que explica se gran éxito en los años 50-60. la negativa. ¿ y cómo amigo personal?.potentes recursos de cálculo de los ordenadores modernos. Esta posibilidad de reducir. Puntuación asignada a cada uno de los elementos. sólo son posibles algunas secuencias de respuestas.

10110 con una puntuación final de 3.eliminación de los elementos que indican demasiados errores. Esto implica que el coeficiente puede estar inflado debido a una distribución marginal de las respuestas muy asimétrica. y la definición de un índice global de aceptación de la escala. Su formulación es la siguiente: Nº errores Nº errores Nº respuestas exactas Cr = 1 . carácter binario de las elecciones. o sea. con el fin de obtener un batería de elementos con creciente dificultad. el hecho técnico y en algunos casos simplificador. Se trata de decidir si son lo suficientemente reducidos como para garantizar la “escalabilidad” de los elementos. descartar los menos coherentes con el modelo. recalculando el índide Cr cada vez. por tanto hay dos errores. Ej. es un error la secuencia correcta debería ser 11100. Edward propuso calcular un índice de repoducibilidad marginal mínima (MMR) con la siguiente fórmula: Suma proporción de respuestas en la categoría modal MMR = ----------------------------------------------------------------N Donde N es el número de elementos de la escala. El coeficiente de reproducibilidad de la escala es la media de los coeficientes de reproducibilidad de cada uno de los elementos. Si la escala presenta un coeficiente de reproducibilidad inferior a 0. Guttman propuso un índice. El procedimiento consiste. Fase de administración. en primer lugar. Las preguntas deben cubrir toda la extensión del continuum de la actitud subyacente. Para la fase de la formulación de las preguntas. remitimos a lo que ya hemos dicho acerca de la escala de Likert sobre la importancia de la reflexión conceptual. Medidas de reproducibilidad. Los errores se identifican comparando la secuencia observada con la correcta teórica que debería obtenerse manteniendo la puntuación total del caso. que mide el grado de desviación de la escala observada respecto a la escala perfecta. El coeficiente de reproducibilidad de cada elemento no puede descender por debajo de su proporción de respuestas en la categoría modal.90. el hecho de que las preguntas deban proyectarse teniendo en cuenta cuál será la forma final de la escala: un conjunto de elementos de intensidad creciente. Se 82 . en identificar los que hemos llamado “errores” de la escala. cualquiera que sean las secuencias de las respuestas.-------------------------= 1 ------------------------------= -------------------------Nº total respuestas Nº elementos x Nº casos Nº total respuestas Este índice se puede tambièn interpretar como la proporción de respuestas “exactas” sobre el total de las respuestas. Este índice indica el valor mínimo por debajo del cual el coeficiente de reproducibilidad de la escala no puede descender. establecer un índice de escalabilidad de la escala y establecer su aceptación o no. las respuestas que no se integran en las secuencias previstas en el modelo. En segundo lugar. Dos observaciones. que llamó coeficiente de reproducibilidad. el objetivo de esta fase es el de evaluar la escalabilidad de todos los elementos. de que las respuestas deben darse de forma binaria. se eliminan progresivamente los elementos con mayor número de errores.

Cuando la actitud se vuelve compleja resulta difícil escalonarla en secuencias acumulativas: las categorías se pueden superponer. Guttman sugirió emplear un número suficientemente elevado de elementos. se le pide a la persona que diga lo que significa. el significado que los conceptos adquieren para los individuos. recomendadas por el mismo Guttman.sugiere. ¿es rápido o lento?. se puede afirmar que la buena reproducibilidad de la escala se debe a una efectiva escalabilidad de sus elementos y no a la distribución marginal de las respuestas. Ahora bien. En segundo lugar. el modelo es rígidamente determinista. Se plantea una serie de preguntas cómo. ¿qué significa esto (madre. como en el caso anterior de la participación política. sólo si el primero. su escala se considera ya superada por las de tipo probabilístico. Con personas dotadas de menor capacidad de verbalización este sistema puede ser limitado. para aumentar la sensibilidad del instrumento se pide que se clasifique la intensidad de cada opinión en una escala de siete puntos. Por último. por lo que los errores al final resultan numerosos. Ésta es la crítica más importante al modelo de Guttman. El objetivo era crear un instrumento para determinar con la máxima estandarización. se basa en las asociaciones que establece el entrevistado entre este concepto y otros propuestos de forma estandarizada a todos los entrevistados. Se han realizado diversas sugerencias para mejorar el rendimiento de esta técnica. También Guttman recomendó inspeccionar atentamente las secuencias erróneas. la técnica de Guttman es aplicable cuando se está en presencia de actitudes bien definidas y escalonables. es también netamente superior al segundo. Normalmente. De hecho. cuando los sujetos estudiados son personas inteligentes. dado que la presencia repetida de una secuencia no prevista en el modelo puede ser síntoma de otra dimensión subyacente bajo esos indicadores. La puntuación final que se obtiene sobre la variable latente sigue siendo esencialmente una variable ordinal: tampoco en este caso tenemos ningún elemento para decir. Nos limitamos a presentar tres. que la distancia entre las puntuaciones 2 y 4 sea igual a la distancia que media entre las puntuaciones 5 y 7. El escalograma de Guttman ha constituido un punto fundamental en el desarrollo de la técnica de las escalas. como las escalas de Rasch. instruidas y con capacidad verbal está forma puede ser válida. comparar el Cr con el MMR. además de ser superior al 0. la respuesta suele ser que conoce el significado pero no sabe explicarlo. mostrando que una escala de sólo cuatro elementos puede producir valores elevados de Cr aunque los elementos sean estadísticamente independientes entre sí. por tanto. 83 . ¿es duro o blando?. en tanto que son poco descriminantes y que elevan artificialmente el coeficiente de reproducibilidad de la escala. La primera es evitar elementos con tasas demasiado elevadas (superiores al 80%) de aceptación o rechazo. En segundo lugar. guerra) para ti?. patria. 6.5 DIFERENCIAL SEMÁNTICO Se desarrolló en los años 50. mientras que la realidad social sólo puede interpretarse correctamente a través de modelos probalísticos que contemplen la posibilidad de error y el paso gradual entre las posiciones. Osgood propone una técnica para extraer los significados que determinados conceptos adquieren para los entrevistados.90. “De esta forma el diferencial semántico es esencialmente una combinación de asociaciones controladas y de procedimientos scaling.

Bello – Feo 4. Honesto. Sagrado – Profano 28. Alto – Bajo 10. Simpático . Punzante – Apacible 49. 1. Justo – Injusto 46. Cercano – Lejano 48. Agresivo – Pacífico 25. Relajado – Tenso 29. Joven – Viejo 15.Deshonesto 41. Limpio – Sucio 9. Fresco – Rancio 44. Valiente – Cobarde 30. de 84 18. Feliz – Triste 22. Caliente – Frio 34. De valor – sin valor 13. Perfumado.Superficial (Tabla 2) “el perfil” es una representación gráfica consistente en unir con una línea la puntuación media obtenida por ese objeto en cada pareja de atributos de la tabla 1. Alto – Bajo 31. sin reflexionar demasiado sobre cada pareja. Fuerte – Débil 8. Ancho .apestoso 40. Grande . Grave – Soprano 38. Amarillo. es decir. Negro – Blanco 20 Amargo – Dulce 21.Azul 5. Mojado – Seco 27.Partido socialista 1 Viejo Fuerte Limpio Rápido Cercano Intolerante Abierto Intransigente Ganador De izquierdas Alegre Ineficiente (Tabla 1) Osgood también mantiene una lista de atributos bipolares que no debe tener relación con el objeto evaluado. Se recomienda al entrevistado que conteste de forma instintiva. Profundo. Rojo – Verde 14. Tranquilo. Agradable. Duro – blando 6.pequeño 3. Vacío – Lleno 24. Activo – Pasivo 42. Áspero – Suave 47. En voz alta. Agudo – Soso 23. Sano – Enfermo 50. pero se pueden obtener también perfiles individuales.desagradable 19. Bueno – Malo 2. y por tanto debe ser siempre la misma: incluso parejas de adjetivos aparentemente ajenos al caso en examen resultan útiles para extraer significados más profundos e incluso inconscientes que tiene el objeto para el entrevistado. Pesado – Ligero 26. Anguloso – Redondeado 39. Dulce – Ácido 7.en voz baja 17. el perfil tiene por objeto el concepto y consiste en las valoraciones medias de los entrevistados.Inquieto 11. Espeso – Fino 35. Luminoso – oscuro 37. Amable – Grosero 16.Estrecho 2 3 4 5 6 7 Joven Débil Sucio Lento Lejano Tolerante Cerrado Indulgente Perdedor De derechas Triste Eficiente .Ofuscado 33. En este caso.antipático 36. Rugoso – Liso 43. Sabroso – Insípido 12.Rico –Pobre 32.Luminoso. Rápido – Lento 45.

Pueden identificarse tres dimensiones fundamentales que subyacen a las diversas opiniones: la evaluación ( relacionada con las parejas bueno-malo. La técnica se ha empleado como instrumento para revelar la autoestima del entrevistado. pidiéndole que coloque en una batería de atributos bipolares primero el objeto cognitivo “Yo. Estos tres factores se enumeran aquí por orden de importancia: el primero es el más relevante y parece representar lo que en las técnicas tradicionales de escalas se denominaba generalmente la “actitud” hacia un determinado objeto cognitivo. la contribución más original del diferencial semántico al reconocimiento de las actitudes resida en el hecho de que puso en evidencia la multidimensionalidad de los significados al introducir. obteniendo así para cada individuo unas puntuaciones globales sobre las tres dimensiones mencionadas. la riqueza del punto de vista multidimensional. tal como querría ser”. La distancia entre los dos perfiles permite conocer el grado de autoestima del sujeto. Osgood y sus colaboradores afirmaban que las tres dimensiones identificadas de la evaluación. En este capítulo no sólo nos ocupamos del estudio de las actitudes. tal como soy” y luego “Yo. Probablemente. la evolución en el tiempo de esta distancia puede emplearse para seguir los progresos del paciente durante una psicoterapia. A partir de esta aportación al estudio de las dimensiones del espacio semántico. 85 . con el objetivo. la exploración de la dimensión de los significados. independientemente de la cultura de los sujetos estudiados. rápido-lento. de la potencia y de la actividad rigen el espacio semántico de los individuos en la gran mayoría de los casos. no tienen como finalidad revelar variables latentes como la religiosidad o la depresión. estas objeciones. aquellos procedimientos elaborados por las ciencias del comportamiento. ni actitudes hacia determinados objetos cognitivos como los partidos políticos o los inmigrantes. positivo-negativo…). Si pedimos a un entrevistado que coloque un determinado objeto cognitivo sobre 30 parejas de adjetivos. No obstante. A través del análisis factorial se puede determinar cuáles son las dimensiones fundamentales que están tras los juicios de una determinada muestra de personas entrevistadas. la actividad (activo-pasivo. tan ambicioso como ingenuo. sino que queremos incluir las principales técnicas de las escalas. los valores sobre cada atributo bipolar pueden sumarse. principalmente entre los años treinta y los años sesenta. las opiniones individuales resultarán estar naturalmente guiadas por la visión de conjunto (el “significado”) que el entrevistado tiene del objeto propuesto. 6. fuerte-débil…). …). La forma más importante de utilización del diferencial semántico es. de “medir al hombre y a la sociedad”. como sucedería con una escala aditiva tipo Likert. De hecho.6 TEST SOCIOMÉTRICO Se propone un objetivo bastante distinto del que tienen en común las técnicas presentadas hasta ahora. es decir. Las técnicas sociométricas nacieron con el fin de revelar las relaciones interpersonales existente dentro de un grupo de individuos. la potencia (duro-blando. no restan interés a la técnica como instrumento para revelar la estructura de las actitudes. y para citar una aplicación de la técnica.los sujetos entrevistados basados en las respuestas de un único individuo. Muchos investigadores no comparten esta afirmación generalizadora. en un sector de estudios que se había movido hasta entonces en una perspectiva unidimensional. sin embargo.

El grupo formado por los sujetos 5. los estudiantes aislados. mientras que el tercero (2. que giran entorno al tema de la preferencia-rechazo hacia al resto de los pertenecientes al grupo. Es de gran utilidad para el estudio de la dinámica de una 86 . las relaciones interpersonales que se establecen dentro de grupos pequeños. Bastin. 8. ¿ Y cuáles son. los otros dos grupos presentan una estructura muy paritaria. elegidos entre los que enseñaban todos los días. mostrando la existencia de dinámicas desconocidas para los educadores. Se construye una matriz cuadrada que tenga en los datos izquierdo y superior la lista de los componentes del grupo. de edad. que se efectua analizando para cada individuo el número de preferencias efectuadas y de rechazos recibidos. 4. los que te gustaría volver a tener en tu clase el año que viene? Indica cuantos quieras. entre tus compañeros. las vías a través de las cuales pasan las informaciones. en cambio. Adivina cuáles son. ¿Cuáles son. Junto con los análisis para definir el estado relacional de los individuos se efectúan luego elaboraciones dirigidas a la ilustración de la estructura sociométrica del grupo. etc. Una primera elaboración la representa el análisis del estatus sociométrico individual. Por ejemplo. pidiéndoles que describieran las relaciones que se habían establecido entre los alumnos: las amistades. y se registran las preferencias/rechazos en las casillas correspondientes a cada pareja. los que te han elegido entre los que querrían tenerte con ellos el año que viene. Y como herramientas para el estudio de la psicología de los grupos. con sistematicidad y procedimientos estandarizados. etc. La elaboración de los datos es tan sencilla como la administración del cuestionario. los líderes. 1. 3. administró un cuestionario sociométrico a las clases: éste relevó con nitidez el mapa de las interrelaciones entre los chicos. las redes de comunicación. entre tus compañeros. poniéndoles en orden de preferencia. más una persona aislada. barreras étnicas. la existencia de estratificaciones sociales. religiosas. los que te han colocado entre los que no desean para el año que viene. es poco adecuado para el análisis de grupos informales. Dos de los tres grupos están conectados entre sí por los sujetos 6 y 11. 4 y 10) es un grupo cerrado. poniéndoles en orden empezando por el que menos deseas. los cotilleos. Indica cuantos quieras.El test sociométrico nace con el objetivo de estudiar. 12 presenta un lider el 12. los subgrupos. El test sociométrico consiste en un cuestionario compuesto por pocas preguntas. que funcionan como intermediarios. y pasados tres meses desde el inicio del curso entrevistó a cuatro profesores por clase. ya que todas las preferencias se producen en el interior. 2. como instrumento para captar la estructura relacional del grupo. el grupo se articula en tres subgrupos (todas las primeras preferencias de los sujetos y casi todas las segundas se agotan dentro de cada subgrupo). para identificar los puntos de tensión. La técnica se revela útil como instrumento de diagnóstico individual. de aislamiento y de afinidad. de genero. etc. la organización jerárquica informal. puesto que el radio de elección del sujeto debe estar limitado. Los profesores se mostraron incapaces de desentrañar las redes de relaciones existentes entre sus alumnos. Eligió 12 clases del primer año de un centro escolar. entre tus compañeros. con el fin de identificar las relaciones de dominación-dependencia. 11. las órdenes. Adivina cuáles son. los que no te gustaría volver a tener en tu clase el año que viene?. Su campo de aplicación ideal lo representa una clase escolar. Se pueden construir sociogramas distintos según las preguntas consideradas. lingüísticas. El test sociométrico se presta en general al estudio de grupos estructurados.

7 ESCALAS UNIDIMENSIONALES Y ESCALAS MULTIDIMENSIONALES En los primeros epígrafes del Capitulo hemos trazado el itinerario recorrido por las ciencias sociales en los diversos intentos de “medir” al hombre y su mente: pero hemos hablado únicamente de las escalas denominadas “unidimensionales”. por ejemplo. esta técnica también se ha utilizado existentes dentro de las organizaciones formales. Considérese. Finalmente. y que se nos pide que construyamos una tabla con las distancias en kilómetros entre las ciudades. Más recientemente. Estas técnicas de análisis toman como punto de partida las correlaciones entre los estímulos. juzgará positivamente también al otro.968 acerca de la opinión de los electores sobre los candidatos a las elecciones presidenciales estadounidenses de ese año. Y consiste en partir directamente de las observaciones. es decir. elaborada por Moreno con un fin de renovación social más que de investigación científica. que recibió un fuerte impulso también por el desarrollo de la informática y de las nuevas posibilidades ofrecidas por los ordenadores para la gestión y el análisis de datos de tipo relacional. interpretadas como medidas de proximidad. ¿a quién elegirías para tu equipo de fútbol?. La problemática a la que se enfrenta la técnica de las escalas multidimensionales se parece al proceso de construcción del mapa a partir de las distancias. la investigación llevada a cabo en 1. basados en la estimación de las capacidades. La tarea es fácil de realizar midiendo con un centímetro las distancias sobre el mapa y convirtiéndolas luego en kilómetros. de las situaciones de investigación en las que se presume que existe una única dimensión fundamental subyacente bajo un conjunto de observaciones. Si. Posteriormente la técnica se ha desarrollado para estudiar también las relaciones funcionales. por ejemplo. Poco a poco su utilización por parte de los investigadores se redujo sensiblemente. eso significa que los dos candidatos están cercanos en el espacio mental de los entrevistados: si un sujeto juzga positivamente a uno. Imagínemos que tenemos frente a nosotros un mapa geográfico. Hay otra forma de enfrentarse al problema de los conceptos complejos subyacentes a un conjunto de observaciones. 6. Otro campo de aplicación ha sido el laboral. La tarea es más difícil que la anterior. preguntándonos cuántas y qué dimensiones latentes están detrás de ellas. Este espacio conceptual puede imaginarse como un espacio físico definido por dimensiones. también podemos mencionar estudios sobre la organización militar. Los autores utilizaron la técnica de las escalas multidimensionales para identificar cuáles eran las dimensiones que estaban tras la opinión expresada. juzga positivamente a no. La técnica nació inicialmente para estudiar las relaciones afectivas existentes dentro del grupo. la aproximación al estudio sistemático de las redes de relaciones sociales ha cobrado un nuevo vigor dentro de la network analysis (análisis de redes). de las competencias y de la utilidad ¿con quién querrías estudiar?.clase escolar. Supongamos que nos enfrentarnos al problema contrario: tenemos la tabla con las distancias en kilómetros y queremos reconstruir las posiciones de las ciudades sobre el mapa. pero existen procedimientos geométricos que nos permiten enfrentarnos a ella. Ésta es la técnica de las denominadas escalas multidimensionales. Las preferencias de los entrevistados fueron recogidas con el “termómetro de los sentimientos”. ¿con quién te gustaría jugar? ¿a quién invitarías a cenar?. La técnica propuesta por Moreno fue muy popular en los años cincuenta y sesenta cuando se empleó en múltiples campos. en parte por la disgregación de la construcción teórica de la “sociometría”. existe una alta correlación entre las puntuaciones obtenidas. aplicado a 12 candidatos a las elecciones primarias. A partir de las 87 .

se trata de identificar cuántas dimensiones tiene este espacio: por último.proximidades-distantes entre determinados objetos se nos plantea el objetivo de reconstruir el espacio conceptual en el que estos objetos son colocados. el problema es comprender si existe un espacio común a todos los que han contestado: a continuación. 88 . Ante todo. es necesario dar un nombre a estas dimensiones.

Sign up to vote on this title
UsefulNot useful