Está en la página 1de 360

COMITÉ

CIENTÍFICO DE LA EDITORIAL TIRANT LO BLANCH


MANUEL ASENSI PÉREZ
Catedrático de Teoría de la Literatura y de la Literatura Comparada
Universitat de València
RAMÓN COTARELO
Catedrático de Ciencia política y de la Administración de la Facultad de Ciencias Políticas y Sociología de la Universidad
Nacional de Educación a Distancia
Mª TERESA ECHENIQUE ELIZONDO
Catedrática de Lengua Española
Universitat de València
JUAN MANUEL FERNÁNDEZ SORIA
Catedrático de Teoría e Historia de la Educación
Universitat de València
PABLO OÑATE RUBALCABA
Catedrático de Ciencia Política y de la Administración
Universitat de València
JOAN ROMERO
Catedrático de Geografía Humana
Universitat de València
JUAN JOSÉ TAMAYO
Director de la Cátedra de Teología y Ciencias de las Religiones
Universidad Carlos III de Madrid
Procedimiento de selección de originales, ver página web:
www.tirant.net/index.php/editorial/procedimiento-de-seleccion-de-originales
ESTRATEGIAS DE
INVESTIGACIÓN EN LAS
CIENCIAS SOCIALES
Fundamentos para la elaboración de un Trabajo de
Fin de Grado o un Trabajo de Fin de Master

FÉLIX REQUENA SANTOS


LUIS AYUSO SÁNCHEZ
Coordinadores y editores

Valencia, 2018
Copyright ® 2018
Todos los derechos reservados. Ni la totalidad ni parte de este libro puede reproducirse o
transmitirse por ningún procedimiento electrónico o mecánico, incluyendo fotocopia,
grabación magnética, o cualquier almacenamiento de información y sistema de
recuperación sin permiso escrito de los autores y del editor.
En caso de erratas y actualizaciones, la Editorial Tirant lo Blanch publicará la pertinente
corrección en la página web www.tirant.com.
Proyecto subvencionado por el Ministerio de Economía y Competitividad, Plan Nacional
de I+D 2013 (Referencia CSO2013-46440-P)

Directores de la Colección:
ISMAEL CRESPO MARTÍNEZ
Catedrático de Ciencia Política y
de la Administración en la Universidad de Murcia
PABLO OÑATE RUBALCABA
Catedrático de Ciencia Política y
de la Administración en la Universidad de Valencia

© Félix RequenA Santos


Luis Ayuso Sánchez y otros

© TIRANT LO BLANCH
EDITA: TIRANT LO BLANCH
C/ Artes Gráficas, 14 - 46010 - Valencia
TELFS.: 96/361 00 48 - 50
FAX: 96/369 41 51
Email:tlb@tirant.com
www.tirant.com
Librería virtual: www.tirant.es
DEPÓSITO LEGAL: V-1247-2018
ISBN 978-84-9169-695-7
MAQUETA: Tink Factoría de Color
Si tiene alguna queja o sugerencia, envíenos un mail a: atencioncliente@tirant.com. En caso de no ser atendida su
sugerencia, por favor, lea en www.tirant.net/index.php/empresa/politicas-de-empresa nuestro Procedimiento de quejas.
Responsabilidad Social Corporativa: http://www.tirant.net/Docs/RSCTirant.pdf
A nuestros alumnos del Master de Sociología Aplicada (MSA) de la
Universidad de Málaga
Presentación
El desarrollo de los nuevos planes de estudios en los diversos grados de
Ciencias Sociales, ha tenido como una de sus consecuencias positivas, el
acercamiento de los alumnos a la investigación, gracias a la implantación
de los Trabajos de Fin de Grado (TFG). Durante el último curso, y como
requisito indispensable antes de la graduación, los alumnos deben realizar
un trabajo original en el que demuestren muchas de las destrezas
aprendidas durante la carrera. Este es el momento de poner en marcha
gran parte de las competencias aprendidas durante su período de
formación. Este trabajo puede ser la excusa perfecta para poder dedicar
tiempo a alguno de los aspectos vistos durante la carrera y en los que no
pudieron profundizar; e incluso puede ser la mejor tarjeta de presentación
sobre lo que pretenden hacer después de la Universidad. En el caso de los
Trabajos fin de Master (TFM), su implantación permite la realización, en
muchos casos, del primer trabajo académico, así como el primer ejercicio
práctico para poner en valor la profesión.
En ambos casos, tanto los TFG como los TFM, su realización supone
demostrar un grado de madurez, al ser capaces de seleccionar un problema
de investigación, concretar unos objetivos e hipótesis novedosos, y aplicar
unas técnicas con las que obtener unos resultados satisfactorios. Para
muchos de ellos es su primera aproximación seria a una investigación
social, lo cual supone enfrentarse a muchas inseguridades. Para nosotros
como profesores, esta tarea ha supuesto un esfuerzo añadido a nuestra
labor como docentes, que nos ha permitido conocer mejor las fortalezas y
debilidades de la formación que impartimos; pero este trabajo, también
nos supone una oportunidad de realizar un mayor número de estudios,
acercar de manera real a nuestros alumnos a los problemas sociales, y
sobre todo, infundirles la pasión por la investigación.
Este libro no es un manual clásico de Ciencias Sociales, de los que se
pueden encontrar excelentes ejemplos en el mercado editorial; tampoco es
una guía al uso de las que suelen realizar en muchas de las Facultades
donde se explica la presentación de estos trabajos. Este libro es sobre todo
un instrumento práctico para recordar y poner en uso el método científico
con el objetivo de obtener investigaciones rigurosas y de calidad. Se trata
principalmente de enseñar a nuestros alumnos a obtener verdades basadas
en evidencias empíricas, que nos permita como científicos sociales, poner
nuestro granito de arena para hacer un mundo mejor. Su organización se
ha realizado pensando en nuestros alumnos y en que ésta es su primera
aproximación a la investigación social. Por ello, durante estas páginas y a
modo de “lazarillos”, se les lleva de la mano en los entresijos de este
proceso de forma, sobre todo, pedagógica, constructiva y práctica.
Este libro es una guía para orientar y ayudar a los estudiantes en sus
estrategias de investigación a la hora de enfrentarse con la tarea de realizar
sus Trabajos de Fin de Grado o de Fin de Máster (TFG/TFM). A lo largo
de los capítulos que siguen se muestran un conjunto de recomendaciones y
consejos para que puedan realizar la investigación necesaria con la que
alcanzar el Grado o Máster. El público al que se dirige son todo tipo de
estudiantes y personas interesadas en la investigación en Ciencias Sociales,
especialmente de los ámbitos de la Sociología, Ciencia Política, Trabajo
Social, Criminología, Economía, Periodismo y Ciencias de la
comunicación, Marketing, etc. La finalidad es obtener trabajos de calidad,
siguiendo las reglas habituales del método científico y abiertos a la crítica
de la comunidad investigadora.
Para ello, en el diseño de este libro se realiza un recorrido desde el
principio hasta el final de todo proceso de investigación social. Es decir,
todos los pasos que hay que dar para ultimar con éxito las respuestas a
nuestras preguntas y objetivos de investigación. Esta presentación se hace
de forma minuciosa, explicando bien todos los pasos y con multitud de
ejemplos. Su estructura abarca desde los primeros pensamientos
relacionados con la necesaria curiosidad investigadora: La Curiosidad
Sociológica, hasta cómo es el mejor modo de exponer nuestra investigación
ante la comisión o el tribunal que lo tiene que evaluar. Están todos los
pasos necesarios para realizar una investigación social. Para su redacción,
hemos contado con la colaboración de acreditados investigadores, todos
ellos doctores, con una dilatada trayectoria como investigadores y
docentes, así como directores de trabajos de fin de grado y de master.
Queremos agradecerles a todos ellos la donación de sus indicaciones en la
redacción de esta obra, en muchos casos se trata de consejos personales y
particulares propios de su propia experiencia como profesores y tutores. El
seguimiento de todas sus recomendaciones es el mejor camino para obtener
un excelente TFG o TFM.
ESTRUCTURA DEL LIBRO
El libro está estructurado en dieciséis capítulos. Cada capítulo está
dedicado a una de las partes que hay que realizar para poder llevar a cabo
una investigación social que pueda ser presentada como TFG/TFM. A su
vez, cada uno de estos capítulos está realizado por un investigador
diferente, todos ellos son profesores e investigadores vinculados o
relacionados con el Departamento de Sociología de la Universidad de
Málaga. En cada capítulo se presentan de forma clara y directa los trucos,
consejos y recomendaciones para poder realizar una primera aproximación
a los diferentes aspectos abordados por un investigador novel durante este
proceso.
El primer capítulo, realizado por José Fernando Troyano Pérez, es un
ejemplo de explosión de imaginación. Este capítulo nos muestra la
necesidad de tener, antes de nada, una actitud hacia la curiosidad
investigadora. Es la curiosidad sociológica. Este es el primer paso para
todo lo demás: tener inquietud para preguntarnos sobre los fenómenos
sociales que se producen a nuestro alrededor y que pueden ser fuente de
investigación.
El segundo capítulo está realizado por Luis Ayuso Sánchez: nos propone
un conjunto de reglas para que se puedan formular las correctas preguntas
de investigación. Este capítulo ayuda a bucear en el inmenso océano de las
cuestiones que podemos estudiar y que pueden ser convertidas en
investigación para nuestro TFG/TFM.
El tercer capítulo ha sido desarrollado por María Dolores Martín-Lagos
López, profesora que actualmente se encuentra en la Universidad de
Granada. Esta profesora nos da las claves y las reglas de escritura de un
buen TFG/TFM de forma que nuestro texto cumpla con los estándares
internacionales que se exigen en estos trabajos académicos. A veces no se
trata solo de saber, sino sobre todo de saber transmitirlo y escribirlo.
El siguiente capítulo está realizado por Marta Ortega Gaspar y nos
orienta en una de las tareas más importantes como es la revisión
bibliográfica que es prescriptiva realizar siempre al comienzo de toda
investigación social. Esta revisión nos ayudará a descubrir todo lo que hay
hecho sobre nuestro objeto de estudio. Al mismo tiempo que nos ayuda a
centrar y ajustar nuestra propia investigación.
Una vez que se ha revisado la bibliografía y hemos pensado sobre cuál es
nuestro tema de investigación es necesario que se elabore un marco teórico
en el que podamos encajar los datos que vamos a obtener. Este es el objeto
del quinto capítulo, realizado por Félix Requena Santos. Se trata de la
elaboración del marco teórico que presente las “brújulas” necesarias para
orientar toda nuestra investigación.
Junto con la elaboración del marco teórico es necesario concretar el
diseño del objetivo de investigación y las correspondientes hipótesis que
vamos a comprobar con en nuestro estudio. Este es el contenido del
siguiente capítulo realizado por la profesora Mercedes Fernández Alonso
que nos muestra las estrategias para materializar nuestros objetivos y darle
forma de hipótesis para que puedan ser posteriormente verificadas. Si los
objetivos e hipótesis están bien planteados gran parte del estudio ya está
conseguido.
El capítulo séptimo está realizado por Livia García Faroldi y nos muestra
un conjunto muy importante de fuentes de las que se pueden extraer datos
secundarios para nuestra investigación. No siempre se pueden obtener
datos de primera mano directamente por el investigador. Sin embargo, esto
hoy día no es un problema insalvable, dado que existen unos
extraordinarios bancos de datos que proporcionan información sobre,
prácticamente, cualquier aspecto de la realidad social que nos interese.
Bien, pues este recorrido lo facilita mucho este capítulo.
La profesora Verónica de Miguel Luken nos adentra en el diseño de las
muestras que se pueden realizar si nuestra investigación requiere de ellas.
En este capítulo se muestran los tipos y los procedimientos muestrales que
se pueden realizar para una investigación social, tanto muestras de carácter
probabilístico, como no probabilístico. Estas últimas son fundamentales en
toda investigación de carácter cualitativo, que son muy habituales en los
TFG y TFM.
El profesor Gonzalo Herranz de Rafael, en el capítulo noveno nos
muestra un recorrido sobre las principales técnicas de obtención de datos
que existen en las Ciencias Sociales. Este es un capítulo muy importante
porque nos enseña cómo son las diferentes formas en las que se puede
proceder para obtener datos primarios con los que realizar nuestra
investigación.
En el capítulo décimo, realizado por Rafael Grande Martín, nos explica
cómo podemos operacionalizar los conceptos en nuestra investigación. Este
profesor nos explica cómo debemos construir y elaborar indicadores
correctos con los que podamos resumir mucha información cuantitativa y
realizar la verificación de nuestras hipótesis.
El capítulo undécimo, realizado por Juan Ignacio Martínez Pastor,
Profesor de la UNED, nos muestra las diferentes formas de graficar
nuestros datos. Cómo son las mejores estrategias para convertir nuestros
datos complejos en una representación que se pueda ver con una simple
mirada. Explicando cuándo y cómo hay que hacerlo para sean lo más
eficientes posible y lleguen al mayor número de públicos.
En el capítulo duodécimo, el profesor Juan Sebastián Fernández Prados
nos muestra cómo hay que plasmar los datos numéricos para que tengan la
relevancia y claridad necesarios para que se comprendan fácilmente. Se
trata de aprender a sacarle el mayor partido a los números, saber leer e
interpretar los datos, vinculándolos con el marco teórico.
El capítulo décimo tercero nos orienta sobre las posibilidades del análisis
cuantitativo. Está realizado por el profesor Antonio M. Jaime Castillo, que
nos muestra un recorrido por los programas que podemos utilizar y los
procedimientos estadísticos que debemos seguir para analizar nuestros
datos una vez que los hemos obtenido.
El profesor Alberto Vallejo Peña nos descubre en el siguiente capítulo los
procedimientos necesarios si nuestra investigación requiere de una
tratamiento cualitativo de los datos. Realiza un recorrido por las diferentes
técnicas de análisis cualitativo de las que podemos disponer para nuestra
investigación. El objetivo es responder al qué hacer una vez que se han
realizado las transcripciones de documentos primarios obtenidos.
Una vez que hemos realizado nuestra investigación tenemos que explicar
los resultados poniéndolos en relación con otras investigaciones, este
proceso de discusión con los datos es lo que nos propone el Profesor Luis
Ayuso Sánchez en el capítulo décimo quinto. Esto nos ayudará a que
nuestra contribución sea clara y precisa, ayudándonos a realizar las
conclusiones de nuestro estudio. Pretende, sobre todo, destacar lo que
nuestro trabajo aporta a la comunidad científica.
Y llegamos al final, ahora solo nos queda hacer la presentación pública
de nuestra investigación. La forma en la que tenemos que hacerlo nos la
muestra el profesor de la Universidad de Granada, José Manuel García
Moreno. La importancia de la correcta presentación de los resultados es
una de las partes más importante de nuestro trabajo. Se trata de cómo
vamos a mostrarlo para que sea evaluado de forma excelente.
El libro es el resultado del trabajo de investigadores que han podido
realizar su tarea de investigación gracias a la financiación proporcionada
por el Ministerio de Economía y Competitividad (CSO2013-46440-P)
llevada a cabo en el Departamento de Sociología de la Universidad de
Málaga. Los autores quieren agradecer al Ministerio la importante ayuda
prestada en la financiación de la actividad investigadora.

F. Requena y L. Ayuso
Málaga y Madrid, 2017
Capítulo 1
EL PRINCIPIO DE TODO TRABAJO DE
INVESTIGACIÓN SOCIAL: LA CURIOSIDAD
SOCIOLÓGICA
José Fernando Troyano Pérez
Universidad de Málaga

“No temas ser extravagante en tus ideas, pues todas las ideas ahora aceptadas
fueron en su día extravagantes”
B. Russell (1951)

1. EL PODER DE LA IMAGINACIÓN Y LOS LÍMITES DE LA


FANTASÍA
Sabemos al menos desde los estudios de Robert Merton (1910-2003)
sobre la ciencia y los científicos que cualquier academia es especialmente
reacia a admitir ideas novedosas. En La estructura de las revoluciones
científicas (1962), Thomas S. Kuhn (1922-1996) escribió: El fracaso de las
reglas existentes es el que sirve de preludio a la búsqueda de otras nuevas
(Kuhn,1975: 114-115). No obstante, la historia de la humanidad no es la
del progreso continuado. El abandono de medidas o explicaciones erróneas
y la aceptación de otras más acertadas y útiles es resultado de la
acumulación de conocimientos, del talento de quienes las piensan y
experimentan y de unas circunstancias sociales que permiten la novedad.
Las condiciones sociales hacen probables o improbables, admisibles o
inadmisibles, preguntas y respuestas.
La expresión imaginación sociológica se debe a Charles Wright Mills
(1916-1962), es el título de su última gran obra publicada en 1959 y la
expresión que utilizó para referirse a lo que también se ha llamado
perspectiva sociológica, una forma de mirar y, consecuentemente, unas
posibilidades de ver lo que otras formas de mirar no ven. Es fácil definir
una ciencia del siguiente modo: una forma de pensar la realidad como no
se había pensado anteriormente y descubrirla. La imaginación es esencial
para pensar o mirar de forma diferente, pero en Sociología, como en
cualquier otra Ciencia, no se puede dar rienda suelta a la imaginación, no
se puede ser fantástico, porque en definitiva no se trata de imaginar una
realidad sino de descubrir la realidad. La imaginación sociológica es un
instrumento para ser más realistas en nuestra comprensión y
representación de la realidad social. Para evitar que la imaginación
conduzca a la fantasía está la realidad. Para que sirvan al descubrimiento y
no a la fantasía, las proposiciones sociológicas, como las científicas en
general, deben ser verificadas o verificables.
Quien se proponga hacer un trabajo de investigación deberá tener en
cuenta la anterior convención para evitar la especulación. Pues en
definitiva, un trabajo de investigación es un intento de responder a una
pregunta añadiendo en la respuesta un conocimiento o un supuesto
novedoso u original, de ahí que los trabajos de investigación, una vez
definido su objeto o su propósito, continúen exponiendo las aportaciones
(las respuestas, en definitiva) que investigaciones anteriores han
proporcionado.
El desarrollo de la Ciencia ha ido en paralelo con el descubrimiento de
una realidad de la que anteriormente no éramos conscientes. Con el
desarrollo de las Ciencias Naturales es más evidente que con otras Ciencias
más abstractas como la Física. Sabemos que la gripe es causada por un
microorganismo al que llamamos virus, sabemos que las infecciones son
causadas por otros organismos, tan reales como los seres humanos, pese a
que no son visibles a simple vista y pese a que hemos ignorado su
existencia durante siglos. Para poder observarlos nos valemos de
microscopios, como para poder medir la temperatura nos valemos de un
termómetro, pero la diferencia entre ambas formas de observación es
importante. El virus, como ya se ha dicho, es un organismo directamente
observable gracias a una lente, mientras que la temperatura no es
directamente observable sino a través del efecto que produce en un
instrumento que nos permite medirla por uno de sus efectos. La
investigación sociológica se enfrenta siempre a un problema de observación
y de medida (validez y fiabilidad), pero que es necesario mencionar porque
es un condicionante de la investigación desde su principio. Porque se
parecen más a la temperatura que a los virus, podemos discutir
indefinidamente qué son el racismo, el machismo, la familia o el amor
romántico, si, como suele ocurrir, hay distintas definiciones, y para cerrar
el acuerdo o el desacuerdo acerca de a qué realidades llamamos de un
modo u otro y cómo evolucionan, necesitamos algo más que un nombre,
necesitamos un instrumento que mida, si no el fenómeno, la institución o
la relación en sí mismos, sí al menos uno o varios de sus efectos. Las
técnicas de investigación social son esos instrumentos de observación y
medida.
Pero para construir una buena técnica de medición o de observación no
basta la tecnología, hace falta también la teoría. (La relación entre teoría y
técnica en Sociología es comparable a la relación entre Física e Ingeniería).
No se puede observar un virus con un telescopio, ni una galaxia con un
microscopio. Si no se sabe qué es un virus ni se sabe qué es una galaxia,
sólo por una casualidad afortunada e improbable se acertará con el
instrumento de observación y medida. Dicho de la manera más sencilla
posible: el primer problema de toda investigación empírica será siempre
qué medir. Un conocimiento del fenómeno a observar es necesario antes de
diseñar el instrumento de observación y medida. Que los conceptos que
estudia la Sociología, como el racismo, el amor o la distinción, sean más
parecidos en la metodología aplicable para su análisis a la temperatura que
al virus, no debe llevar a confundir el efecto con el concepto. La
temperatura puede medirse por uno de sus efectos (como la dilatación del
mercurio), pero la temperatura no es la dilatación del mercurio. Una cosa
es el concepto y otra diferente los medios para medirlo.

1.1. El primer instrumento de investigación es una teoría. Teoría y


técnica se refuerzan mutuamente
El primer límite lógico que cabe establecer para delimitar el campo de la
investigación sociológica es el temporal. Cabe predecir cómo serán la
sociedad china o la familia occidental en el año 2099, pero quizás para
entonces no existan ni China ni familias ni humanos en este planeta,
además y principalmente, cualquier previsión para esa fecha es irrefutable
ahora y no verificable hasta dentro de ocho décadas. Los grandes
sociólogos del siglo XIX cometieron un mismo gran error sin perjuicio de
su grandeza. A la postre, los errores se olvidan y se recuerda al sociólogo
por sus aciertos y no por sus errores. Hicieron algo que se comprende que
lo hicieran, pero que no beneficia al conocimiento: predecir el futuro.
Descubrir planetas habitables es ciencia, imaginar cómo vivirían los
humanos en ellos es ficción.
Karl Marx y Herbert Spencer fueron a su manera herederos intelectuales
de Charles Darwin, pero o ninguno de ellos entendió lo que la evolución
natural implicaba o, si lo entendieron, no lo aplicaron en sus escritos. La
obra de Charles Darwin daba cuenta de cómo evolucionaban las especies,
pero no de cómo evolucionarían en el futuro. No podía hacerlo por su
propia lógica, ya que no hay determinismo ninguno en la evolución. (Las
jirafas no alargaron sus cuellos para alcanzar el alimento, sobrevivieron las
que tenían cuellos más largos y alcanzaban el alimento.) Que los
asalariados industriales y sus empleadores protagonizasen un conflicto no
conducía a una forma de solución del conflicto, ni la revolución ni el
bienestar generalizado eran previsibles salvo como juicio de probabilidad.
La Sociología moderna manifiesta todavía esa vocación por predecir el
futuro, cuando por ejemplo prolonga una tendencia de años pasados hacia
años futuros. Los economistas lo hacen utilizando la conocida condición
ceteris paribus (manteniéndose constantes las demás circunstancias), pero
es de sentido común comprender (1) que rara vez las circunstancias se
mantienen constantes y (2) que no sabemos cómo reaccionarán las demás
circunstancias a los valores que tome en el futuro la que sí sabemos que
varía (ya que la sociedad es un sistema, donde la variación en uno de sus
componentes conlleva la variación en los demás). El resultado es el mismo
para ambas, ni la Economía ni la Sociología aciertan en la predicción del
futuro.
En la segunda mitad del siglo XX, Raymond Aron (1905-1983),
sociólogo y politólogo francés, decía algo simple y acertado, que treinta
años antes (1930-39) las predicciones de Karl Marx parecían cumplirse, y
treinta años después (1960-69) parecían más equivocadas que acertadas.
La imaginación sociológica carece de perspectiva temporal suficiente, de
ahí que si excede los límites de su tiempo se convierta en fantasía, en
ciencia ficción y no en ciencia empírica. El homo sociologicus es
inconcebible —imposible tal como es— sin el habla, facultad que poseemos
hace aproximadamente cincuenta mil años, aunque como especie
existíamos mucho antes. Así que nuestra sociabilidad es condición humana
desde hace aproximadamente 500 siglos, y si nos referimos a instituciones
como la familia o a fenómenos como la religión hemos de acortar el
tiempo mucho más, hemos de ser conscientes, en definitiva, de que
nuestros registros son limitados, de que estudiamos fenómenos con
relativamente poco recorrido y relativamente mucha velocidad. La
imaginación sociológica debe permanecer activa constantemente, porque lo
que ayer imaginó y hoy comprobó que era real, mañana dejará de serlo y
necesitará ser imaginado nuevamente. El único recurso del investigador
contra esta evidencia es la concreción, que nos exige dirigir nuestras
observaciones hacia una realidad lo más reconocible posible. Quienes se
inician en el análisis sociológico deben evitar referencias indefinidas, que se
detectan fácilmente por el uso de adverbios, como antiguamente,
mayormente, etcétera. ¿Cuándo es antiguamente, hace 50, 100, 500 ó
5.000 años? ¿Cuánto es mayormente?
El objeto de la imaginación sociológica es la realidad social; si no
ponemos límites a esa realidad, la imaginación no descubrirá realidades
ocultas, construirá fantasías sin posible verificación empírica.
2. DESCUBRIR LA REALIDAD SOCIAL
Descubrir la realidad social es un proceso, que, en beneficio de la idea
que merece subrayarse y de su utilidad para el trabajo sociológico, se
sintetiza a continuación en unas ideas y algunos ejemplos.
El ejemplo clásico es el conflicto entre Galileo y Bonifacio VIII. Cuando
el Papa exige a Galileo que se retracte de lo que ha estado defendiendo
toda su vida (Galileo era ya anciano), el científico se defiende apelando a
los hechos, invita al Papa a que observe el cielo durante varias noches y
por sí mismo compruebe que mirado desde el mismo punto cada noche
verá un cielo distinto, prueba inequívoca del movimiento. La respuesta del
Papa es firme, ningún movimiento se puede observar si no existe y no
existe porque es contrario a las Escrituras y lo enseñado por los Padres de
la Iglesia. El científico apela a los hechos, el gobernador de la iglesia apela
a la autoridad. Sin imaginación, muchos actuamos como lo hizo Bonifacio
VIII, apelamos a una forma de desautorizar lo que ignoramos o nos resulta
extraño. Por el prejuicio, hacemos de nuestra visión de nuestra realidad
social la única realidad social posible, hacemos el hecho norma.

2.1. El ejemplo de la fecundidad


Primero el profesor informa de los siguientes hechos:
En el año 2012, dos países europeos de tradición católica, Italia y
España, tenían tasas de fecundidad de las más bajas del mundo, 1,4 y 1,3
respectivamente, mientras que dos países musulmanes y africanos, Níger y
Malí, tenían las tasas de fecundidad más altas, 7,6 y 6,6 respectivamente.
La tasa de fecundidad informa del número medio de hijos por mujer. (Su
valor se obtiene dividiendo los nacimientos de un año por el número de
mujeres comprendidas entre 15 y 49 años.)
Seguidamente, el profesor hace la siguiente pregunta:
¿Quiénes eligen más voluntaria o libremente los hijos que tienen, las
europeas (italianas y españolas) o las africanas (nigerianas y malíes)?
Nueve de cada diez respuestas coinciden: las europeas. ¿Por qué? Porque
pueden elegir y las africanas no. ¿Por qué? Porque su religión y el sistema
patriarcal secuestra la voluntad de las africanas y las priva de libertad para
elegir.
Pregunta el profesor: ¿Cómo lo sabéis, lo habéis leído, habéis vivido en
esos países, os lo han contado ellas?
Las respuestas que continúan se convierten en un rompecabezas con dos
coincidencias principales: la religión y la falta de medios para el control de
la natalidad. Hasta que alguien lleva la contraria y responde: nadie es más
o menos libre que otra persona por tener más o menos hijos. El profesor
interviene en apoyo de la imaginación sociológica de esta nueva
perspectiva:
En efecto, es difícil responder a una pregunta sobre la libertad, porque es
probable que no tengamos una misma idea de la libertad. Podemos
establecer una definición convencional, pero, si queremos ser realistas, si
realmente queremos saber si la gente se siente más o menos libre o más o
menos feliz, hay algo que debemos hacer necesariamente, preguntar a
aquellos de quienes queremos saber si se sienten y en qué medida libres o
felices, no podemos saberlo sin ellos. No sé cuántos hijos querrán tener las
nigerianas y las malíes, pero sí sé cuántos tienen y cuántos quisieran tener
las españolas. Siendo la fecundidad 1,3, sabemos que la mayoría tiene un
solo hijo, y también sabemos, porque se ha preguntado, que a la mayoría
de las españolas les gustaría tener dos (la parejita). Así sabemos que
tenemos la mitad de hijos que nos gustaría tener, no por el sistema
patriarcal, no por la influencia de la religión, pero sí por la influencia de
otras circunstancias que condicionan nuestra voluntad y limitan nuestra
libertad.
El anterior es un ejemplo de prejuicio, pues sin duda la religión
condiciona muchos comportamientos en todo el mundo, sin duda está
violentamente vigente el sistema patriarcal en muchas regiones, pero
deducir de ello que hay una jerarquía de libertad y bienestar según la cual
nosotros somos más libres y felices y los otros lo son menos es un prejuicio
que impide una realista y mensurable visión de la realidad social. El
siguiente quiere ser un ejemplo del modo en que la tradición convierte al
hecho en norma, la norma se convierte en normalidad y lo que sale de la
normalidad se convierte en desviación.

2.2. El ejemplo del matrimonio


Pregunta el profesor: ¿Son ustedes partidarios de que las personas
contraigan matrimonio libremente con otras personas sin más limitaciones
que la edad y el estado mental?
Los alumnos responden todos afirmativamente, son partidarios de la
libertad de casarse entre adultos en su sano juicio. A continuación, el
profesor plantea la siguiente cuestión: ¿Qué votaría cada uno de ustedes en
un referéndum para incluir o no el matrimonio polígamo en nuestro
ordenamiento jurídico? Se opone a ello una mayoría, incluso aclarándoles
que esa forma de matrimonio no es entre un hombre y más mujeres sino
también entre una mujer y más hombres, y ampliando el supuesto a la
posibilidad del matrimonio en grupo. La idea les parece disparatada
(quizás lo sea llevarla a práctica), pero lo significativo no es esa
calificación, sino la feroz oposición mayoritaria a que esa forma de
matrimonio se legalice, con la limitación de la libertad de matrimoniar de
los adultos que ello supone. Quizás para ellos y ellas el matrimonio no sea
como una pera o una manzana, pero tampoco es como un cuadro de
Velázquez o una sinfonía de Brahms. Los artistas pueden pintar o
componer lo que gusten, pero las instituciones sociales no pueden ser lo
que queramos (al menos, no lo que quieran otros). Es muy significativo,
porque no son lo que queremos que sean pero sí son lo que hemos hecho
que sean y, por lo general, más lo que otros han hecho que sean sin contar
con nosotros.
Conclusión: no es objeto de la imaginación sociológica lo que debe ser ni
lo que es conveniente que sea, sino lo que es. La imaginación sociológica
no es un instrumento para idear posibles sociedades sino para descubrir
realidades sociales existentes.

2.3. La lección de Montesquieu


No hay determinismo alguno en la obra de Montesquieu (1689-1755),
porque su pretensión fue siempre explicar la historia y no anunciar hacia
dónde se dirigía el hombre, pero sí hay en toda su obra un relativismo bien
temperado que le permitió, como la lupa a la imaginación del detective,
registrar lo que otros no registraban. Este instrumento, el método
sociológico, se hace explícito y se aplica en una obra temprana, Cartas
persas. El objeto de esta maravillosa obra es la Francia de la época (1721).
Cartas persas es un conjunto de casi cuarenta cartas que varios persas se
escriben. Uno de ellos, Usbek, reside en Francia, los hay que viajan por
Europa y quien escribe desde el serrallo de Ispahán. Montesquieu utiliza el
género epistolar, muy de moda en la época, y la atracción por oriente, para
hablar a los franceses, sus lectores, de su propio país de un modo original,
a través de la mirada y las consideraciones de un oriental. La sutileza que
Montesquieu demuestra para enseñar a los franceses una Francia que era
invisible para ellos, se pierde cuando describe el lugar y las costumbres de
oriente, donde los sentidos dominan la razón. Porque Montesquieu conoce
Francia, su método es aplicable, mientras que Oriente es para él una
fantasía cuya realidad ignora (un ejemplo de la necesidad de un
conocimiento teórico anterior a la aplicación técnica o al procedimiento).
Este método de análisis de la realidad social y política se compone de dos
principios: extrañamiento y distanciamiento objetivo.
Hacer escribir a un persa sobre Francia es una forma de hacer saber a los
franceses (primeros lectores de la obra) que muchas cosas que consideran
naturales, lógicas o beneficiosas, no lo son, que si las ven así es porque han
convivido con ellas, que las aprecian porque son suyas o las rechazan
porque son extranjeras, que sus juicios sobre la realidad social en la que
viven no son acertados, y que no se han dado cuenta de ello precisamente
porque se han familiarizado con ella. Lo que Montesquieu persigue es que
los franceses se extrañen de cómo es su país. Para este propósito podía
haber elegido igualmente a unos nativos americanos o a unos chinos, la
elección de los persas fue una cuestión de mercadotecnia. No podía elegir a
italianos o a daneses, ya que su cultura no es tan diferente como para
extrañarse de las muchas cosas que un persa se extraña, no hay contraste
suficiente. El distanciamiento objetivo es, en parte, la idea que se expresa
diciendo que para saber cómo es el bosque hay que tomar distancia y verlo
en su conjunto. Sabemos que esta idea es tan acertada como la contraria,
pues lo que ocurre dentro del bosque es bosque, y no es visible si se toma
distancia. Se ha utilizado este principio para argumentar la vigencia de
estados nacionales multiculturales como España. España existe y abarca
desde Navarra y sus sanfermines hasta las Islas Canarias y sus playas
porque así nos ven los alemanes, los suecos, los italianos, etcétera. En la
distancia, ellos ven unidad donde nosotros vemos diversidad. Pero, aun
admitiendo que este caso fuese un buen ejemplo de la objetividad de la
distancia, no cabe para cualquier otra realidad social.
El distanciamiento no es distancia física sino pérdida de subjetividad,
pues la distancia sola no conlleva sin más la objetividad (Montesquieu no
es objetivo cuando describe la sociedad persa), hace falta conocimiento sin
prejuicio y el prejuicio es posible tanto para lo lejano como para lo
próximo.
3. HECHOS Y SIGNIFICADOS
Imaginémonos viajeros de planetas lejanos y distintos paseando por París,
donde vemos a dos hombres besándose y acariciándose en un puente del
Sena. Como nuestra información es incompleta acerca de las costumbres
del país y no sabíamos de esta costumbre de besarse en público personas
del mismo sexo asignado, para informarnos decidimos, sabiendo que es
costumbre entre sociólogos aplicar este método para conocer la realidad
social, hacer una encuesta: preguntamos a quienes pasan por el puente qué
están haciendo estos dos hombres. Preguntados 1200 transeúntes que han
sido testigos del beso, se obtienen los siguientes resultados:
372 personas (31%) han contestado “se están besando”; 264 personas
(22%), “exhibiéndose”; 144 personas (12%), “una indecencia”; 96
personas (8%), “provocando”; 84 personas (7%), “pecan”; 120 personas
(10%), “nada que a mí me importe” y 120 personas (10%) no contestan.
Al enviar los resultados a otros viajeros alienígenas de visita en Teherán,
éstos responden: los iraníes desaprueban mayoritariamente las caricias
entre hombres y condenan a prisión a quienes las practican, en público o
en privado, pese a que una minoría (28%) no se pronuncia al respecto. Los
viajeros de París y de Teherán llegan a una misma conclusión: los
fenómenos sociales son lo que los humanos piensan, lo que creen o lo que
sienten, variables que dependen del país, de la ciudad y de otras variables.
Pero uno de estos viajeros lee Las reglas del método sociológico de Emile
Durkheim (1858-1917) y escribe a sus colegas viajeros lo siguiente:
Al leer Las reglas del método sociológico de Emile Durkheim he
recordado El espíritu de las leyes de Montesquieu. Los hombres hablan,
escriben y piensan cientos de lenguas, pero todos hablan, escriben y
piensan gracias a la lengua. También la gravedad es distinta en nuestro
planeta, como lo es en la superficie de la Luna, pero la gravedad es una
fuerza universal, objetiva y mensurable, externa e inevitable, que con
distintas medidas nos afecta en cualquier lugar del universo. El hecho es
que en París esos hombres podían besarse libremente sobre el puente. Pese
a las distintas opiniones de los parisinos, se besaban porque la sociedad
parisina les permite hacerlo. El hecho es que en Teherán dos hombres no
pueden besarse, porque, pese a las distintas opiniones de los teheraníes, la
sociedad local no les permite hacerlo.
Reflexionando sobre lo aprendido, los viajeros pasean por un quai del
Sena, donde se encuentran con otros dos hombres que se besan.
Sintiéndose protegidos por la tolerancia de la sociedad parisina, preguntan:
¿Se sienten ustedes felices por poder besarse y vivir su sexualidad y sus
sentimientos libremente? Uno de los hombres responde: Se confunde,
estamos rodando un anuncio publicitario. Mi compañero y yo somos
actores, no amantes.
Conclusión: los fenómenos sociales son como la gravedad, una fuerza
objetiva, mensurable, ineludible, pero no externa, señala una relación entre
los cuerpos (la Luna, la Tierra, el Sol, etcétera), una interinfluencia y no
una inducción.
Hace algunos años una autoridad pública argumentó en contra del
matrimonio homosexual que una pera es una pera y una manzana es una
manzana. Por si alguien no lo entiende: un matrimonio es una relación
institucional entre un hombre y una mujer y no es ninguna otra cosa. Nada
hay natural en la comparación, pese a que pueda parecerlo a quien la hizo.
Supongamos que definimos un matrimonio según el código civil,
necesitamos saber según qué código civil (fecha y país) para saber cómo
está definido el matrimonio. Los códigos cambian, como las instituciones,
salvo en un caso, cuando son sagrados y, por definición, nos está
prohibido cambiarlos. Más de cuatro siglos después la autoridad civil sigue
razonando como lo hizo Bonifacio VIII frente a Galileo. Lo que el ejemplo
evidencia es que esta referencia aparentemente natural oculta, consciente o
inconscientemente, una lógica no natural sino social, una referencia a lo
sagrado. Si una institución es sagrada, no podemos modificarla. Este
argumento se ha expuesto en una sociedad secularizada y lo expuso una
autoridad de un estado aconfesional. El hecho es que el matrimonio
homosexual es una institución reconocida por el ordenamiento jurídico y
por algunas sociedades, gracias a que, para una mayoría o para una
minoría influyente de esas sociedades, el matrimonio no es sagrado sino
convencional.
Conclusión: no hay hecho social mensurable y externo sin significado
comprensible e interno. En palabras de Emilio Lamo de Espinosa: Nuestro
asombro ante la naturaleza se satisface con la explicación externa de los
sucesos; nuestro asombro ante la sociedad sólo se satisface cuando
llegamos a comprender a los actores (Lamo de Espinosa, 1990: 121).
4. LA DIMENSIÓN SOCIOLÓGICA: LA LÓGICA DE LO
SOCIAL
Se ha mencionado anteriormente que la obra de Charles Darwin y la
teoría de la evolución tuvieron una influencia en las primeras
imaginaciones sociológicas. La influencia de las Ciencias Naturales llega
hasta el presente, siendo Edward Osborne Wilson, un estudioso de las
hormigas cuyos conocimientos inspiraron la Sociobiología, su más
conocido teórico. La penúltima defensa de este biólogo académico y
sociólogo practicante, antes que las humanidades, ha sido la consilience (en
inglés), una extrapolación de los métodos y conceptos de las Ciencias
Naturales a las Ciencias Sociales, que acabaría con la confusión actual del
conocimiento que tiene como objeto al ser humano según Wilson. La
siguiente frase resume la idea de partida:
La historia es en la actualidad una rama fundamental del saber por
derecho propio, hasta el menor detalle. Pero si se pudieran conocer diez
mil historias de humanoides en diez mil planetas parecidos a la Tierra, y
del estudio comparado de tales historias surgieran pruebas y principios
empíricos, la historiografía (la explicación de las tendencias históricas)
sería ya una ciencia natural (Wilson, 1999: 19).
¿Pruebas y principios empíricos de qué? Si lo que Wilson quiere insinuar
es que se encontrarían uno o varios Taj Mahal, uno o varios Monet, uno o
varios Napoleón, una o varias Chicago, etcétera, cuesta creerlo, pero sobre
todo no tiene pruebas, se trata sólo de una suposición o una creencia. Si lo
que quiere decir es que animales semejantes tendrán formas de actuar,
pensar y sentir semejantes, tiene razón. Los iraníes (antiguos persas) son
extraordinariamente semejantes a los franceses porque son la misma
especie animal, pero tienen una historia diferente. De hecho, los
chimpancés son extraordinariamente semejantes a los humanos, pero
también tienen una historia y una sociabilidad diferentes. Incluso las
hormigas son semejantes a los humanos en algunos aspectos, pero tienen
una historia y una sociabilidad mucho más diferentes. Entre las muchas
causas de su historia y su sociabilidad que comparten hormigas,
chimpancés y humanos, está la gravedad, sin la cual ni estas especies ni la
nuestra ni el universo existiríamos, pero, si hubiese no ya diez mil sino diez
mil millones de veces una explosión inicial, no hay razones para suponer
que fuese de la intensidad justa para que la materia escapase de la
atracción del núcleo de la explosión y, a la vez, no lo hiciera reducida a
diminutas partículas, ni para suponer que miles de millones de años
después unos seres conscientes de la historia recogerían pruebas y
principios empíricos.
La naturaleza humana es una, desde que existen los humanos. Pero lo
que piensan, lo que sienten, lo que hacen y lo que evitan hacer, sentir y
pensar los humanos, no es efecto sólo de su naturaleza, sino de la forma en
que interactúan. La historia, la organización social y la cultura no son el
resultado necesario o inevitable de la naturaleza humana. La investigación
social no puede buscar en la naturaleza humana las causas de los
fenómenos sociales, aunque también hay causas naturales para los mismos,
sino en su propio campo. Las obras de Mozart o de Shakespeare existen
porque oímos y hablamos, pero ni hablar ni Mozart ni Shakespeare son
efectos sólo de nuestra naturaleza. Quienes confundan la Biología con la
Sociología no harán ni una ni otra.

4.1. Tres actos ejemplares: comer, amar y alucinar


Ante dos imágenes cotidianas podemos intuir fácilmente determinantes
biológicos: un niño come patatas fritas con salsa de tomate, dos jóvenes
hacen el amor (en la playa, durante la puesta de sol, en verano, mientras
oyen una melodía de moda, etcétera). Ambos hechos podrían ser
explicados como manifestación de funciones biológicas: nutrirse y
procrear, o físicas: cargar y descargar energía. Imaginemos una fórmula
científica que sentencie: el niño se nutre, la pareja procrea. O esta otra
referida a cualquiera de ellos: y = a+b–1, donde y es la satisfacción
obtenida y a y b las variables más significativas. Ambas fórmulas resultan
inadecuadas para explicar qué hacían y porqué los respectivos sujetos, pues
suponen una función de utilidad universal (la satisfacción obtenida) como
explicación del sexo y la ingestión de alimentos. Por eso hay algo en ellas
que choca al sentido común: todo aquello que nos hace pensar que ni el
niño come para perpetuar su vida ni la pareja hace el amor para perpetuar
la especie, y que ninguno de ellos actúa guiado (consciente o
inconscientemente) por la maximización de su satisfacción.
Incluso en circunstancias donde lo artificial parece más difícil hay un
espacio para que se manifieste, como es el caso de las experiencias de
“retorno de la muerte”. Quienes se han recuperado de estados orgánicos
vegetativos recuerdan experiencias coincidentes: un túnel, una luz brillante,
el reencuentro con familiares y amigos fallecidos, etc. Hay una explicación
científica: en esos estados, el organismo produce una sustancia química
alucinatoria, que origina diferentes visiones según la civilización de
pertenencia del sujeto. El túnel, la luz y el reencuentro son comunes entre
los miembros de la civilización judeocristiana. Explicación química de la
que se deduce que hasta las situaciones existenciales límites están
configuradas culturalmente.

4.2. Conceptualizando
Se puede afirmar, acertadamente, que comemos para sobrevivir como
individuos y amamos para perpetuarnos como especie (o que el moribundo
alucina por efecto de una sustancia química segregada por el cerebro), pero
como explicación causal (por qué) e interpretación (qué sentido tiene para
el sujeto) resulta una explicación insatisfactoria. Admitimos sin más esta
explicación para la nutrición y el apareamiento de las demás especies, pero
no de la especie humana, porque de lo contrario tendríamos que deducir
que el celibato y la anorexia son efecto de una anormal constitución
biológica. Amarse en las condiciones anteriormente descritas es propio de
una generación y una cultura, se suele hacer para satisfacer un deseo
personal y/o compartido, que responde a razones psicológicas y biológicas,
pero donde intervienen otras: usan (o no) preservativos, hacen el amor de
una manera aprendida artificialmente, cuyas variantes podemos dejar a la
libre imaginación de cada uno, precisamente porque amar a la manera
humana no es un acto determinado biológicamente, no es sólo un saber
innato sino aprendido en sus formas, socialmente condicionado.
El campo de la Sociología es, pues, el resultante de cuatro categorías de
circunstancias: condicionantes y determinantes externos, determinaciones y
elecciones personales. En base a ellas, la Sociología se diferencia de otras
ciencias en el grado de abstracción y generalización de sus teorías y en su
capacidad de intervención. La proposición: el organismo humano necesita
alimentarse para recuperar la energía que consume, es abstracta y
universal, predicable de todos los organismos humanos, en cualquier
tiempo y lugar. La explicación sociológica de porqué los musulmanes no
comen cerdo, los occidentales comen comida basura, los ascetas orientales
apenas comen, los africanos mueren de hambre o los jóvenes occidentales
padecen anorexia, se sitúa en un nivel de abstracción y generalización
distinto: señala causas externas al individuo que no son predicables de la
especie (a diferencia de las Ciencias Naturales) y que no se concretan
diferencialmente en cada individuo. Ésta es la razón de que la intervención
social (política, asistencial, terapéutica, etc.) sea mucho menos efectiva que
la sanitaria o la psicológica: no actúa sobre el individuo sino sobre los
factores externos que le condicionan, más difíciles de combatir. Se pueden
curar los casos de anorexia o bulimia, se puede tratar al delincuente, pero
no hay tratamiento para actuar eficazmente sobre los factores que originan
la anorexia, la bulimia y el delito. Se necesitarían un enorme poder y un
enorme consenso para solucionar los males que afligen secularmente a la
humanidad. En las sociedades complejas esos grados de poder y consenso
son difíciles y, consecuentemente, también lo es el control social absoluto.
En consecuencia, la intervención es siempre parcial, los problemas sociales
no tienen solución y los fenómenos sociales rara vez son el resultado
deseado de las acciones sociales.
Con los ejemplos comer y amar queda de manifiesto que hay un campo
para las Ciencias Naturales, para la Psicología y para la Sociología: las
formas de amar y comer, que están artificialmente construidas por la
interacción. Aunque para comprender en su integridad un fenómeno social
necesitemos de explicaciones de diferentes ciencias, la ciencia no se
desarrolla por integración sino por especialización. Nuevas interrogantes
dan lugar a nuevas respuestas, que requieren nuevas aproximaciones a una
misma realidad.

4.3. La mejor explicación y el mejor ejemplo: la lengua


¿Qué es el lenguaje? Algunos pájaros reproducen la voz humana, el perro
reacciona como el amo espera cuando le dice ciertas palabras, un
chimpancé puede recoger uno entre varios objetos de una mesa si le damos
el nombre, algunos insectos se informan entre ellos de dónde conseguir
alimento, los delfines y otros mamíferos marinos se comunican. Aun así,
por lo que sabemos, ninguno de ellos posee un lenguaje. No sabemos hasta
ahora que ninguna otra especie posea la capacidad simbólica que al ser
humano le proporciona su cerebro. Nuestras cuerdas vocales nos hacen
capaces de emitir sonidos como ningún otro animal y nuestro cerebro nos
permite asignar un nombre a cada novedad que descubrimos, algo
desconocido entre los animales. Gracias a eso hablamos desde hace unos
miles de años, desde mucho después de estar naturalmente capacitados
para hacerlo. El retraso se debe a que tuvimos que aprender a hacerlo, no
nos enseñó a hablar la madre naturaleza, ni enseñó a los poetas árabes el
amor romántico, ni a los hombres la creencia en lo sobrenatural. Así que a
las cualidades naturales que nos capacitan para hablar, para enamorarnos
o para creer en lo ignorado, se suma una circunstancia específicamente
humana y específicamente social que nos hace hablar: aprenderlo de otros
y construir con ellos nuestra lengua y nuestra condición. No es sólo el
hecho de que existan diferentes lenguas, es también el hecho de que seamos
parlantes lo que es resultado de la interinfluencia humana. Éste es el campo
de la Sociología, su dimensión, de la que el lenguaje es su mejor ejemplo,
no sólo porque es aprendido y construido, sino también porque a través de
él nos construimos (o destruimos) a nosotros mismos, no más allá de
donde nuestra naturaleza nos permite, pero sí más allá de donde ella nos
ha situado.
Conclusión: ahora sabemos cuáles no pueden ser preguntas sociológicas,
aquéllas a las que cualquier otra ciencia dé respuesta suficiente, y sabemos
cuáles sí pueden ser preguntas sociológicas, aquéllas que puedan
explicarse, al menos parcialmente, como efecto de la mutua influencia o
interinfluencia de los seres humanos.

4.4. Una consideración con dos ejemplos sobre el lenguaje de las Ciencias
Sociales
Dependemos del lenguaje para explicar relaciones causales y comprender
significados relativos a lo que hacemos, pensamos y sentimos. Por eso es
más que importante usar el lenguaje con propiedad, de un modo que diga
o escriba lo que se quiere decir o escribir y no otra cosa. Conviene tener
muy en cuenta la denuncia de Karl Popper (1902-1994) de los usos del
lenguaje de las Ciencias Sociales: En las llamadas Ciencias Sociales y en
Filosofía, la degeneración en verbalismo impactante, pero más o menos
huero, ha llegado más lejos que en las Ciencias Naturales (Popper, 1997:
79). Cabe añadir al menos un peligro más al señalado por Popper, las
expresiones supuestamente conceptuales y realmente prejuiciosas y
perjudiciales. Los dos ejemplos que continúan muestran entre muchos
otros cómo en ocasiones el lenguaje de las Ciencias Sociales pervierte su
legítimo propósito.
Uno de ellos es la palabra subsahariano (reconocida por la RAE) para
referirse a los países y sus habitantes situados al sur del Sahara. El prefijo
sub tiene dos significados posibles: (1) bajo algo o debajo de algo, como en
subterráneo o submarino, y (2) inferioridad o subordinación, como en
suboficial o subalterno. Ninguno de ellos hace comprensible que se aplique
a determinados territorios y sus habitantes. No son Brasil ni los brasileños
subamericanos sino sudamericanos. De hecho, si de Baracaldo viajo a
Sidney, no bajo a Australia, como al parecer ocurre con otros viajes de
norte a sur. Sólo hay una explicación posible para conciliar que desde más
al norte se baje a Kenia y no a Australia: el significado inferioridad o
subordinación está implícito en lo que aparentemente es sólo movilidad
geográfica.
El segundo ejemplo es más perverso, la expresión segunda generación de
inmigrantes, referida a personas que han nacido en el país que así les
llama. ¿De dónde han inmigrado los que como yo han nacido en un
hospital de mi ciudad, de mi región o de mi país? La expresión no hace
referencia a lo que hacen quienes así llamamos sino a cómo los calificamos,
lo que, se quiera o no, es una forma de influir en lo que hacen, en lo que
piensan y en lo que sienten. También es una forma de no reconocer una
obviedad, que muchos somos de la n generación de inmigrantes (salvo los
conquistadores y los colonizadores).
5. SOBRE EL PROCEDIMIENTO DEL TRABAJO
SOCIOLÓGICO
5.1. Preguntas y respuestas
No todo trabajo sociológico parte de una pregunta que conduce a una
hipótesis que, a su vez, necesita ser verificada empíricamente para validar o
invalidar la hipótesis. Un informe sociológico es un retrato de una realidad,
uno entre los posibles perfiles de la estructura social. Un informe acerca de
la familia responde, ciertamente, a una pregunta: cómo son las familias en
el ámbito del que se informa. En un informe sociológico no se sigue el
procedimiento pregunta-hipótesis-observación de la realidad-análisis-
respuesta o conclusiones, en el cual, a cada uno de los anteriores guiones
corresponde una reflexión teórica sin la cual no es posible el paso a la
siguiente etapa, y en la observación de la realidad hay aplicada una técnica
sin la cual no sería posible la recogida de la información apropiada. No
obstante, también el informe, aparentemente sólo una recogida técnica de
información, precisa de un conocimiento no sólo técnico sino también
teórico. Imagínese que un objetivo del informe es medir el patriotismo: ¿se
mide por la exhibición de banderas después de una victoria deportiva o de
qué otro modo? Depende necesariamente de qué entendamos por
patriotismo. Dependen del supuesto teórico previo los resultados obtenidos
por la medición. Casos como este ejemplo se dan en muchos informes,
como cuando se pregunta en la encuesta base de qué creencia religiosa es la
persona encuestada. Ya que se cree en pero no se cree de, ya que todos
creemos en algo y todos somos miembros de alguna comunidad, esta
pregunta no es sobre las creencias religiosas sino sobre la identidad
religiosa. Las religiones inspiran creencias e identidades, las creencias de
quienes se identifican con la misma religión pueden ser muy diferentes, las
identidades también. ¿De qué realidad nos desinforma esta pregunta?
Ocurre que toda ciencia nueva está cohibida por una intuición demasiado
esclava de la técnica que practica alguna ciencia más antigua (Russell,
1989: 181).
Conclusión: incluso para informar de la realidad social más evidente, no
hay método ni técnica acertados sin el soporte de un conocimiento o un
supuesto teórico. El acierto del supuesto influye en el de la técnica y a la
inversa.
Lo hemos visto y oído en tantas ocasiones en televisión y radio, cuando el
periodista pregunta al político y éste le contesta: “buena pregunta”, que ya
sabemos qué significa, el entrevistado esperaba la pregunta y lleva
preparada una respuesta que considera le dejará en buen lugar. Con el
trabajo científico tal y como se hace público ocurre algo parecido, el
investigador ha dado por concluido su trabajo cuando tiene una respuesta.
Pero ni el público ni el evaluador sabrán posiblemente cuál era la pregunta
inicial, si se iba en busca de la India y se descubrió América. Pese a ello, la
mejor manera de alcanzar el objetivo es empezar con una buena pregunta.
Lo que hace buena a una pregunta es la respuesta. La pregunta es buena, si
permite obtener una respuesta. Muchas preguntas son legítimas porque son
efecto de curiosidades o inquietudes perfectamente comprensibles, pero no
es posible contestarlas. Por eso, es más que útil elegir una pregunta que se
pueda contestar.
Cuando una curiosidad le estimula, el investigador supone una
explicación, establece relaciones entre la observación que ha despertado su
curiosidad y las posibles causas, construye hipótesis. La hipótesis es una
respuesta provisional a la pregunta estímulo, una relación supuesta del
fenómeno observado. Durante la investigación, la suerte de la pregunta y
de la hipótesis son interdependientes. Ante las dificultades de confirmar la
suposición (verificar la hipótesis), es probable que la pregunta inicial
cambie. Se sabe cómo empieza una investigación, pero no se sabe cómo
concluye. Si se tienen la pregunta y la hipótesis, falta acceder a la realidad
para confirmar el acierto de la hipótesis o rechazarla, sea a través de una
base de datos disponible o de un registro hecho por el mismo investigador.
Pero éste es un tema que será tratado en otro capítulo, aquí sólo se subraya
que teniendo ojos, oídos, olfato, tacto y gusto, recibimos estímulos a los
que el cerebro da forma, como las ideas dan forma a la información que
nos proporcionan las entrevistas, las encuestas, las estadísticas, etcétera.
Para terminar, un ejemplo no científico, pero apropiado. Julio Cortázar
(1914-1984) publicó en 1959 un cuento llamado Las babas del diablo, que
Michelangelo Antonioni (1912-2007) hizo película en 1966, Blow up. Las
diferencias entre ambos relatos no son relevantes para el ejemplo (Cortázar
sitúa la acción en París y Antonioni en Londres), ambos son una reflexión
sobre la realidad y la apariencia. En la película, un fotógrafo sale a primera
hora de la mañana de dormir en un albergue para transeúntes. Ha pasado
allí la noche para conseguir fotos que ilustrarán un libro sobre la violencia
humana. Con su cámara, se dirige a un parque donde a cierta distancia ve
a una pareja (hombre y mujer) en lo que parece un juego de deseo y
seducción entre dos enamorados. Un buen final para un libro sobre la
violencia, un cierre de esperanza, nos induce a pensar el relato. El
fotógrafo hace numerosas fotos de aquella escena de amor. Horas después
descubrirá, tras una detenida reconstrucción fotográfica de la escena, que
lo que ha registrado no es una escena de amor sino un asesinato. El
método sociológico y las técnicas de recogida y análisis de datos son como
una cámara y la imaginación sociológica es una forma de conciencia,
ambas conjuntamente nos ayudan a descubrir la realidad más allá de la
apariencia que nuestros deseos, nuestros prejuicios, nuestros miedos y
nuestra ignorancia nos ocultan.
6. BIBLIOGRAFÍA
Aron, R. (1976). Las etapas del pensamiento sociológico. Vol. 1. Buenos Aires: Siglo Veinte.
Kuhn, Th. S. (1975). La estructura de las revoluciones científicas. Madrid: Fondo de Cultura
Económica.
Lamo de Espinosa, E. (1990). La sociedad reflexiva. Sujeto y objeto del conocimiento sociológico.
Madrid: Centro de Investigaciones Sociológicas.
Merton, R. K. (1977). La sociología de la ciencia: investigaciones teóricas y empíricas. Madrid:
Alianza Editorial.
Montesquieu, Ch. L. (1986). Cartas persas. Madrid: Tecnos.
Popper, K. (1997). El mito del marco común. En defensa de la ciencia y la racionalidad. Barcelona:
Paidós.
Russell, B. (1951). “The best answer to fanaticism: Liberalism”. The New York Times, 16 de
diciembre de 1951.
Russell, B. (1989). La perspectiva científica. Barcelona: Ariel.
Wilson, E. O. (1999). Consilience. La unidad del conocimiento. Barcelona: Galaxia Gutenberg y
Círculo de lectores.
Capítulo 2
LA ELECCIÓN DEL TEMA DE
INVESTIGACIÓN
Luis Ayuso Sánchez
Universidad de Málaga

La Ciencia es el conocimiento organizado


Herbert Spencer

1. LA IMPORTANCIA DE LA PREGUNTA DE
INVESTIGACIÓN
El inicio de cualquier investigación siempre es la fase más complicada. A
veces el tema de investigación nos viene dado, y la dificultad consiste en
hacer operativas las demandas de investigación que nos han hecho. Esto
suele ocurrir cuando se reciben encargos de instituciones, empresas o es el
propio profesor el que nos delimita el tema de estudio. Sin embargo, la
cuestión se torna aún más difícil cuando somos nosotros mismos los que
tenemos que elegir qué investigar. En ocasiones podemos tener el tema de
investigación muy claro pero en otras muchas es probable que dudemos.
Esta decisión es crucial pues condiciona todo el proceso posterior.
Determinar la pregunta de investigación es una de las cuestiones que más
ansiedad suele crear a alumnos e investigadores. No es fácil enfrentarse al
folio en blanco, y siempre lo más difícil es comenzar.
Decidir qué investigar es importante, ya que supone concretar el tema al
que se van a dedicar muchas horas y esfuerzo. Detrás de esta decisión se
encuentra especificar qué se quiere investigar y qué es lo que se busca o se
pretende conocer. No existe ninguna fórmula para conseguir buenas
preguntas de investigación, depende de la imaginación del investigador, de
sus inquietudes, de su curiosidad y de las ganas de descubrir aspectos
nuevos sobre el cómo y el por qué del funcionamiento de la realidad social.
Esta es una tarea en la que nos entrenamos leyendo mucho, reflexionando
y con la propia experiencia de investigación.
Lo habitual es hacer preguntas de investigación sobre cuestiones cercanas
a nuestra realidad social. Los sociólogos clásicos intentaban conocer las
leyes universales por las que se regía el universo social, pretendiendo
descubrir normas generalizables muy vinculadas con la historia y las
grandes teorías. Marx (2017) se preguntó por los orígenes de la
desigualdad, intentando demostrar que ésta tenía un origen social y no
sobrenatural. Durkheim (1989) se preguntó por el aumento de suicidio en
la Francia de la época y sus razones, buscando si éste se debía a causas
exclusivamente individuales o era la propia sociedad la responsable de esta
decisión tan privada. Por su parte Weber (1969), se cuestionó sobre por
qué el capitalismo había surgido en algunas zonas de Alemania e Inglaterra
donde se había dado una concentración de capital, pero no había nacido
antes en las ciudades estado italianas del Renacimiento, el Asia de Marco
Polo, o la España del siglo de oro. En su análisis vinculaba esta
concentración de capital con la explicación cultural y religiosa.
A partir de Merton (1989) y su revisión del estructural funcionalismo, se
impulsó el desarrollo de preguntas de alcance medio, que estuvieran más
ceñidas a su contexto de aplicación y que propusieran soluciones
específicas a los problemas planteados. Su impulso vino de la mano de las
demandas que aparecen de los medios de comunicación para medir la
opinión pública, de la sociedad de consumo, para conocer el
comportamiento del consumidor, y de las propias instituciones que
empiezan a ver en la Ciencia Social una herramienta válida para planificar
actuaciones y prever comportamientos sociales. Algunos estudios como los
del propio Merton se basaron en preguntas sobre los efectos en la
población del no cumplimiento de ideal construido alrededor del sueño
americano; el llamado informe Coleman (1966) trata de responder a por
qué existían tantas diferencias en el fracaso escolar entre las diferentes
escuelas de Estados Unidos, así como las diferencias de resultados entre
población blanca y negra. Más recientemente, el estudio de Portes (2012)
se pregunta sobre si la economía informal o sumergida propia de áreas de
alta inmigración en Estados Unidos puede ser buena para la economía real
del país.
Todos los investigadores podemos plantearnos diferentes preguntas de
investigación sobre los temas que nos interesen en la actualidad, desde el
medio ambiente, la familia, la educación, la desigualdad y exclusión social,
los delitos y su victimización, los medios de transporte, la religión, etc.
Debemos abrir nuestra imaginación para buscar preguntas originales,
innovadoras y prácticas. Las preguntas de investigación pueden aparecer
siempre que nos cuestionemos aspectos concretos de nuestra realidad
social. A veces no es fácil encontrar una buena pregunta, pero una de las
cuestiones que se debe tener en cuenta son los aspectos que hay que
intentar evitar, Rojas (2006: 59) los concreta en:
– Presentar enfoques especialmente teóricos y desligados de la realidad
específica de los problemas que interesa estudiar.
– Relegar a un segundo término los problemas trascendentes para
grandes grupos sociales.
– Concentrar las tareas de investigación sobre problemáticas
ampliamente exploradas y que por épocas se convierten en modas.
– Copiar modelos extranjeros para estudiar situaciones nacionales sin un
análisis adecuado de la realidad en la que se desarrolla la sociedad o los
grupos sociales objeto de estudio.
– Utilizar técnicas e instrumentos de investigación novedosos, pero de
poca utilidad para captar datos válidos o pertinentes para el análisis de
problemas concretos.
– Emplear inadecuadamente técnicas e instrumentos cuyo resultado es la
obtención de información sesgada.
2. ALGUNOS CONSEJOS PARA HACER BUENAS
PREGUNTAS DE INVESTIGACIÓN
Aunque no existen fórmulas, si se puede recurrir a consejos que dan
diferentes investigadores y que pueden ayudar al investigador novel a elegir
la pregunta de investigación. Algunos consejos pueden resultar repetitivos,
pero conviene conocer los trucos que utilizan algunos investigadores para
enfrentarse a esta situación. Al no existir un único patrón, cada
investigador utiliza diversas estrategias propias de su propia experiencia
investigadora. De entre todas, hemos destacado las recomendaciones de
tres investigadores: Callejo y Viedma (2009), Pick y López (1992), y
Santana (2013).
Los investigadores Callejo y Viedma (2009) aconsejan para determinar el
problema de investigación seguir una serie de pautas:
– Muchas veces no se puede elegir el tema de investigación pues este viene
dado, si se puede elegir, el consejo es que sea un tema que le guste al
investigador, con el que se sienta en cierta medida comprometido. Debe
recordarse que va a dedicarle tiempo y esfuerzos, por lo que si es un
tema que le guste esta dedicación será mejor llevada.
– El tema de investigación debe tener cierta relevancia social o que sea de
interés general. Esta cuestión es importante pues durante el proceso de
investigación suele haber altibajos anímicos; si el tema tiene relevancia
social, puede motivar al investigador a seguir hacia delante. Ser
conscientes de la utilidad de nuestra investigación puede motivarnos a
continuar con el trabajo en los momentos de mayor debilidad. Véase un
trabajo para reducir la pobreza, las tasas de delincuencia o aumentar
los niveles de estudio de la población analizada.
– Es también interesante, antes de concretar el tema de investigación,
revisar si hay fuentes de información disponibles. Puede haber
preguntas muy interesantes de hacer pero acceder a los datos puede ser
muy difícil, por ello, es importante previamente hacer esta indagación.
Puede ser muy atrayente conocer cómo se toman decisiones en el seno
de una gran empresa, o datos referidos a lo que ocurre en instituciones
cerradas como la cárcel, pero el acceso a esta información es muy
complicado.
– Otro consejo importante es consultar las aportaciones teóricas más
relevantes en ese campo de estudio. El revisar lo que dicen las teorías, es
decir explicaciones a los distintos fenómenos sociales, puede ayudar a
reflexionar y formular nuestras propias preguntas de investigación.
Ninguna investigación en Ciencias Sociales se da siempre por
totalmente concluida, sino que suelen dar lugar a nuevas preguntas;
revisar las potencialidades y debilidades de las teorías vigentes para la
explicación de un fenómeno, puede ayudar a formular nuestra propia
pregunta.
– También es importante tener en cuenta el criterio de oportunidad, es
decir, si se tiene acceso a una fuente de información privilegiada o de
actualidad. Existen multitud de fuentes de datos que no están
explotados, y que pueden ayudarnos a elegir el tema de investigación.
Por ejemplo, el alumno de TFG y TFM puede haber realizado prácticas
en alguna institución que tenga datos cuyo tratamiento pueden ser muy
interesantes para la institución y para el propio investigador. Los
registros internos de centros de servicios sociales, los datos propios de
múltiples administraciones públicas, o la información existente en
asociaciones y empresas, pueden guardar una serie de información
primaria con mucha potencialidad.
– Se debe tener en cuenta el fomento institucional de algunos temas a la
hora de concretar nuestro objeto de investigación. Si no encontramos
un tema que nos interesa, conocer las líneas de investigación que son
prioritarias en Ciencias Sociales para la Unión Europea o España puede
ayudarnos a decidir. Aspectos medio ambientales, demográficos
(fecundidad y envejecimiento), referidos a la desigualdad social, la
violencia de género, la seguridad o la igualdad de género, son
habitualmente recomendados por diferentes instituciones.
– Por último Callejo y Viedma también recomiendan hacer una tormenta
de ideas sobre diferentes aspectos que puedan interesar de la realidad
social. El utilizar una pequeña libreta donde escribir todo lo que se nos
ocurra, e incluso el blog de notas del teléfono móvil, puede ayudarnos a
recoger todas las ideas para posteriormente examinarlas y valorar pros
y contras a la hora de decidir. Se pueden jerarquizar en función de
nuestros gustos o relevancia, e incluso la reflexión sobre las mismas
puede dar lugar a que se nos ocurran temas nuevos.
Otras investigadoras que también han aportado consejos prácticos para
elaborar la pregunta de investigación, han sido Pick y López (1992). Estas
autoras recomiendan tres pasos a los hora de elegir qué investigar. El
primero consiste en ir de lo general a lo específico, es decir, cuando no
sabemos que investigar debemos comenzar leyendo todo tipo de lecturas,
no solo académicas, o científicas, también de literatura, prensa,
divulgación general, etc. Las autoras recomiendan ir a conferencias, hablar
con amigos sobre temas de actualidad, etc. Se trata de estimular nuestra
imaginación para que nos ayude a encontrar un tema general que nos
atraiga.
Una vez definido este tema de forma general, se pasa al segundo paso que
consiste en concretar el tema. En este caso, y una vez más definido el
campo de estudio hay que buscar aspectos novedosos sobre este tema, que
nos permita aportar algo que no han hecho antes otros autores; para ello
es recomendable lecturas más específicas. Se trata de hacer búsquedas
bibliográficas de artículos y libros sobre el tema que nos interesa. Esta
forma de leer ya es diferente a la anterior pues se trata de ir cogiendo las
primeras notas sobre lo que han dicho otros autores y que en el futuro nos
podrían servir para el marco teórico. Las autoras recomiendan utilizar
enciclopedias especializadas y hablar con personas que hayan estudiado ese
campo con anterioridad; a lo que puede unírsele buscar en Internet, leer
foros de comunidades digitales, e incluso la observación simple del
fenómeno que interesa estudiar. El objetivo es concretar lo máximo posible
el objeto de estudio, buscando la novedad, originalidad y potencialidad de
su investigación.
El tercer paso supone realizar lo que las autoras denominan una “ruta
crítica realista”, es decir, antes de definir específicamente el tema de
investigación el investigador debe proyectar el itinerario con las fases y
tiempos que prevé necesarios para llevarlo a cabo. Por ejemplo, se debe
tener en cuenta el tiempo disponible para entregar los resultados, si va a
ser una investigación a realizar en solitario o dentro de un equipo, si se va
a realizar trabajo de campo o no, y los recursos económicos necesarios y
disponibles para su desarrollo. Todas estas cuestiones deben tenerse en
cuenta a la hora de concretar el tema de estudio pues están íntimamente
ligadas con el éxito final.
En esta misma línea se encuentran también las recomendaciones que
realiza Santana (2013), para quién el proceso de investigación se asemeja a
un “muelle” compuesto de muchos círculos de conocimiento que se
superponen unos a otros. Este autor apunta que toda investigación suele
comenzar por un tema de interés general que se presenta de forma muy
vaga al principio. Se trata sobre todo de encontrar un tema interesante que
despierte nuestro interés y en el que nos apetezca trabajar. En segundo
lugar, este autor recomienda “concretar el tema general de interés tanto
como se pueda y tan pronto como sea posible para poder analizarlo en
profundidad. Se debe precisar el objeto de estudio, hay que delimitarlo
conceptualmente” (23). Esta concreción debe buscar la originalidad sobre
la que va a versar el trabajo, ésta puede hacer referencia a un aspecto o
cualidad no estudiada anteriormente, o a la relación entre variables (por
ejemplo, el uso de las TIC y las relaciones familiares).
En tercer lugar, Santana aconseja que se reflexione sobre el nivel de
análisis; es decir, que se tenga en cuenta las dimensiones temporales y
espaciales a la hora de plantear el objeto de investigación. Por ejemplo,
concretar si se trata de un estudio comparativo a nivel local o regional, y si
se analiza la comparación entre dos momentos en el tiempo. En cuarto
lugar, este autor da mucha importancia a responder a la pregunta del qué,
es decir “¿qué estudia este trabajo?, ¿cuál es mi objeto de investigación”.
La respuesta a la pregunta de qué ha de ser casi tan breve como la
pregunta misma: una respuesta larga suele indicar que no se tiene clara “la
pregunta del qué”, si no se tiene claro qué se hace, muy difícilmente se
podrá avanzar “y muy difícilmente se podrá hacer bien” (25). Por último,
el problema de investigación debe poder formularse como pregunta de
investigación. La presentación del problema es casi tan importante como la
propuesta para responderlo.
3. TIPOS DE PREGUNTAS DE INVESTIGACIÓN
Existen múltiples tipos de preguntas de investigación, éstas suelen estar
muy vinculadas con la orientación que queramos darle al estudio.
Fernández Esquinas (2006), resume la organización del trabajo sociológico
en cuatro grandes ámbitos que puede ayudarnos a identificar diferentes
preguntas (Tabla 1): la sociología profesional, que hace referencia a la
investigación que suele realizarse en las universidades e instituciones de
investigación, respondiendo sobre todo a preguntas de investigación más
básicas y teóricas. Por ejemplo, conocer las dinámicas y estructuras que
hay detrás de muchos comportamientos sociales, véase los efectos de la
crisis sobre la familia, la importancia de la educación para la movilidad
social, o el papel de las redes sociales para encontrar trabajo. La sociología
aplicada, que responde a las demandas planteadas por actores externos
como empresas e instituciones y que buscan sobre todo información
científica para la toma de decisiones. Por ejemplo, qué se puede hacer para
disminuir el fracaso escolar, qué tipo de medida contribuye a que mejore la
imagen pública de un político, o como tener mayor impacto en campañas
de publicidad.

Tabla 1. La división del trabajo sociológico


Audiencias
Académica Extra-académica
Instrumental Sociología profesional Sociología aplicada
Conocimiento
Reflexivo Sociología crítica Sociología pública

Fuente: Fernández Esquinas (2006:16)

La sociología crítica adopta un enfoque descriptivo que trata, sobre todo,


de hacer preguntas sobre la propia disciplina. Su orientación es muy
limitada al propio interés del ámbito en el que nos movemos los científicos
sociales, siendo muy poco habitual encontrar TFG con esta orientación.
Por último, la sociología pública ha tenido una amplia difusión en los
últimos años, este enfoque no pierde su carácter reflexivo, pero se dirige
hacia audiencias mucho más amplias. En este caso se trataría de hacer
preguntas sobre el papel de los medios de comunicación en la sociedad, las
políticas medioambientales, estudios sobre desarrollo social o la lucha
contra la desigualdad, etc.
De forma más pragmática, la profesora Cea D’Ancona (2009), realiza
una revisión de los principales tipos de problemas de investigación sobre
los que suelen versar los trabajos en Ciencias Sociales, su orientación
también puede ayudar a la hora de concretar nuestro objeto de estudio.
Para Cea, las investigaciones pueden comprender:
– Estudios de tipo descriptivo, en los que se analicen las características
sociales de los principales fenómenos, su composición, sus relaciones,
etc. Esta es una práctica muy habitual en muchos trabajos de
Sociología, Trabajo Social y Criminología, donde conocer los rasgos
significativos de determinados fenómenos son ya de por si una
aportación significativa. Características de las personas que reciben
ayudas públicas, el perfil de las personas que cometen delitos, o la
composición y frecuencia de contactos en las redes sociales, pueden ser
un ejemplo.
– Estudios comparativos, donde se contrasten diferentes grupos, culturas,
comportamientos, etc. El método comparativo, tal y como definió
Durkheim, es fundamental para conocer las peculiaridades de la
realidad social. Analizar la cultura andaluza y la irlandesa, la española
y la estadounidense, o la población residente en distintos barrios dentro
de una misma ciudad puede ser una forma interesante para conocer
mejor a esa sociedad.
– Trabajos sobre relaciones entre características o variables, puede dar
lugar a una importante riqueza investigadora. Por ejemplo, el análisis
entre la religiosidad y la edad, el nivel de estudio y los ingresos, o el
número de libros leídos en el último año e ideología política, puede dar
lugar a relaciones significativas y tendencias sociales sobre las que
profundizar y reflexionar.
– Estudios sobre opiniones y actitudes relacionados con diferentes grupos
de la sociedad. Esta es una de las cuestiones más estudiadas por la
Sociología y la Ciencia Política para conocer la cultura de una sociedad.
Los trabajos sobre las actitudes hacia los inmigrantes, la familia, la
política, el trabajo, los nuevos movimientos sociales, etc., son un muy
buen ejemplo.
– Estudios específicos que busquen determinar los motivos que expliquen
fenómenos sociales. Mas allá de la descripción, estos estudios buscan
las causas que dan lugar a diferentes acontecimientos, descubrirlas
supone todo un reto, pero permite predecir comportamientos futuros.
Conocer las causas que provocan el fracaso escolar, la aparición de
adicciones, la compra de determinados productos, o el voto en unas
elecciones, constituyen temas habituales de investigación.
– Por último, Cea D’Ancona también recomienda pensar en algún tipo de
problema social de los múltiples existentes en las sociedades actuales y
en la forma de solucionarlos. Una forma de hacer investigaciones
aplicadas es precisamente analizar un problema social y lo que podemos
aportar desde las Ciencias Sociales para intentar solventarlo, léase el
paro, los problemas ecológicos o la integración social.
4. DELIMITACIÓN DE LA PREGUNTA DE
INVESTIGACIÓN Y SU JUSTIFICACIÓN
Una vez seleccionado el tema y concretada la pregunta es muy importante
estudiar bien su formulación, la forma en la que se plantea el problema de
investigación y se presenta, es el primer paso hacia la búsqueda de una
respuesta, “un problema bien planteado es la mitad de la solución”
(Ackoff, 1967: 14). De la delimitación de la pregunta se deriva la
formulación de objetivos generales y específicos que supone la concreción
operacional de lo que se pretende conocer. De ahí surgen las hipótesis y la
propuesta metodológica para responderlas. Por tanto, a partir de la
concreción del tema de investigación, este debe acompañarse de una
pregunta bien delimitada, claramente formulada, que enfatice los aspectos
originales que se pretenden estudiar y que al mismo tiempo, esté redactada
de forma clara.
Toda pregunta de investigación debe tener una justificación que responda
al porqué y para qué se va a llevar a cabo el estudio. Esta justificación debe
estar apoyada por argumentos teóricos, resultados empíricos de estudios
anteriores o necesidades y demandas de instituciones y empresas. A la hora
de presentar la pregunta de investigación es importante pensar en estos
argumentos pues se transmite que se conoce el contexto teórico y
conceptual que se pretende estudiar. Por tanto, toda investigación parte de
una pregunta de investigación, pero esta debe ser el resultado de un
proceso previo de reflexión, consulta de la bibliografía y proyección mental
de los pasos metodológicos necesarios para darle una respuesta. Conviene
por tanto dedicar tiempo a pensar bien la pregunta de investigación y
seguir muchos de los consejos presentados en este capítulo.
5. BIBLIOGRAFÍA
Ackoff, L. R. (1967). The Desing of Social Research. Chicago: Chicago University Press.
Callejo, J., y Viedma, A. (2009). Proyectos y estrategias de investigación social: la perspectiva de la
intervención. Madrid: Mc Graw Hill.
Cea D’Ancona, M. A. (2009). Metodología cuantitativa. Estrategias y técnicas de investigación
social. Madrid: Síntesis.
Coleman, J. S., et al. (1966). Equality of educational opportunity (2 vols.). Washington, DC:
Government Printing Office.
Durkheim, E. (1989). El suicidio. Barcelona: AKAL.
Fernández Esquinas, M. (2006). El resurgimiento de la sociología pública. Revista Española de
Sociología, nº 6: 7-33.
Marx, K. (2017). El capital. Crítica de la economía política. Madrid: Siglo XXI.
Merton, R. K. (1989). Teoría y estructuras sociales. Mexico: Fondo de cultura Económica.
Pick de Weiss, S., y López Velasco, A. L. (1992). Cómo investigar en Ciencias Sociales. México:
Trillas.
Portes, A. (2012). Sociología económica. Una investigación sistemática. Madrid: Centro de
Investigaciones Sociológicas.
Rojas, R. (2006). Guía para realizar investigaciones sociales. México: Plaza y Valdés.
Santana, A. (2013). Fundamentos para la investigación social. Madrid: Alianza.
Scribano, A. (2002). Introducción al proceso de investigación en Ciencias Sociales. Buenos Aires:
CICCUS.
Weber, M. (1969). La ética protestante y el espíritu del capitalismo. Barcelona: Península.
Capítulo 3
CÓMO ESCRIBIR TEXTOS ACADÉMICOS EN
CIENCIAS SOCIALES
María Dolores Martín-Lagos López
Universidad de Granada

1. INTRODUCCIÓN
El objetivo de este capítulo es introducir al lector en el conocimiento del
modo de escribir un texto académico en Ciencias Sociales. Concretamente,
se tratan cuatro cuestiones que facilitarán la elaboración del Trabajo Fin
de Grado (TFG) o del Trabajo Fin de Master (TFM). Para agilizar la
lectura se establece como acrónimo TFG/TFM. En primer lugar, de modo
sucinto, se debe conocer cuál suele ser la estructura de un texto académico.
Puesto que cada Titulación tiene diversos tipos de TFG/TFM y, en función
de ellos, su propia estructura, se citan los apartados propios de un artículo
científico. En muchas ocasiones se repiten gran parte de ellos en la
estructura del TFG/TFM.
En segundo lugar, se ofrecen unas notas sobre la redacción y estilo de la
escritura científica. En tercer lugar, se habla de cómo citar según las
normas de la American Psychological Association (APA) referidas a las
referencias bibliográficas. Dichas normas ayudan a conocer cuándo hay
que añadir entrecomillado, cómo citar a los autores y año, cuál es el
formato de un artículo, un capítulo de un libro o la webgrafía. Finalmente,
se añade información sobre cómo detectar el plagio o coincidencia entre el
trabajo realizado y la existencia de otros trabajos previamente publicados
y, en esta línea, qué programas pueden ayudar a detectar esta similitud.
2. BREVE COMENTARIO SOBRE LA PRESENTACIÓN Y LA
MOTIVACIÓN
Antes de comenzar con los temas centrales del texto, se va a hacer
referencia a dos cuestiones esenciales de un trabajo. Son la presentación y
la motivación. La presentación del TFG/TFM exige el cuidado de
cuestiones que a veces se pasan por alto, como elementales, pero que sirven
para rechazarlo o percibir que su contenido no es de buena calidad. En su
presentación, el documento final ha de contar con una portada, un índice
adecuadamente numerado, sin fallos en la numeración de apartados, ni
erratas al citar a los autores. El TFG/TFM no puede mostrar diferentes
tipos de espaciado ni de tamaños de letra. Las tablas y gráficas tienen que
tener encabezado y fuente. Esta y otras cuestiones similares son reflejo de
un descuido en el trabajo. Por este motivo, pese a no referirse al contenido
explícito, precisa no ser olvidado. La presentación es la tarjeta de visita y
cuando es adecuada invita al lector a sumergirse en el contenido y en una
agradable lectura.
Respecto a la motivación, el trabajo tiene que estar redactado de forma
que fomente el interés y la curiosidad del lector, pensando siempre en el
público al que va destinado y que va a leerlo. Como señala Boeglin (2007),
el lector espera que su lectura le resulte interesante. Por este motivo hay
que decirle sin miedo lo que le propone y subrayar el carácter nuevo del
trabajo. Antes de empezar, por tanto, hay que decirle al lector que hay algo
nuevo que tiene que saber, que va a aportar conocimiento con su trabajo.

2.1. Primer paso: la estructura del texto científico siguiendo el proceso de


investigación
2.1.1. Apartados de un texto científico
Una vez que se ha elegido el tema de investigación éste tiene que
desarrollarse en un texto escrito. Y, pese a que el autor no deba de perder
la capacidad de crear y de ser original, hay una estructura previa a seguir.
La estructura de un texto académico es similar a la de un edificio. Se
asienta en el proceso de investigación que conlleva el paso por un conjunto
de fases o etapas. A lo largo del mismo, el investigador plantea cuáles son
los objetivos que se persiguen, qué investigaciones previas han estudiado el
tema, cuáles son las bases teóricas que sustentan la investigación, qué
aporta la investigación de novedosa y cómo se define o conceptualiza el
objeto de estudio. Siguiendo con este proceso, se aporta qué metodología
se emplea para aproximarse a la realidad, cuáles son los resultados
obtenidos, qué conclusiones se desprenden de estos resultados y qué
bibliografía se ha empleado durante el proceso. Cuando el investigador
obtiene los resultados, en un proceso cíclico, retorna nuevamente a la
teoría inicial y, de esta forma genera nueva teoría, refutando o validando
los resultados alcanzados.
El proceso de investigación es evaluado en el TFG/TFM. Sirva un ejemplo
de algunos indicadores empleados por la Comisión Evaluadora del Grado
en Sociología de la Universidad de Granada.

Tabla 1. Ejemplo de rúbricas de indicadores que emplea la Comisión Evaluadora del Grado en
Sociología, Universidad de Granada
Dimensión Indicador
Marco Explica claramente los objetivos (e hipótesis en su caso), conceptualiza adecuadamente el objeto de estudio,
analítico sistematiza antecedentes teóricos y/o empíricos.
Describe y argumenta la metodología propuesta, así como también utiliza técnicas de investigación adecuadas a
Método
los objetivos planteados.
Utiliza fuentes de información variadas, válidas y fiables, usa las técnicas de investigación seleccionadas de
Desarrollo
forma adecuada, analiza e interpreta los datos correctamente.
Presenta los resultados de forma clara, discute los resultados obtenidos, genera conclusiones fundamentadas en
Resultados
el planteamiento teórico y/o empírico.

Fuente: elaboración propia a partir de las rúbricas de la Comisión Evaluadora.

Con frecuencia el TFG/TFM suele seguir el formato de presentación de


un artículo científico, es decir, resumen; palabras clave; introducción;
marco teórico; material y método; resultados; discusión; conclusiones y
referencias bibliográficas. En otras ocasiones se escoge elaborar un informe
de investigación, en el cual se realiza una descripción de un fenómeno
empleando como fuentes secundarias el análisis de estadísticas. En este
caso se organiza por bloques que se acompañan de tablas y gráficos para
facilitar su comprensión. No tiene tanto peso el marco teórico ni la
formulación de hipótesis; sí la contextualización y relevancia de los datos.
No obstante, la estructura varía en función de la tipología de trabajos
que estén establecidos en cada titulación. Por ejemplo, en la Facultad de
Ciencias de la Educación de la Universidad de Granada se distingue entre
trabajos bibliográficos, estudios de casos, trabajos de investigación
educativa, trabajos de creación artística y trabajos derivados de la
experiencia desarrollada en prácticas externas. Por esta razón, como
primer paso, resulta recomendable revisar las guías elaboradas por cada
titulación en las que se establecen unas orientaciones sobre la tipología de
trabajo y la estructura en cada caso.

2.1.2. Fallos comunes respecto a la estructura del texto científico


A continuación se citan algunas de las erratas que con frecuencia se
encuentran en un TFG/TFM y, en general, en algunos textos científicos:
– Ausencia de un objetivo de investigación claro, específico, que no sea
excesivamente general.
– Hipótesis no medibles o excesivamente simples, que no precisarían de
una investigación.
– Falta una definición conceptual adecuada en base a los aspectos
contenidos en el objetivo. Por ejemplo, si se pretende estudiar la
exclusión social en los jóvenes, es preciso definir qué se entiende por
exclusión social y por jóvenes.
– Ausencia de la definición conceptual y la operativa. Qué dice la
literatura sobre el concepto de joven y cómo se operativiza en la
investigación. Por ejemplo, podría tratarse de personas de 20 a 24 años
porque para la investigación desarrollada son relevantes.
– Carencia de justificación y relevancia del tema. ¿Por qué sería
interesante que alguien estudiase esta cuestión? ¿Qué relevancia
económica, social o práctica podría tener?
– Número excesivo de definiciones en la argumentación teórica. Se
pueden usar varias, pero sin excederse.
– Desorganización de los temas a tratar en la revisión teórica y ausencia
de un hilo conductor que dirija hacia aquello que aún no se ha
estudiado y que es el objeto de la investigación.
– Fallos en la metodología relativos a la selección de la muestra y a la
construcción del instrumento de recogida de la información: guión o
cuestionario.
– No existe una concordancia entre la metodología y los instrumentos de
recogida de información.
– Los resultados no muestran asociación con el proceso seguido y los
objetivos propuestos.
– Las conclusiones no resumen lo obtenido y la discusión no reflexiona
sobre los resultados. No se mencionan debilidades de la investigación ni
propuestas de investigaciones futuras en base a los resultados.
– Faltan referencias bibliográficas empleadas en el texto y, al contrario.
– Se ha empleado poca bibliografía y ésta de modo excesivo.

2.1.3. Proceso seguido en el desarrollo del trabajo


El primer paso para garantizar el orden es la realización de un esquema
previo. Con este esquema el investigador señala qué cuestiones se van a
tratar. Se reproduce y ordena en un papel o pantalla su esquema mental.
Además de los apartados previstos, se delimitan los posibles cuadros,
tablas y gráficos previstos para sintetizar la información. Posteriormente,
se va construyendo un discurso coherente con las ideas propuestas, lo que
va acompañado de evidencia empírica y argumentación teórica.
La evidencia procede de los resultados de informes e investigaciones
precedentes, en cuyo caso se emplean los últimos estudios y datos
obtenidos, siempre que no sean provisionales. Esta evidencia científica
precedente se pondrá en contraste con los hallazgos encontrados en el
trabajo, lo cual sirve para justificar el tema. Es costumbre anglosajona en
Ciencias Sociales recurrir a algunas noticias de prensa para hacer constar la
relevancia social del tema a tratar. Por ejemplo, si se está justificando la
necesidad de estudiar los factores que dificultan la emancipación juvenil en
España, se podría señalar que, según el Informe del Observatorio de la
Emancipación (primer trimestre de 2015), ocho de cada diez jóvenes
menores de 30 años reside con sus progenitores.
Junto con la evidencia científica se señalaba la importancia de la
argumentación teórica. Ésta no se abandona al principio, sino que
acompaña al investigador en todo su trayecto y aparece en el texto para
apoyar o rechazar los resultados obtenidos. Como señala Reale (2016), la
trama del texto científico se caracteriza por el diálogo permanente con
otros autores que han tratado el tema.
Además, una buena redacción requiere la lectura y relectura del texto,
escribiendo y re-escribiendo, perfilando el texto con las palabras más
adecuadas. Tras la revisión del documento surge un primer borrador que
debe ser un trabajo elaborado. En ocasiones se envían a los tutores como
primer borrador un trabajo muy poco elaborado que obliga a éstos a
realizar una tarea más de elaboración que seguimiento.
Asimismo, se recomienda la lectura del manuscrito por parte de terceras
personas que no conozcan el texto y que puedan detectar fallos e
imprecisiones. La razón es que el autor en ocasiones ha leído y releído
tanto su propio documento que no es capaz de discernir los errores y
aciertos del mismo. Además, el lector profano enriquece el trabajo. La
lectura por parte de un investigador experto, ayuda a detectar la ausencia
de artículos e investigaciones esenciales en la materia. Finalmente, tras la
lectura y relectura del documento y revisión de los aspectos formales y de
contenido, se obtiene un documento final que es presentado mediante las
vías pertinentes en cada titulación para ser sometido a evaluación.

2.1.4. Estructura y conexión entre las secciones.


La estructura de cada apartado o sección comienza con un párrafo en el
que se aproxima al lector a cada una de las cuestiones que se van a tratar.
A continuación, se expone cada una de ellas, intentando ajustarlas y
argumentando su presencia en el texto. Finalmente, en el último párrafo, se
sitúa el párrafo de síntesis o deducción, donde se señalan, a modo de
resumen, las cuestiones más destacadas a lo largo del apartado. A modo de
ejemplo, se cita el comienzo del apartado de “Resultados y discusión” de
un artículo sobre la escuela rural:
“Este apartado está estructurado en cuatro bloques. En los dos primeros se exponen las
ventajas e inconvenientes de las escuelas rurales que emergieron en la investigación y que
cumplen las siguientes características: a) existió consenso entre todos los agentes implicados; b)
coinciden con las que se exponen en la literatura especializada en la temática. En el tercer
bloque se exponen los ‘¿posibles falsos mitos?’, donde se hace referencia a las ideas en las que
ha surgido un disenso entre los discursos de los agentes implicados en la investigación y la
revisión literaria llevada a cabo, de manera que emergen ideas y puntos de vista que no
coinciden. Finalmente, en el cuarto bloque se exponen los recursos que puede ofrecer al ámbito
educativo el entorno rural”(Hamodi y Aragués, 2014: 51).

Un desacierto en el que se suele incurrir es la falta de conexión entre


párrafos y apartados. Hay que evitar dar cambios bruscos y solucionar esta
situación con frases como “dejando de lado esta cuestión…” o “también
resulta interesante tener en cuenta…”. Tiene que existir una coherencia
intra que permita leer el párrafo sin tener que recurrir al anterior ni al
posterior y una coherencia inter, que articule lógicamente los párrafos para
transmitir un conjunto comunicativo con sentido (León, 2016).
Junto con ello, los párrafos deben de tener una extensión media, de 6 a 8
líneas, no superar en todo caso las 10 (Fondevila y Del Olmo, 2013) ya
que resulta tan insuficiente encontrar párrafos de tres líneas como tedioso
leer aquellos de un folio de extensión. Tal y como decía Aristóteles “en el
término medio está la virtud”. El cambio de párrafo suele coincidir con un
cambio en la temática. En el siguiente, se hará mención a la redacción y
estilo en la escritura.

2.2. La redacción y el estilo de la escritura científica


En este apartado se facilitará información sobre el modo de redactar un
texto y el estilo seguido en la escritura científica. Conviene que se conozcan
algunas claves para facilitar la redacción del trabajo. Se va a hacer
referencia al estilo de la escritura científica, cómo se debe construir el
texto, el apoyo de la evidencia científica, la secuencia seguida en cada
apartado (resumen de lo que se va a exponer, desarrollo y resumen final);
la conexión entre apartados y la extensión de los párrafos.
Como señala Reale (2016: 16), “No hablamos ni escribimos en soledad
ni en absoluta libertad, sino que nuestra producción discursiva se enmarca
siempre en un espacio social y, por lo tanto, como toda interacción, debe
respetar un conjunto de reglas o protocolos que establecen cómo
comunicarnos”.
¿Cómo se debe redactar un texto científico? El texto elaborado debe
combinar el orden y estructura recomendada con la delicadeza de cuidar el
lenguaje. Al igual que ocurre con la presentación, una adecuada redacción
invita con gusto al lector a sumergirse en el contenido. Le hace agradable
la lectura y su continuidad, sin saltos ni sobresaltos. Muchos de los
trabajos sobresalientes se caracterizan por manejar con sutileza la
redacción del texto, además de ser cuidadoso con el estilo y muy ordenado
en la presentación de ideas.
Puesto que el objetivo del trabajo de investigación es producir y difundir
los hallazgos obtenidos, el lenguaje ha de ser preciso, claro y conciso.
Precisión implica elegir las palabras y términos que se van a emplear;
claridad, que lo escrito se entienda perfectamente; concisión, centrarse en
la información relevante sin añadir palabras que no sean necesarias
(Ferriorls, R. y Ferriorls, F., 2005).
Otra cuestión fundamental se refiere a que el lenguaje esté adaptado al
público al que va dirigido. En Ciencias Sociales y, en general, en todas las
áreas y disciplinas, se dispone de un vocabulario con términos técnicos que
persiguen la precisión. Por ejemplo, si se revisa la teoría de Pierre
Bourdieu, podrían servir los conceptos de habitus, campo o violencia
simbólica. El uso de conceptos propios de la disciplina no implica que el
texto se deba sobrecargar recurriendo a multitud de ellos puesto que, de
esta forma, resulta complicado que un lector no iniciado en la materia
pueda comprender su significado. Para facilitar la comprensión, es preciso
definir adecuadamente los términos si se trata de un texto divulgativo y
utilizar analogías sencillas adaptadas a la audiencia.
En la misma línea, resulta inexcusable que aparezcan en el texto faltas de
ortografía. Algunas de las más frecuentes son la sustitución de “a” y “ha”
o “e” y “he” y, en general, el olvido frecuente de la h en el verbo haber.
Incluso, en los últimos tiempos, aparece en las redes sociales “haber”
cuando se quiere decir “a ver”. La sustitución de “hecho” del verbo hacer
por “echo” del verbo echar también constituyen un error común. Otras
cuestiones que con frecuencia se confunden son las palabras que llevan s o
x, por ejemplo, expectativas. También sorprende la frecuente confusión
entre la g y la j, en palabras como coger o extranjero. En resumen, la
ortografía es una tarjeta de presentación y no debe ser descuidada. Si
resulta complicada, la revisión ortográfica puede ser facilitada por un
diccionario o por el corrector ortográfico.
Otro rasgo del lenguaje científico es la neutralidad e impersonalidad. La
enunciación suele hacerse sin sujeto, en tercera persona o empleando el
impersonal. Por ejemplo, “la investigación se basa” en vez de “he basado”
o “hemos basado la investigación”. El plural mayestático tiene menos
sentido pues hay un solo investigador, aunque se suela justificar entre los
investigadores noveles como una cuestión de humildad, hay que prescindir
de él. En este sentido tampoco se recomiendan frases que indican falsa
modestia como “en mi modesta o en mi humilde opinión”.
Del mismo modo, hay que evitar la repetición de conectores discursivos
de modo reiterativo. Sirva de ejemplo la locución adverbial “sin embargo”,
el adverbio “entonces”, “es decir” o “por tanto”. Una buena solución para
no repetir en exceso palabras es trabajar con un diccionario de sinónimos e
intentar conseguir un texto con un lenguaje variado, rico y empleado con
corrección.
Otros errores frecuentes en la redacción son la falta de concordancia
entre sujeto y verbo. Si hay varios sujetos, aunque estén en singular, la
concordancia se hará con el verbo en plural. Por ejemplo, el desempleo y la
corrupción se encuentran entre las principales preocupaciones de los
españoles.
El dequeísmo también aparece con frecuencia en los TFG/TFM. Ante esta
cuestión es común en verbos como alegrar. La frase me alegra de que seáis
felices, no es correcta. La Real Academia de la Lengua Española (RAE)
establece que el verbo informar puede introducirse con el complemento de
(informar de algo) o mediante un complemento directo, sin preposición
(informar algo). Por lo tanto, sería igualmente correcto decir “se informa
de que” o “se informa que”. Finalmente, y aunque este repaso no haya
sido exhaustivo, hay que tener precaución y evitar el laísmo, leísmo y
loísmo.
Dejando a un lado los errores ortográficos y gramaticales, hay que
prestar atención al modo de redactar cuando se están comentando datos.
En primer lugar, hay que establecer un equilibrio sobre los datos que hay
que ofrecer, sin sobrecargar al lector. La interpretación de los mismos, bien
sea de una gráfica o de una tabla, requiere de una organización previa
acerca de lo que se va a comentar. Si se trata de los resultados de un año
determinado, por ejemplo, el porcentaje de fumadores en el año 2016 en
España en función del sexo, se comentará cuál es el porcentaje medio de
fumadores en España, descendiendo siempre de lo general a lo particular.
Finalmente, hay que encontrar un patrón general que resuma los datos y
una conclusión final acerca de los mismos.
El investigador, siempre pensando en su audiencia, ha de perseguir una
lectura fácil de los datos mediante una adecuada interpretación. Se
mencionará lo más destacable de los resultados obtenidos e irán siempre
interpretados respecto a los objetivos planteados en la investigación.
Siempre hay que especificar la dirección y asociación entre las variables.
¿Cuál es la tendencia? Con el transcurso del tiempo, la variable estudiada,
¿ha aumentado, ha descendido o se mantiene? ¿Existen diferencias entre
los grupos? ¿Cuáles son los valores más destacados y los que menos
relevancia tienen?
En resumen, se parte del deseo de redactar adecuadamente, cuidando el
lenguaje y adaptándolo a la audiencia a partir de un esquema previo, en el
que se ordenen las ideas principales que se van a presentar. Hay que
escribir en tercera persona, no cometer faltas de ortografía ni usar una
misma palabra de forma reiterada. El cuidado del lenguaje se aplica
también al análisis de datos estadísticos. Éstos deben estar ordenados,
interpretando de forma sencilla los números y transformados en tendencias
destacadas de acuerdo con los objetivos iniciales. Al igual que resulta
imprescindible una buena redacción y estilo, lo es el uso adecuado del
sistema de citación, cuestión a la que se refiere el próximo apartado.

Tabla 2. Resumen de los rasgos del discurso científico-académico


Rasgos del discurso científico-académico
Especializado: producir y difundir el conocimiento
Vocabulario con términos técnicos de cada disciplina.
científico.
Oraciones breves y asertivas. Verbos en presente de indicativo y
Precisión, concisión, claridad.
condicional (hipótesis).
Enunciación sin sujeto, tercera persona o impersonal (se o
Neutralidad e impersonalidad.
complemento).
Trama. Diálogo permanente con otros autores que han tratado el tema.
Complementos al texto. Tablas, gráficos y cuadros.

Fuente: elaboración propia a partir del Reale (2016).


3. CÓMO CITAR SEGÚN EL SISTEMA APA
En la presentación del texto de investigación se exige seguir un conjunto
de procedimientos sobre el tipo de letra, su tamaño, el espaciado, así como
el modo de citar y de referenciar los documentos empleados. Hasta hace
pocos años, cuando se enviaba un manuscrito a una revista para solicitar
su publicación era frecuente consultar las normas de la publicación. Sin
embargo, se ha extendido entre las revistas la aceptación de un sistema de
citación procedente de la American Psychological Association (APA). Tal
ha sido la importancia conferida al estilo APA, que desde la Facultad de
Ciencias Políticas y Sociología de la Universidad de Granada se puso en
marcha un proyecto de innovación docente, liderado por el fallecido
profesor Juan Carlos de Pablos, con el objetivo de enseñar a los estudiantes
este sistema de citación, persiguiendo que presentasen sus trabajos de clase
con este formato.
En estas páginas se ofrece un resumen práctico de las cuestiones que tiene
que tener en cuenta el estudiante antes de comenzar su trabajo. En todo
caso, se recomienda revisar en la guía del TFG/TFM de su Facultad o
Escuela de Posgrado, si existen algunas normas específicas. A modo de
ejemplo, la guía de los TFGs de la Facultad de Ciencias Políticas y
Sociología de la Universidad Complutense de Madrid (UCM) establece
como sistema uniforme de citación y bibliografía el modelo Harvard,
remitiendo al estudiantado a las normas de publicación de la Revista de
esta Facultad: Política y Sociedad.
La presentación se realiza como respuesta a cuatro interrogantes:

3.1. Formato de presentación: tipo y tamaño de letra, interlineado,


márgenes, sangría y alienación del texto
Se presenta a modo de resumen en la Tabla 3. Se recomienda comenzar el
trabajo en un archivo nuevo preparando el documento. De esta forma no
es preciso volver a ello más tarde. Con estos pequeños cambios ya cumple
el trabajo con el formato de presentación.

Tabla 3. Formato de presentación del TFG/TFM según las normas APA


Tipo y tamaño de letra Times New Roman 12
Alienación Izquierda
Sangría Con el tabulador o pulsando cinco veces el espaciado
Interlineado Doble
Márgenes 2,54 superior, inferior, izquierda y derecha

Fuente: elaboración propia a partir de la sexta edición de las normas APA.

3.2. ¿Cuál ha de ser el tipo de encabezado adecuado en el trabajo?


El encabezado se presenta en mayúsculas y minúsculas. APA establece
cinco niveles, conforme se vayan añadiendo más apartados o encabezados
dentro del texto:
– Nivel 1: Encabezado centrado en negrita, con mayúsculas y minúsculas
– Nivel 2: Encabezado alineado a la izquierda en negritas con mayúsculas
y minúsculas
– Nivel 3: Encabezado de párrafo con sangría, negritas, mayúsculas,
minúsculas y punto final.
– Nivel 4: Encabezado de párrafo con sangría, negritas, cursivas,
mayúsculas, minúsculas y punto final.
– Nivel 5: Encabezado de párrafo con sangría, cursivas, mayúsculas,
minúsculas y punto final.
Ejemplo de los cinco niveles:
Historia de las Adicciones en Europa
Antecedentes históricos de las Adicciones
Las drogas en el S.XIX y principios de los 40.
El alcohol y el tabaco.
El alcohol.

3.3. ¿Cómo hay que citar en el texto a los autores cuyos artículos o libros
se han revisado?
Es frecuente encontrar artículos y libros en manuales. Sin embargo
siempre se recomienda recurrir al libro original. La razón es que la fuente
es más rica en el contenido. Además, de esta forma se muestra que el autor
del trabajo conoce a los clásicos, a los pioneros en cuanto al tema que está
estudiando. Así, se evita tener que poner a autores clásicos como Émile
Durkheim citados de un manual de Sociología de 2017 o de un artículo de
otro autor.
Asimismo, hay que evitar extraer el marco teórico de uno o dos libros
exclusivamente, puesto que en este caso se citarían constantemente. La
revisión ha de ser amplia, con una variedad de libros y autores sobre la
temática. Es común recomendar en la revisión bibliográfica citar siempre
aquellos artículos y manuales clásicos, que han supuesto las primeras
aportaciones al campo de estudio y, junto con ellos, no abandonar las
investigaciones más recientes en la materia.
Una vez leído el artículo o libro que se está revisando, se localiza una idea
que se quiere señalar en el trabajo de fin de grado o máster. Existen varias
opciones para citarla. Si la idea está bien expresada y sintetizada en el
texto, se puede escoger la opción de citar literalmente. Ante esta
posibilidad, si el texto es corto, no tiene una extensión superior a 40
palabras, se emplea el entrecomillado y al final, entre paréntesis, se cita el
primer apellido del autor, el año y el número de página donde está situado
el texto dentro del mismo párrafo.
A modo de ejemplo, si se está desarrollando un TFG sobre redes sociales
sería acertado revisar el artículo de Requena (1989) sobre el concepto de
red social. En este caso, al hablar de la teoría de grafos se podría recurrir a
realizar la siguiente cita:
“Una red en la teoría de los grafos es un conjunto de relaciones en el cual
las líneas que conectan los diferentes puntos tienen un valor concreto, sea
éste numérico o no” (Requena, 1989: 139).
Pero, siguiendo el mismo ejemplo, se podría haber optado por citar un
texto más extenso, de 40 palabras o más. En este caso, el modo de citación
sería referirse previamente al autor e iniciar la cita en un párrafo aparte
con sangrado y entrecomillado:
Requena (1989: 139) detalla con precisión la idea de red en la teoría de
grafos:
“La idea de red, tal y como se quiere usar aquí, está tomada en gran parte de la teoría
matemática de los grafos. En esta teoría se llama red a una serie de puntos vinculados por una
serie de relaciones que cumplen determinadas propiedades. Es decir, un nudo de la red está
vinculado con otro mediante una línea que presenta la dirección y el sentido del vínculo. Como
señala Flament (6), esta relación puede ser por todo o nada, y simétrica: entre dos puntos hay
una línea o no la hay. La relación puede estar orientada: entre dos puntos A y B puede haber
una flecha de A hacia B, o una flecha de B hacia A, o bien una línea sin ninguna cabeza de
flecha o nada (7). Entre dos puntos puede haber múltiples tipos de relaciones representadas por
grafismos diferentes: estos multígrafos se utilizan cuando dos puntos están relacionados con
más de un vínculo de naturaleza diferente”.
El empleo de citas textuales en un trabajo ha de hacerse con mesura. Por
este motivo, otra opción, tras la lectura de un artículo y la captura de la
idea que se quiere reflejar no es la de escribir algo de forma textual, sino
expresarlo con otras palabras. Refleja un trabajo de análisis y síntesis
propio de la investigación. En este caso se puede señalar al autor del
manuscrito en un primer momento, dándole protagonismo sobre su
trabajo o, bien, dejarlo al final de la frase entre paréntesis. En ambos casos
se está invitando a los lectores a profundizar más en esa cuestión, leyendo
el artículo o libro. Siguiendo con el ejemplo:
Requena (1989) asocia el concepto de red con la teoría de grafos.
El concepto de red social está extraído en gran medida de la teoría de
grafos (Requena, 1989).
En las cuatro posibilidades de cita descritas se ha ejemplificado con un
solo autor. Suscita esta cuestión otras preguntas:
¿Cómo citar cuando hay más de un autor del artículo o libro revisado?
Es sencillo. APA establece que, si se trata de dos autores se citarán del
mismo modo que antes pero con la conjunción copulativa “y”.
Por ejemplo, si nuestro trabajo versa sobre las opiniones de los
estudiantes ante la sexualidad, podríamos haber revisado el libro de Ayuso
y García (2014) sobre las opiniones de los españoles ante esta misma
cuestión.
Ayuso y García (2014) han mostrado la construcción social de la
sexualidad y la necesidad de contextualizarlo en la posmodernidad.
Si se trata de tres a cinco autores, la primera vez que se citen en el texto
se hará de la misma forma: Martín, Álvarez y Moreno (2017). Si se vuelve
a citar se hará solamente con el primer autor; esto es, Martín et al. (2017).
Et al. es la abreviatura de Et Alii que significa en latín “y otros”. Para no
cansar la lectura del texto con muchos apellidos, el empleo del primer
autor seguido de Et al. se utilizará cuando haya más de cinco autores desde
el primer momento que se citen en el texto. Posteriormente, en la
bibliografía final se incluirá a todos los autores.
Cuando se ha puesto el ejemplo del estudio de redes, se ha incluido
solamente la revisión de Requena. Sin embargo, con frecuencia al iniciar la
revisión de una temática o línea de investigación se consulta más de un
artículo o libro relevante sobre el tema. En este caso se han de citar los
autores por orden alfabético, separados por punto y coma. Si se está
realizando la revisión sobre redes sociales y amistad este sería un buen
ejemplo:
(De Federico, 2005; Del Río, Sádaba y Bringué, 2010; Requena, 1994)
¿Qué ocurre si De Federico ya se ha citado anteriormente en el texto con
un libro del mismo año?
En este caso habría que regresar al primer artículo citado e incluirle una
“a”; al segundo “b”, al tercero “c” y así sucesivamente. (De Federico,
2005a).
Cuando se trata de un capítulo de libro, ¿hay que citar al autor del libro
o al del capítulo?
Si lo que se ha revisado ha sido el capítulo del libro hay que citar al autor
del mismo. Después en la bibliografía final se hará referencia al libro en el
que se encuentra el citado capítulo. Como señala León (2016) hay que
citar al autor y en este caso es el del capítulo.
¿Qué ocurre cuando se ha encontrado el artículo en cuestión citado en
otro libro?
Lo conveniente en este caso es reconocer que se ha encontrado a partir de
otro libro:
Tal y como señala el Informe de la Fundación ANAR sobre acoso escolar
(2016) (citado en El País). En esta situación habría que citar la noticia de
El País donde aparece.
Pese a este modo de citar y como se ha señalado anteriormente, es
conveniente erradicar una práctica cada vez más extendida, que atañe al
hecho de citar constantemente a otros autores a partir de lo encontrado en
otros libros e incluso blogs. Desde el principio y aunque resulte un tanto
arcaico por la extensión de Internet, hay que seguir reconociendo la
autoría y acudiendo a las fuentes originales, a quienes realmente han
elaborado la idea y la han plasmado en el texto.
Finalmente, si se emplean recursos extraídos de Internet se citarán en el
texto del mismo modo. Si se trata de un artículo, informe, libro, blog, etc.
se pondrá el nombre del autor o de la página si éste no se puede localizar,
así como el año. Posteriormente se dedica un apartado a explicar el modo
de referenciar en la bibliografía final.
4. ¿CÓMO CITAR LA BIBLIOGRAFÍA?
En primer lugar hay que asegurarse de que todo lo referenciado en el
texto aparezca en la bibliografía final y que, al contrario, todo lo citado en
la bibliografía esté en el texto.
Para ayudar a gestionar las referencias bibliográficas cuando se realiza la
búsqueda documental se cuenta con multitud de programas que se
denominan gestores bibliográficos y permiten crear una base de datos de
referencias; entre ellos, Refworks, Endnote o Mendeley. Incluso Google
Académico permite crear bibliografía y exportarla directamente a
programas como Refworks. Mendeley permite compartir referencias
bibliográficas. La ventaja de utilizar estos gestores bibliográficos es la
conexión con las bases de datos para poder realizar las búsquedas e ir
organizando la bibliografía con el fin de no tener que volver después a
realizar esta tarea. Además permiten elegir el formato que se desee, por
ejemplo, APA.
El programa Word también admite organizar las referencias. En el
apartado Referencias ofrece una sección sobre Citas y bibliografía, desde
donde se puede insertar la cita, escoger el estilo e insertar la bibliografía. El
conocimiento de estos programas suele ser facilitado en la mayoría de las
Universidades mediante cursos a los estudiantes, muchas veces dirigidos a
los que están elaborando su trabajo de fin de grado y, siempre, en las fases
iniciales de la investigación.

4.1. ¿Cómo citar en APA?


En primer lugar, se señalan cuatro cuestiones que se consideran
relevantes en el momento de citar la bibliografía:
– Cuando se cita un libro, hay que tener en cuenta que si se trata del
editor o coordinador, se señala entre paréntesis. Si se trata de una
edición posterior a la primera, también hay que señalarlo entre
paréntesis.
– La diferencia entre la cita en formato clásico o papel y formato
electrónico es el final de ésta. En el caso del formato clásico, va
acompañada de la ciudad donde se ha editado con dos puntos y el
nombre de la editorial. En el caso del formato electrónico se incluye
Recuperado de…(URL) o el DOI si se tiene.
– Cuando se trata de un vídeo, podcast, etc. no aparece solo el año sino
que se incluye día, mes y año.
– Cuando se consulta un blog o página que suele cambiar, es importante
añadir la fecha en la que se ha consultado.
Para el resto de cuestiones se trata básicamente de seguir las indicaciones.
A continuación se muestra un cuadro-resumen con distintas opciones de
citación, según el lugar desde el que se extrae la información.
Formato clásico Formato digital
Ibáñez, M. (Dir.)
(2017). Mujeres
en mundos de
hombres. Gramsci, A. (1971). El materialismo histórico y la filosofía de Benedetto Croce. Recuperado de
Libro
Madrid: Centro https://docs.wixstatic.com/ugd/06c70a_7f97394ed0e34f9ebb9953127b25ed13.pdf
de
Investigaciones
Sociológicas.

Moreno, A.;
Ortega, M. y
Gamero, C.
(2017). Los
modelos
familiares en
España:
reflexionando Moreno, A.; Ortega, M. y Gamero, C. (2017). Los modelos familiares en España: reflexionando sobre la ambiva
Artículo sobre la familiar desde una aproximación teórica. Revista Española de Sociología, 26 (2), 149-167. doi:10.22325/fes/re
ambivalencia 2016.5.
familiar desde
una
aproximación
teórica. Revista
Española de
Sociología, 26
(2), 149-167.

Gobernado, R.
(2005).
Estratificación
social. En J.
Iglesias De Ussel
y A. Trinidad,
Capítulo
Leer la sociedad.
Una introducción
a la sociología
general (pp. 285-
316). Madrid:
Tecnos.

Observatorio
Europeo de las
Drogas y las
Toxicomanías
(2017). Informe
Europeo sobre
Informe Drogas 2017:
Tendencias y Observatorio Español de la Droga y las Toxicomanías (OEDT). Informe 2016. Recuperado de
novedades. http://www.pnsd.msssi.gob.es/profesionales/sistemasInformacion/informesEstadisticas/pdf/2016_INFORME_
Luxemburgo:
Oficina de
Publicaciones de
la Unión Europea.

Publicada
Mas, J. y Guasch,
O. (2014).
Representaciones
y prácticas en el
proceso de
feminización de
mujeres
transexuales (pp.
607-613). En
Cairo, H. y Finkel,
L. XI Congreso
Español de
Sociología.
Ponencias y Madrid, España: Whelan, C.T. (2015, agosto). The “Squeezed Middle” in the Great Recession: A Comparative European Analysis
comunicaciones Universidad Distribution of Economic Stress ponencia presentada en 12th Conference of the European Sociological Associa
en Congresos, Complutense de 2015. Recuperado de http://esa12thconference.eu/sites/esa12thconference.eu/files/esa_2015-
Seminarios, etc. Madrid. programme_pocket_book_20150823.pdf
No publicada
Becerril, D.
(2015, febrero).
Familias
monoparentales
y responsabilidad
parental.
Comunicación
presentada en el I
Congreso
Internacional
sobre familias
monoparentales,
Valencia, España.

Luque, M.
(2015). La
orientación desde
la secundaria.
Gentile, A. (2009). Inestabilidad laboral y estrategias de emancipación. Los jóvenes-adultos mileuristas de Bar
Tesis Doctoral (Tesis doctoral
Roma. (Tesis doctoral). Recuperado de Tesis Doctorales en Red. http://hdl.handle.net/10803/31854
no publicada).
Universidad de
Granada,
Granada.

Larson, O. F.
(1977). Sociedad
rural. En
Enciclopedia
Entrada de Bericat, E. (2012). Emotions. En sociopedia.isa. Recuperado de
Internacional de
Enciclopedia http://www.sagepub.net/isa/resources/pdf/Emotions.pdf
las Ciencias
Sociales (Vol. 10,
pp. 59-66).
Madrid: Aguilar.
Pérez, C. (2016).
Cómo afecta el
origen social al
abandono
educativo Crusellas, A. (2015). La crisis a pie de barrio. Los casos de Lavapiés y San Isidro Madrid. (Trabajo Fin de Mast
TFM temprano Universidad Complutense de Madrid, Madrid). Recuperado de https://politicasysociologia.ucm.es/data/cont/do
(Trabajo de Fin 2017-03-15-CI17_W_Alba%20Crusellas.pdf
de Grado no
publicado).
Universidad de
La Laguna.

Trueba, D. (2017,
Noticia de julio, 4). Llaudes, S. (2017, junio, 27). Motivos para el orgullo. El País. Recuperado de
prensa Reprobados. El http://elpais.com/elpais/2017/06/22/opinion/1498132911_815623.html
País. p. 2.

Película:
Scott, R. y
Villeneuve, D.
(2017). Blade
Ranner 2049
[cinta
cinematográfica].
EEUU: Warner
Bross.
Serie:
Simon, D. y
Overmyer, E.
Vídeo
Vídeo, serie, (2013). 35:
Yale University (11, noviembre, 2016). A Conversation with Zhang Xin-In Discussion with Deborah Davis, Prof
película Sunseton
Sociology. Descargado de https://www.youtube.com/watch?v=zq5JcOu-dvE
Louisianne
[Episodio de
serie de
Televisión]. En D.
Simon,
N.Kostroff, E.
Overmyer, C.
Strauss
(Productores
ejecutivos),
Treme. California:
Warner Bross.

Formato digital

Irigoyen, J. (31 de mayo de 2017). Los profesores interinos y contratados y la obsolescencia programada [Mensaje de Blog]. Rec
Blog
de http://www.juanirigoyen.es/2017/05/los-profesores-interinos-y-contratados.html

Lagos, J.(2017, junio 17). ¿Creen ustedes que la llegada a la Luna en el Apollo 11 fue falsificada? ¿Porque? [Mensaje
Foro
#69888] Recuperado de http://www.fantasitura.com/foros/debate/cree-alguien-en-este-foro-que-el-hombre-no-llego-a-la-luna-el-6

Martín, R. (13/06/17). Esto me huele a ciencia, UNED Sin distancias Podcast. Podcast recuperado de
Podcast
http://www.rtve.es/alacarta/audios/uned/uned-2017-06-13-sin-distancias/4067672/

Fuente: elaboración propia siguiendo normas APA (6ª edición).


5. EVITAR EL PLAGIO: RESPETO Y CONOCIMIENTO DE
LAS NORMAS DE CITACIÓN
Según la Real Academia de la Lengua Española (RAE) la palabra
“plagiar” deriva del latín tardío plagiare, que significaba “robar esclavos”
o “comprar o vender como esclavos a personas libres”. De aquel
significado al empleado al escribir un texto hoy, se conserva un intento de
engañar a los demás, puesto que plagiar un texto implica “copiar en lo
sustancial obras ajenas, dándolas como propias” (RAE).
Para la comunidad académica, el plagio, además de considerarse un
delito contemplado en el Código Penal, penado judicialmente, también
conlleva una sanción moral. En la Academia se valora y respeta la autoría
del trabajo y se reconocen entre la comunidad aquellos textos que están
bien escritos y que han supuesto en sus contenidos una aportación nueva a
la Ciencia. Es por este sentido que plagiar incurre en una pérdida de honor
y prestigio a aquellas personas que lo realizan, puesto que atenta contra el
autor de la misma, al que roba parte de su obra, al tiempo que se considera
un intento de engaño al resto de investigadores.
Esta cuestión, claramente reconocida entre los colegas universitarios,
parece suavizada en muchas de las últimas generaciones de estudiantes. La
razón de ello se presupone que es la existencia en Internet, ya que
proporciona una ingente cantidad de documentación elaborada sobre
todas las temáticas. Esta práctica conlleva copiar y pegar el texto sin citar a
su autor. Además de ser una práctica nefasta para el aprendizaje,
especialmente cuando se copian trabajos de páginas webs en las que éstos
poseen una baja calidad en los contenidos, existe una queja extendida entre
el profesorado sobre su nueva labor no solo de evaluar el contenido de los
trabajos escritos sino, previamente, comprobar la autoría del estudiante.
Si se respeta la presunción de inocencia se insta en estas páginas a
aquellos que van a elaborar y presentar su trabajo de investigación a que
sigan escrupulosamente las normas anteriormente descritas sobre citación y
que interioricen, como si de una obra de arte se tratase, el daño individual
y social en el que incurren al plagiar algo que otro elaboró. Para facilitar la
labor detectivesca de profesorado y preventiva del alumnado, en los
últimos años han proliferado numerosos programas que informan del
grado de coincidencia entre el texto subido y otros manuscritos existentes.
A modo de ejemplo, que cambiará con el paso del tiempo, hasta ahora se
había empleado en muchas universidades el programa Ephorus.
Actualmente se ha unido con Turnitin. Presentado como “tu aliado en la
educación”, una vez que se inserta el trabajo en la plataforma, éste
comprueba si existen similitudes con el contenido de la base de datos de
Turnitin, y se señalan aquellas partes del texto coincidentes con otro. A
continuación aparece un porcentaje, denominado índice general de
similitud, que se refiere al porcentaje de coincidencia del manuscrito
enviado con aquel contenido en Turnitin.
En resumen, conviene seguir las normas de citación y, en el caso de dudas
al haber elaborado el resumen de algún texto, recurrir a algún programa de
detección del plagio. Si se comprueba que el porcentaje de coincidencia es
elevado, se recomienda revisar los párrafos. A modo de ejemplo, los
trabajos de investigación con normativa suelen tener un elevado porcentaje
de coincidencia. En estos casos, estimar qué cuestiones es preciso modificar
antes de presentar definitivamente el trabajo ante el tutor y de depositarlo
finalmente.
6. BIBLIOGRAFÍA
Boeglin, M. (2007). Leer y redactar en la universidad: del caos de las ideas al texto estructurado.
Sevilla: MAD.
De Pablos, J.C. (2012). Guía breve APA 6. Manuscrito no publicado, Facultad de Ciencias Políticas
y Sociología, Granada.
Ferriols, R. y Ferriols, F. (2005). Escribir y publicar un artículo científico original. Barcelona: Mayo
S.A.
Fondevila, J.F. y Del Olmo, J.L. (2013). El Trabajo de Fin de Grado en Ciencias Sociales y
Jurídicas. Madrid: Ediciones Internacionales Universitarias.
León, O.G. (2016). Cómo redactar textos científicos y seguir las normas APA 6ª (4ª edición).
Madrid: Ibergaceta.
Reale, A. (2016). Leer y escribir textos de Ciencias Sociales. Procesos y estrategias. Bernal:
Universidad Nacional de Quilmes.
Capítulo 4
FUNDAMENTACIÓN DE TODA
INVESTIGACIÓN: LA REVISIÓN
BIBLIOGRÁFICA
Marta Ortega Gaspar
Universidad de Málaga

1. LA REVISIÓN DE LOS ANTECEDENTES


BIBLIOGRÁFICOS
Una vez que el alumno ha determinado su pregunta de investigación se
encuentra en el momento de comenzar a revisar los trabajos científicos que
existen sobre dicho tema, lo que le llevará a realizar la revisión de la
literatura específica sobre el objeto de estudio elegido.
Una práctica a veces generalizada entre los estudiantes es la de creer que
todo tipo de documento que verse sobre el tema en cuestión es válido como
antecedente. En este capítulo veremos hacia dónde se debe dirigir la
atención cuando se trata de desarrollar una adecuada revisión de la
literatura existente sobre el objeto de estudio elegido y qué información o
documentos hay que desechar. No se debe olvidar que estamos realizando
una investigación científica por lo que los textos con los que trabajemos
deben ser estudios científicos, o informes de calidad avalados por
instituciones de reconocido prestigio1.
Esta es una etapa esencial del proceso de investigación y formará parte de
la presentación tanto escrita como oral de todo trabajo fin de grado, de
máster y tesis doctoral.
En este capítulo se aborda una explicación de cómo se debe realizar la
revisión de la bibliografía existente y de cómo realizar una revisión crítica.
Se ofrecen algunas ideas para conocer la calidad de los textos.

1.1. La importancia de realizar una revisión bibliográfica


Una pregunta frecuente entre los estudiantes que se enfrentan a la
elaboración de su trabajo de fin de grado es la siguiente, ¿por qué es
necesario realizar una revisión de los trabajos ya existentes? La respuesta
es bien sencilla, es imprescindible conocer lo que previamente se ha
estudiado sobre el tema elegido para, entre otras razones, no repetir. No se
debe olvidar que una investigación requiere de una importante inversión
que acarrea distintos costes (humano, tiempo, dinero, …) por lo que
conocer los trabajos ya existentes evitará malgastar entre otras cosas las
energías del investigador.
Una adecuada revisión de la bibliografía requiere de la capacidad crítica
del investigador puesto que no se trata de una simple repetición de los
trabajos previos sino de utilizar el conocimiento ya existente para reforzar
el argumento de la investigación que se pretende emprender.
La revisión de la bibliografía ha de cumplir diferentes objetivos, ayudar a
conocer lo que se ha investigado sobre el objeto de estudio elegido,
determinar los conceptos teóricos y las distintas teorías sobre dicho tema,
conocer los distintos métodos que se han utilizado para estudiar el objeto
de estudio que nos ocupa, detectar si existen flecos o ámbitos a los que no
se haya llegado previamente y sobre los que sea preciso realizar un estudio
más en profundidad, determinar si aún existen preguntas sin respuesta en
dicho terreno. En definitiva, puede ayudar a determinar las lagunas de
conocimiento sobre las que puede resultar muy interesante investigar y que
justificaría la propia investigación. En otras palabras, una razón de peso es
que la revisión de la literatura contribuye a ofrecer argumentos que
justifiquen la necesidad de seguir estudiando sobre el tema que nos
interesa.

1.2. Realizar una adecuada revisión bibliográfica. Cómo sacar el máximo


partido a lo leído
Para sacar el máximo partido a las lecturas realizadas es preciso que la
lectura sea activa y crítica. Para ello es recomendable que los estudiantes
tomen nota de lo que leen, lo primero y más importante es que recojan la
referencia bibliográfica completa. Esto es algo que se suele repetir
constantemente a los alumnos pues, aunque parezca una broma, es muy
frecuente observar cómo olvidan la fuente de donde obtuvieron la
información que después usarán. Si desde el comienzo de la investigación
desarrollan el hábito de recoger la bibliografía ahorrarán mucho tiempo.
La lectura además de ser activa, ha de ser crítica pues no se trata
meramente de describir lo que los distintos autores ofrecen sino de
desarrollar la capacidad de clasificarla, contrastarla, aceptarla e incluso
rechazarla. Un error que suelen cometer los estudiantes es ofrecer una lista
sin más de los documentos revisados. Es importante no caer en esta
práctica, una relación de obras y autores no es una revisión bibliográfica.
Se deben seguir las siguientes pautas cuando se está realizando la revisión
bibliográfica:
Tomar notas de lo leído incluyendo la completa referencia bibliográfica y
ofrecer una visión crítica.
La pregunta de investigación debe ser el punto de partida y no se debe
olvidar que la revisión bibliográfica es la base del marco teórico, pero
además de la discusión de los resultados y siempre ha de estar presente en
la argumentación de las conclusiones del trabajo.
La revisión bibliográfica debe responder a lo que la audiencia a la que va
dirigida el trabajo de investigación espera de ella. Entre otras cuestiones
debe recoger las publicaciones más recientes y más relevantes sobre el
objeto de estudio. No se debe de temer si la revisión de la bibliografía
provoca un cambio en la redefinición de los objetivos del estudio que nos
ocupa (Bruce, 1994; Reuber, 2010).
La revisión bibliográfica puede hacerse de dos formas principalmente:
revisión sistemática y/o revisión narrativa.
1
Por ejemplo, informes de organismos del Gobierno, o de Instituciones Internacionales.
2. LA BÚSQUEDA DE LA LITERATURA
La revisión de la literatura consiste principalmente en la búsqueda y
cuidadosa lectura de libros, artículos de revistas e informes profesionales.
En un primer momento los estudiantes pueden encontrar orientación en las
recomendaciones que les haya ofrecido el profesor o el tutor de la
asignatura sobre la que se encuentra investigando, en muchas ocasiones un
buen comienzo puede estar en seguir las referencias bibliográficas incluidas
en el contenido de las materias estudiadas. Tales lecturas facilitarán la
determinación de las palabras claves que serán las que podrá utilizar para
buscar trabajos ya publicados y recogidos en las bases de datos
electrónicas.
Es preciso recordar que cada estudiante debe familiarizarse con los
recursos bibliográficos de la biblioteca de la universidad de la que es
miembro. Por ejemplo, en nuestro caso concreto la universidad de Málaga
pone a disposición de toda la comunidad académica los recursos
bibliográficos recogidos en el portal ‘Jábega’:
https://www.uma.es/ficha.php?id=62379, pero cada Universidad tiene su
propia web con acceso a los recursos de su biblioteca.

2.1. Las bases de datos electrónicas (Web of Science, Social Science


Citation Index, Scopus, Google académico, Dialnet)
El alumno debe conocer los recursos electrónicos de los que dispone su
institución universitaria. El primer paso es conocer su nombre de usuario y
su clave pues para el uso de estos recursos le serán solicitados.
En primer lugar, presentaremos dos de las plataformas principales que
recogen múltiples bases de datos: WOS y SCOPUS.
A estas dos plataformas se puede acceder a través de la web de la
universidad que conecta con el ISI Web of Science (WOS) con anterioridad
se conocía como web of Knowledge (Wok).

2.1.1. Cómo acceder y utilizar la Web Of Science (WOS)


La mejor forma de aprender a utilizar la WOS es a través de un ejemplo
práctico.
¿Cómo se accede a la Web of Science?:
En la universidad de Málaga se accede a su web: https://www.uma.es (o
desde el portal de la Universidad a la que pertenezca el estudiante).
A continuación, se pincha en servicios Bibliotecas Universitarias (BUMA)
(previamente el estudiante se habrá identificado con sus claves de acceso
que lo identifican como miembro de la comunidad universitaria que se
trate, en este caso específico, la universidad de Málaga).
Al entrar en la web de la biblioteca encontrará la pantalla de acceso.
Bajo el rótulo, Búsqueda rápida en el catálogo Jábega (en el caso de la
Universidad de Málaga) aparece la ventana ‘palabra clave’ donde
introducirá las siglas “ISI”. (Esta es una forma rápida y muy sencilla de
acceder a este catálogo).
Importante: el alumno debe seleccionar en la ventana que sigue
“Catálogo de Publicaciones Electrónicas”
Debe hacer “click” sobre la imagen donde aparece “Acceso al recurso
electrónico” lo que le introducirá directamente en dicho catálogo.
Como se puede observar en la pantalla de acceso se ofrecen dos opciones:
“WOS” o “SCOPUS”.
Si hace click sobre “WOS” entrará en la Web of Science. Una vez ahí se
elige la pestaña “SERVICIOS” y a continuación “ACCESO A BASE DE
DATOS”. Una vez dentro se pinchará en “ACCESO DIRECTO A CADA
UNA DE LAS BASES DE DATOS DE LA WEB OF SCIENCE”
(wos.fecyt.es). Se debe recordar que por defecto el buscador utilizará todas
las bases de datos en sus búsquedas, aunque se puede seleccionar la base
que nos interese.
Resulta interesante registrarse para tener acceso a más funciones (ver
botón derecha “Sign in”) se puede elegir el idioma.
También se puede acceder a través del catálogo jábega de la universidad y
entre las opciones que ofrece se pincha en el link que indica “Acceso a
través de la licencia nacional restringido a usuarios de la UMA”. En otras
Universidades acceder a través de la biblioteca de cada Universidad.
La Web of Science (WOS) como su nombre indica es una web que recoge
las principales publicaciones científicas de cualquier disciplina. Es una base
de datos que ofrece referencias y resúmenes (abstracts) e incluso en algunos
casos se puede acceder a los artículos completos publicados en las revistas
científicas más destacadas.
El uso de WOS permite obtener una visión bastante completa de lo que se
ha publicado más recientemente en la materia de estudio que nos ocupe en
ese momento.
La WOS está formada por las siguientes bases de datos:
1. Herramientas para la citación y actualización:
a) Science Citation Index productos de citas y actualizaciones;
b) Social Science Citation Index (más adelante nos detendremos en ésta)
c) Arts and Humanities Citation Inde;
d) SciCielo;
2. Herramientas para el análisis y evaluación:
a) Journal Citation Report y Essential Science Indicator
b) Endnote (gestor de referencias)
3. Gestor de referencias bibliográficas
Como acabamos de contemplar la WOS está formada por múltiples bases
de datos entre las que se encuentra ‘Social Science Citation Index’.
Social Science Citation Index o índice conocido por sus siglas en inglés
SSCI, es el recurso electrónico más utilizado en las Ciencias Sociales. Este
índice recoge entre mil y dos mil revistas científicas del ámbito de las
Ciencias Sociales desde 1970.
Para elegir utilizar el Social Science Citation Index procederemos a entrar
en WOS siguiendo los pasos antes descritos y a continuación eliminaremos
el ‘tick’ de las casillas del resto de los índices de bases de datos de citación.
A partir de ese momento se podrá realizar la búsqueda por ‘Topic’ (tema)
y/o por ‘Author’ (autor) introduciendo los términos o nombres deseados en
las casillas que aparecen junto a ‘Search for’ y haciendo clic sobre Search.
Se puede elegir el período de tiempo sobre el que se quiere realizar la
búsqueda (Timespan).
SSCI permite obtener una búsqueda que abarca los contenidos de las
revistas científicas, las revisiones de libros y material de editoriales. El
método de búsqueda es a través del uso de ‘keywords’ (palabras claves).
Es aconsejable que los estudiantes se habitúen a comprobar el número de
citas que, el artículo que les haya interesado, ha recibido pues de esta
forma puede llegar a conocer en qué otros trabajos se han utilizado y de
qué manera lo han hecho. Esto le puede llevar a obtener información
adicional para su trabajo de Grado, de Fin de Máster o de tesis doctoral.
Se puede utilizar el Cited Reference Search para buscar artículos que citan
a otro previamente conocido.

2.1.2. Como acceder y utilizar SCOPUS


Scopus es la mayor base de datos de resúmenes, ofrece el acceso a más de
28 millones de resúmenes (o abstracts) de muy distintas disciplinas
(Química, Física, Matemáticas, Ingeniería, Ciencias de la vida y la Salud,
Ciencias Sociales, Psicología y Economía).
Los pasos para acceder a Scopus son similares al caso anteriormente
descrito, también se necesita tener acceso a Athens o conocer el nombre de
usuario y la palabra clave (ofrecido por la institución a la que se
pertenezca). En este caso para el ejemplo vamos a seguir otra ruta dentro
de la web de la universidad de Málaga. A través de la web de la UMA se
accede al catálogo jábega. En palabra clave introducimos ‘Scopus’
(catálogo de publicaciones electrónicas). De nuevo, recordar que cada
Universidad tiene su acceso a través de la web de su respectiva biblioteca.
A continuación, se pinchará en el ‘Scopus recurso electrónico’ y
seguidamente aparecerán tres opciones debiéndose elegir para acceder a la
base de datos en: ‘Acceso a través de la web, restringido para usuarios de
la universidad de que se trate, en nuestro caso y siguiendo con nuestro
ejemplo, la UMA’.
Una vez en la plataforma de Scopus se podrá realizar la consulta a través
de la búsqueda general (‘General search’). Aquí se puede buscar por
‘documento’, ‘autor’, ‘afiliación’ o ‘búsqueda avanzada’ y se podrá limitar
la consulta por año o años de la publicación (existen archivos desde 1969).
Recuérdese que puede eliminar la selección de aquellas áreas de
conocimiento que no sea de interés para el objeto de estudio específico de
su trabajo. Todas las consultas realizadas se pueden archivar. Scopus
ofrece una mayor variedad de revistas que SSCI.

2.1.3. Google Académico o Google Scholar


Es muy importante tener en cuenta que buscadores como Google sólo son
meros buscadores, no evalúan la información que ofrecen, esta es la gran
diferencia con las anteriores bases de datos descritas arriba (Bryman,
2012). Esto no quita que ‘Google Scholar’ sea un buscador interesante a
tener en cuenta cuando se está realizando la revisión bibliográfica.
‘Google Scholar’ o ‘Google Académico’ ofrece información en inglés y/o
en español. Brinda variedad de información sobre cualquier materia;
permite obtener las citas (el número de veces que se ha citado un trabajo y
quiénes lo han citado, ‘Cited by’); ofrece información sobre los artículos
relacionados con el buscador ‘Related Articles’. Es posible además usar la
opción ‘Citar’ a través de la cual se puede elegir el modo en el que se quiere
recoger la cita del artículo consultado (MLA, APA, Chicago) y exportar
dicha cita por medio de Bibtex, Ris y Endnote.
El acceso a Google Académico es muy sencillo, basta con seguir el
siguiente enlace:
https://scholar.google.es

2.1.4. Dialnet
‘Dialnet es un portal bibliográfico que recopila recursos científicos
hispanos y los difunde a través de un servicio de alertas documentales, y
facilita el acceso a los mismos —si están disponibles gratuitamente—,
apostando por el acceso abierto a la literatura científica. Dialnet funciona
como un proyecto cooperativo, nacido en la Universidad de la Rioja, en el
que actualmente participan numerosas bibliotecas universitarias españolas,
entre ellas la Biblioteca de la Universidad de Málaga (UMA)’. Véase,
RIUMA(2015).
Su acceso se realiza a través del siguiente link: http://dialnet.unirioja.es.
Para usar Dialnet es preciso registrarse como usuario, aunque no es
necesario el registro para la búsqueda básica de documentos. El registro es
gratuito.
Dialnet ofrece acceso a: la búsqueda básica de documentos (revistas, tesis,
actas de congresos), la suscripción de alertas de información y el acceso a
todos los textos completos disponibles.
Dialnet Plus es una versión más completa a la que puede acceder los
usuarios de bibliotecas universidades y otras entidades colaboradoras. Los
miembros de la universidad de Málaga pueden acceder a Dialnet Plus a
través del catálogo Jabega.
Dialnet Plus permite la búsqueda avanzada de información y guardar las
búsquedas, exportar y/o enviar por correo los documentos seleccionados y
crear listas bibliográficas para compartir. Para su uso se puede consultar el
completo manual de uso que la Fundación Dialnet de la Universidad de la
Rioja ha elaborado y que está disponible a través de la web de Dialnet:
https://dialnet.unirioja.es/publico/anexos/info_Dialnet_Plus.pdf.

2.1.5. Sociological Abstracts (plataforma Proquest)


‘Sociological Abstracts contiene resúmenes e índices de la bibliografía
internacional de libros, capítulos de libros, tesis, etc. de más de mil
publicaciones seriadas relacionadas con las Ciencias Sociales y del
comportamiento. Sus documentos datan de 1952 hasta la actualidad,
recoge indexados más de 900.000 registros bibliográficos.’
Las principales áreas temáticas que abarca son: cultura y estructura
social, familia y bienestar, historia y teoría sociológica, metodología de la
investigación, estudios sobre la mujer, sociología rural y urbana, etc.
Muchos registros de publicaciones clave en Sociología se encuentran
agregados a la base de datos desde 2002, también incluyen las referencias
citadas en la bibliografía del artículo de origen.
En el caso de la Universidad de Málaga, se accede a través del Catálogo
Jábega para uso restringido a usuarios UMA.
En Riuma se puede consultar la guía de uso de Sociological Abstracts:
http://riuma.uma.es/xmlui/bitstream/handle/10630/6533/Guia%20de%20uso%20Socio
sequence=1, los estudiantes de diferentes universidades tendrán que entrar
a través del portal de la biblioteca de su Universidad.

2.2. Los parámetros de búsqueda


La elección de ‘keywords’ o ‘palabras claves’ es otro elemento esencial de
la revisión de la bibliografía. No es tan sencillo como en un primer
momento pueda parecer. Se puede comenzar con la revisión de las lecturas
recomendadas en clase, por aquellas sugeridas por el tutor y a partir de
éstas observar las palabras claves utilizadas en dichos estudios. Además, se
pueden incluir en la búsqueda de la bibliografía palabras que los autores
leídos hayan utilizado como sinónimas (de esta manera se amplían las
posibilidades de poder abarcar todos los estudios relevantes sobre el objeto
de estudio elegido).
Por ejemplo, si el objeto de estudio es ‘la conciliación de la vida familiar y
laboral’ el estudiante utilizará las palabras claves: ‘conciliación familiar y
laboral’; ‘corresponsabilidad’ o en inglés: ‘work-family balance’;
‘conciliation’, ‘reconciliation’, etc. El investigador aprenderá a ir
ampliando el listado de palabras clave a medida que se adentra en el
proceso de la revisión bibliográfica.
Como orientación en el uso de las palabras claves se puede recurrir al uso
de la herramienta ‘HELP’, la ‘AYUDA’ que todas las bases de datos ponen
al servicio de sus usuarios para facilitar el uso de las palabras claves y
sacarles el mayor rendimiento. Las sugerencias que recogen dichas ayudas
sobre el uso de los operadores: ‘AND’, ‘OR’, ‘NOT’… es una de las
mejores maneras de enfocar la búsqueda adecuadamente. Además, es útil
elegir en las bases de datos la pestaña que ofrece el listado en función a la
‘RELEVANCIA’, de esta manera se filtrarán los trabajos según su
importancia.
3. EL META-ANÁLISIS BIBLIOGRÁFICO
El meta-análisis es ‘el análisis estadístico de una gran colección de
resultados de trabajos individuales con el propósito de integrar los
hallazgos obtenidos’ (Glass, 1976: 3 citado en Sánchez-Checa, 2010).
El desarrollo de un meta-análisis comprende las mismas fases que un
trabajo de investigación empírico, pero con la diferencia de que su unidad
de análisis es el estudio empírico y no las poblaciones concretas. Las fases
son las siguientes: a. Formulación del problema, b. Búsqueda de los
estudios, c. Codificación de los estudios, d. Cálculo del tamaño del efecto,
e. Análisis estadístico e interpretación y f. Publicación del meta-análisis.
(Sánchez-Checa, 2010).
Para seguir profundizando sobre el meta-análisis puede consultarse entre
otros el trabajo de Borenstein, Hedges, Higgins y Rothstein (2009).
4. EVALUAR LA CALIDAD DE LOS TEXTOS
En el proceso de búsqueda y revisión de la bibliografía el estudiante ha de
aprender a evaluar la calidad de los documentos. Hoy en día internet pone
a nuestra disposición el acceso a innumerable información, pero es preciso
comprender que no toda información es útil. Muchas veces el estudiante
no es consciente que toda la información de fácil acceso en Internet no ha
pasado por filtros adecuados que la conviertan en información rigurosa y
científica. Es bastante frecuente que la información que llega a nuestras
manos sea muy simple, o que reúna fines comerciales o esté fuertemente
sesgada por alguna opinión, en definitiva, que no guarde el rigor
académico adecuado para que sea utilizada en un trabajo de investigación
como es el trabajo fin de grado, el trabajo fin de máster o la tesis doctoral.
Esa es la principal razón por la que los estudiantes deben aprender a
utilizar los recursos que les brinda la institución académica a la que
pertenecen y a través de ella acceder a las bases de datos comentadas
anteriormente.
Además, puede ser interesante que los estudiantes confeccionen una lista
con direcciones web que puedan visitar con regularidad (Bryan, 2012) en
aras a estar al día sobre publicaciones relacionadas con su objeto de
estudio. De todas formas, siempre se ha de trabajar con juicio crítico y más
aún cuando, por ejemplo, se utiliza Wikipedia porque no se debe olvidar
que todo usuario puede configurar una entrada y por lo tanto su rigor
científico no está probado. Por esta razón, una recomendación en la que
coinciden la mayoría de los tutores académicos es la de no utilizar
Wikipedia en los trabajos de investigación científica.
Si el estudiante está realizando un trabajo de Ciencias Sociales algunas
fuentes a incluir en la lista de páginas web a visitar pueden ser entre otras:
Centro de investigaciones Sociológicas:
– http://www.cis.es
Instituto Nacional de Estadística (España):
– http://www.ine.es
Federación española de Sociología:
– http://www.fes-sociologia.com
Instituto de la mujer y para la igualdad de oportunidades:
– http://www.inmujer.gob.es
Ministerio de Empleo y de la Seguridad Social:
– http://www.empleo.gob.es
FOESSA:
– http://www.foessa.org
Eurostat:
– http://ec.europa.eu/eurostat
Banco Mundial:
– http://www.worldbank.org
5. BIBLIOGRAFÍA
Borenstein, M., Hedges, L.V., Higgins, J.P.T. y Rothstein, H.R. (2009). Introduction to meta-
analysis, Chichester, UK: Wiley.
Bruce, C. (1994). Research Students’ Early Experiences of the Dissertation Literature Review,
Studies in Higher Education, 2(19), pp. 217-29.
Bryman, A. (2012). Social Research Methods. Oxford y Nueva York: Oxford University Press.
Reuber, A. (2010). Strengthening your Literature Review. Family Bussiness Review, 23, pp. 105-8.
RIUMA. (2015). Guía de uso de la base de datos Dialnet (y Dialnet Plus).
http://riuma.uma.es/xmlui/bitstream/handle/10630/6533/Guia%20de%20uso%20Sociological.pdf?
sequence=1.
Sánchez-Checa, J. (2010). ‘Cómo realizar una revisión sistemática y un meta-análisis’. Aula Abierta,
38 (2), pp. 53-64.
Capítulo 5
LA ELABORACIÓN DE MARCOS TEÓRICOS
APLICADOS
Félix Requena Santos
Universidad de Málaga

Las teorías son redes que lanzamos para capturar aquello que llamamos “el mundo”:
para racionalizarlo, explicarlo y dominarlo
Karl R. Popper1

1. INTRODUCCIÓN
Este capítulo explica los pasos para conseguir un buen marco teórico en
el que enmarcar nuestra investigación. Todo trabajo de investigación para
que tenga importancia explicativa es necesario que tenga un marco teórico
en el que se puedan contextualizar las hipótesis que se van a comprobar. Se
trata de que nuestras hipótesis de investigación estén enmarcadas en un
argumento teórico que sirva de contexto en nuestra investigación. Los
datos que encontramos en la realidad que queremos estudiar se entienden
mejor si se los enmarca dentro de una explicación teórica.
En esta fase de nuestra investigación, no es necesario que “inventemos”
una nueva teoría (si conseguimos inventarla, pues mejor). Lo que hay que
hacer es buscar, dentro de las existentes, un marco teórico apropiado en el
que nuestros datos tengan sentido. Fruto de ese marco teórico podremos
derivar algunas hipótesis que serán las que comprobaremos a través del
trabajo de investigación. Con nuestra investigación, lo que haremos es
verificar o, por el contrario, falsar2 la hipótesis que hemos supuesto. Esta
es la “justificación” de nuestro estudio: que pueda ser comprobado,
contrastado y comprendido por cualquier persona. Esta es la misión del
trabajo científico: proponer teorías y contrastarlas (Popper, 2008: 37 y
54).
Para comenzar, lo primero es pensar acerca de lo que sabemos o
queremos saber sobre una cuestión concreta de la realidad: es lo que vamos
a estudiar. Una vez que hemos encontrado un problema o cuestión que
queremos estudiar, tenemos que reflexionar sobre ella y buscar todo lo que
encontremos que se haya escrito sobre esa cuestión. Tenemos que imaginar
cómo vamos a estudiar un problema antes de iniciar la investigación. Esto
se consigue leyendo y documentándose sobre la cuestión a estudiar. Sin
embargo, si no tenemos un modelo teórico adecuado no podremos dirigir
ni enfocar de forma correcta el problema que queremos estudiar.
La teoría hay que verla como el marco de referencia en el que se pueden
ajustar las hipótesis que dan luz a nuestros datos durante el desarrollo de
la investigación. Esto dará lugar a un proceso creativo generando
explicaciones fructíferas y nuevas teorías sobre aspectos concretos del
problema a estudiar. Los datos de la realidad se comprenden mejor si se los
mira por el cristal de una teoría determinada (Requena y Ayuso, 2016: 11).
En la Ciencias Sociales existe un amplio conjunto de teorías que nos
ayudan a comprender y solucionar un gran número de problemas. De
hecho, la Sociología y casi todas las Ciencias Sociales son
multipradigmáticas. Es decir, que hay muchas teorías, y cada una explica
una parcela diferente de la realidad social. Esto nos permite que en cada
circunstancia concreta podamos utilizar una u otra según cual sea el objeto
de nuestro estudio. De esta forma, tenemos que tener presente siempre qué
tipo de teoría es mejor para explicar determinado fenómeno social. La
razón por la que existen muchas teorías sobre los fenómenos sociales es
explicar los diferentes aspectos de la realidad social. La realidad social es
tan compleja y se ve afectada por un gigantesco número de variables, de
modo que es prácticamente imposible explicarlo todo conjuntamente. Por
este motivo existen teorías parciales que explican diferentes parcelas de la
realidad. Por ello, cuando realizamos nuestro marco teórico, lo importante
es centrarnos en el aspecto de la realidad que queremos estudiar y buscar la
teoría que mejor se adapte a su explicación.
1
Popper, K.R. (2008). La lógica de la investigación científica. Madrid: Tecnos, p. 71.
2
Falsar una hipótesis consiste en encontrar casos para los que no sirve nuestra teoría. Nuestro
estudio puede ser tanto para comprobar que una hipótesis es cierta como que una hipótesis es
falsa.
2. PASOS A SEGUIR EN UN ESTUDIO
Los pasos que seguiremos para obtener un buen marco teórico son los
siguientes:
1. Contextualizar el problema que queremos estudiar.
2. Revisar la bibliografía que exista sobre la cuestión.
3. Elegir la teoría que mejor se adapta a nuestra investigación; y
4. Elaborar el proceso metodológico a seguir.

2.1. Contextualizar
En la práctica, la parte más difícil de una investigación es el comienzo. De
nada sirve que al final tengamos mucho cuidado y precisión en el análisis
estadístico de los datos si se ha comenzado de forma incorrecta. Si se ha
planteado mal o se ha elegido una hipótesis intranscendente. Por eso, es
muy importante contextualizar bien el problema que vamos a estudiar.
Esto nos ayudará a elegir correctamente el marco teórico necesario para
nuestro estudio. Contextualizar es ver donde está inserto nuestro
problema: por ejemplo, ver cuál es su dimensión histórica, geográfica, a
cuanta y qué tipo de población afecta, etc. Al principio hay que tratar de
buscar implicaciones en todos los sentidos, después nos quedaremos con
aquellas que más nos interesen.
Otra forma de contextualizar el problema que queremos estudiar es la
revisión de la experiencia. Se trata de obtener información de la
experiencia que tienen las personas expertas que trabajan diariamente con
un problema social. Por ejemplo: mujeres maltratadas; inserción de jóvenes
conflictivos; inserción y rehabilitación de delincuentes; personas con
enfermedades crónicas, etc… Estos especialistas, a través de su trabajo
diario, tienen una gran cantidad de experiencias que son de mucho valor
para un científico que intenta familiarizarse con un tema concreto (Selltiz,
C. et al, 1980: 138). Por esto, es muy importante seleccionar muy bien a
los expertos. En estas entrevistas, los expertos pueden darnos información
sobre las cuestiones más importantes que pueden afectar a un problema
concreto; cuáles son las variables relevantes y cuáles son las hipótesis
interesantes que han ido descubriendo a lo largo de los años en su trabajo
cotidiano. Todo esto pueden ser ideas muy sugerentes para enfocar nuestro
estudio sobre un problema social concreto. Sin embargo, es muy
importante seleccionar correctamente a la persona a entrevistar. Es una
pérdida de tiempo interrogar a personas que tengan poca experiencia: y lo
que es peor, pueden confundirnos. El método Delphi es el que mejor se
adapta a esta estrategia. Hay que recordar que esta estrategia no es única
ni exclusiva, sino que se puede y se debe completar con otros métodos de
obtención de información.

2.2. Revisar la bibliografía


A continuación tenemos que hacer una revisión de la bibliografía que
exista sobre nuestro problema. Esta fase es muy importante. Es una forma
de economizar esfuerzos al mismo tiempo que se obtiene información
sobre los puntos de vista sobre los que se pueden enfocar nuestro estudio.
Se trata de repasar y reconstruir el trabajo realizado por otros en un tema
similar al nuestro. Este repaso tiene que centrarse en las hipótesis que
pueden servir como directrices para posteriores investigaciones. Las
hipótesis pueden haber sido establecidas de forma explícita en anteriores
investigaciones. Es muy importante que sepamos lo que se ha hecho antes.
Para ello podemos usar los buscadores bibliográficos o las bases de datos
de artículos, por ejemplo Sociological Abstracts o JSTOR u otras que
conozcamos relativas a nuestra especialidad concreta. En estas bases
buscaremos usando las palabras clave de la cuestión a estudiar. Seguro que
aparece algún artículo o libro sobre algo parecido a esta cuestión. Bien, ya
tenemos un hilo para tirar de él y comenzar a documentarnos sobre el
problema que vamos a estudiar. Es muy importante ver qué es lo que se ha
hecho anteriormente sobre lo que estamos interesados. Sería una pena que
pusiéramos mucho empeño en realizar algo que ya se ha estudiado antes
(Selltiz, C. et al, 1980: 136).
También es bueno repasar las fuentes de datos institucionales, del
gobierno, de Institutos de investigación, de fundaciones, etc. porque
pueden orientarnos sobre si tenemos datos para nuestro objetivo de
investigación. Si tenemos un objetivo de investigación para el que no hay
datos, entonces puede que sea un objetivo muy novedoso y original, pero
difícilmente podremos realizar nuestro trabajo en un tiempo razonable por
lo que sería conveniente pensar en un cambio de objetivo. El tiempo es
otro elemento más a tener en cuenta en nuestro trabajo de investigación.
No tenemos todo el tiempo del mundo, sino solo unos meses. Por tanto,
tenemos que aprender a optimizar el tiempo de trabajo.
2.3. Elegir la teoría
Por último, elegiremos la teoría que mejor se adapte a nuestro objetivo de
investigación. Una buena herramienta para elegir un marco teórico es por
ejemplo buscar en los manuales de teoría social o teoría sociológica y hacer
un repaso rápido de las teorías existentes sobre diferentes cuestiones. Un
libro que puede ayudar bastante a la hora de ver cómo se pueden aplicar
las diferentes teorías sociales a los diversos problemas es el libro Teoría
Sociológica Aplicada3. En este libro se explica cómo cada una de las
principales teorías sociales tiene diferentes aplicaciones concretas a
diversos problemas sociales.
Uno de los medios muy útiles para desarrollar hipótesis es el intento de
aplicar al área en la que se está trabajando, conceptos y teorías
desarrolladas en contextos distintos al nuestro. Esto puede ser muy
interesante porque ayuda a proporcionar otros puntos de vista. Además de
que la ciencia avanza más rápido en las zonas tangenciales entre
disciplinas; las revistas de alto impacto siempre están interesadas en
investigaciones que están entre varias disciplinas porque esto aumenta su
número de lectores. Así que no tengamos miedo en adoptar una teoría que
provenga de la Física, la Química u otra disciplina de las Ciencias Sociales
que no sea la nuestra.
Otro método fundamental para tomar ideas y marcos teóricos para
nuestro objetivo de investigación es leer a los clásicos. Siempre es bueno
leer a los clásicos. En Sociología, por ejemplo, leer a Weber, Durkheim,
Simmel, Tocqueville, Merton o Mills siempre proporciona buenísimas
ideas. Las obras de estos autores tienen una gran capacidad creadora —por
eso son clásicos—, lo que significa que, sin duda, nos ayudarán dando
inspiración para redactar hipótesis originales. Tampoco está de más leer
buena literatura. Leer novelas, buenas novelas, puede dar lugar a muchas
sugerencias estimulantes acerca de variables importantes en las situaciones
que queremos estudiar.

2.4. El proceso metodológico


En este punto conviene tener claro el proceso metodológico que conlleva
toda investigación social. Se trata de una guía de pasos a los que tenemos
que prestar atención durante toda nuestra investigación. El listado que
proponemos es orientativo y conviene repasarlo constantemente durante el
desarrollo de nuestro trabajo. Ver tabla 1.
Tabla 1. Proceso Metodológico

1. Descubrimiento del problema a investigar

Marco Teórico 2. Documentación y definición del problema


—Se construye en este paso—

3. Imaginar una respuesta probable al mismo, o hipótesis

4. Deducir o imaginar consecuencias de las hipótesis o subhipótesis empíricas

5. Diseño de la verificación de las hipótesis o del procedimiento concreto a seguir en


su prueba

6. Puesta a prueba o contraste con la realidad de las hipótesis a través de sus


consecuencias o mediante subhipótesis empíricas

7. Establecimiento de las conclusiones resultado de la investigación


Conviene intentar crear una pequeña
8. Extender las conclusiones o generalizar los resultados
ley: TEORIZACIÓN

Fuente: Adaptado de Sierra Bravo (1994: 42)


3
Requena, F. y Ayuso, L. (2016).
3. CONSTRUCCIÓN DEL MARCO TEÓRICO
El marco teórico hace referencia al contexto teórico o teoría en la que se
enmarca y apoya nuestra investigación. Es decir, el contexto en el que se
pueden insertar nuestras ideas de investigación. Este marco lo obtendremos
después de realizar los pasos anteriores: contextualizar y revisar la
bibliografía sobre la cuestión que estamos estudiando. El marco teórico
está muy relacionado con las hipótesis que podemos elaborar para nuestra
investigación. Las hipótesis son enunciados con ideas supuestas que no
están verificadas o comprobadas todavía, y que nosotros debemos
confirmar o falsar a lo largo de nuestro trabajo.
Llegados a este punto es importante tener presente el Esquema de
Wallace. Este esquema nos recuerda que toda investigación comienza en
una teoría de la que se derivan las hipótesis. Estas hipótesis se
operacionalizan a través de conceptos que se convierten en indicadores e
índices para medir la realidad que estamos observando. Una vez observada
y medida la realidad con los índices que hemos fabricado se interpretan los
datos obtenidos y se realizan generalizaciones que contrastan las hipótesis
(es decir, las confirman o las falsan), que nos lleva a confirmar, matizar o
modificar nuestra teoría.

Gráfico 1. Esquema de Wallace

Fuente: Adaptado de Sierra Bravo (1994: 51)


El esquema de Wallace pone de manifiesto que el proceso de
investigación es un proceso dinámico. Se trata de un sistema en el que sus
elementos están interrelacionados. Es un proceso relacional entre la
realidad y las teorías que explican la realidad. Como se puede observar el
proceso tiene dos partes, una ascendente que va desde los datos a la teoría
que es inductivo y que podemos llamar proceso de teorización; este
proceso se inicia en la observación de la realidad, posteriormente se
recogen los datos y se analizan de forma que a partir de ellos se deducen
hipótesis que dan lugar a una teoría. Por el contrario, está el proceso
inverso, deductivo, que parte de la teoría, de lo que se sabe sobre un
determinado fenómeno, y a partir de estos postulados se elaboran
hipótesis, se operacionalizan los conceptos y se verifican las hipótesis con
los datos observados en la realidad. Estas dos formas de conocimiento son
complementarias.
Este proceso implica una secuencia lógica en la que se distinguen dos
subprocesos de movimiento inverso (Sierra Bravo, 1994: 45):
1. de verificación (deductivo): en el que la investigación parte de la teoría
existente y desciende a la realidad empírica, y
2. de Teorización (inductivo): la investigación parte de la realidad
estudiada y asciende a la teoría.
Como se puede comprobar el proceso lógico de la investigación comienza
con ideas y termina con ideas:

Gráfico 2. De las ideas a las ideas

Fuente: Adaptado de Sierra Bravo (1994: 46)


Otro elemento importante a la hora de construir nuestro marco teórico es
decidir qué tipo de metodología teórica elegir para nuestra investigación.
Por ejemplo, elegir si nos interesa más inclinarnos por el Individualismo
metodológico o por el Colectivismo metodológico. El caso del
Individualismo metodológico es el conjunto de teorías que considera que se
pueden explicar los fenómenos sociales asumiendo que las causas
descansan en acciones, actitudes o creencias individuales; el Individualismo
metodológico supone que las causas de tales acciones, actitudes o creencias
se basan en el significado que tienen para sus actores (Boudon, 2004: 225).
Los principales representantes de esta línea metodológica son autores como
Weber, Goldthorpe, Boudon, etc.
Por otro lado, el Colectivismo metodológico, también llamada
perspectiva holista, hace referencia a que la sociedad está repleta de
patrones, estructuras independientes de los individuos que la componen
(Alexander, 2008: 18). Es decir, existen estructuras sociales exteriores a los
actores que la componen y que ejercen fuerzas sobre su conducta. Esta
perspectiva presenta a la sociedad como una totalidad que consiste en
“algo más” que la mera suma o composición de sus partes integrantes o
individuos que la forman. De manera que los fenómenos tienen una
eficacia causal propia, o no es reductible a fenómenos individuales
(Noguera, 2003: 103). Los principales representantes de esta línea
metodológica son autores como Durkheim, Marx, los autores
funcionalistas tales como Parsons, etc.
En Sociología, en particular, y en Ciencias Sociales, en general, son muy
importantes los hechos y su tratamiento estadístico, sin embargo, es
sumamente importante tener en cuenta que sin una teoría que dirija su
interpretación y orientación, los hechos, por sí solos, casi carecen de
sentido. Por esto, siempre tenemos que buscar un marco teórico para
nuestra investigación. Para que podamos dar sentido a los datos de la
realidad que queremos estudiar.
4. MARCO TEÓRICO E HIPÓTESIS
La observación de los hechos de la realidad social solo tiene sentido si se
han definido con precisión las cuestiones que se van a plantear. La realidad
se observa mejor cuando se está buscando algo. Es decir hay que mirar
para ver. Tenemos que estar buscando algo, solo de esta forma nos será
más fácil encontrar.
En la medida de lo posible, las cuestiones deben adoptar la forma de
hipótesis de trabajo, es decir, que al plantear la cuestión debe formase una
respuesta supuesta cuya corrección significará la investigación. Esto
significa que una hipótesis de trabajo es un esbozo de ley social; si la
hipótesis resulta verificada por la experiencia, entonces se convierte en ley
(Duverger, 1981: 385). Estaremos teorizando.
No existen reglas concretas para la elaboración de unas hipótesis de
trabajo. Nos encontramos de nuevo en el terreno de la imaginación
creativa, de la invención, de la intuición, que se sitúa más allá de toda
metodología rigurosa. En este momento tenemos que imaginar una cierta
relación entre dos aspectos de la realidad que estamos observando. La
mejor forma de enunciar una hipótesis es ponerla en forma condicional: “si
ocurre esto…, entonces ocurrirá…esto otro”. Si logramos poner nuestras
hipótesis en formato condicional tenemos una gran parte del trabajo hecho
porque nos será más fácil verificarlas o falsarlas. Además las hipótesis en
formato condicional ayudan a ver una relación de causalidad, es decir, una
variable (causa) implica la variación en la otra variable (efecto). Las
variables causa las podríamos hacer equivaler a las variables
independientes (o factores explicativos) y las variables efecto serían como
la variable dependiente.
5. TEORÍA Y DATOS DE LA REALIDAD
La teoría es el punto de partida y el punto de llegada de una
investigación. Cuando comenzamos a investigar, lo primero que tenemos
que hacer es buscar una teoría que se haya dedicado a la cuestión que
estamos estudiando. Es el prisma a través del cual veremos con claridad los
datos que estamos estudiando. Al mismo tiempo, cuando comprobemos
nuestras hipótesis podremos confirmar y aumentar en algún matiz esa
teoría anterior. De esta forma, el proceso de investigación es un proceso
circular: comienza en la teoría y finaliza creando otra teoría.
Teoría y realidad están recíprocamente vinculadas: la teoría dice cómo es
la realidad y, si puede, por qué es así (la describe y eventualmente la
explica), constituye el punto de partida de toda investigación; y, de
inmediato, en el proceso de investigación la realidad se impone sobre la
teoría. Es decir, la contrastación de las hipótesis derivadas de esa teoría
con los datos que hayamos obtenido implica su confirmación, rectificación,
modificación, amplificación o falsación de esa teoría (Beltrán, 2012: 233).
El marco teórico que busquemos tiene que adaptarse a nuestros datos.
No al revés. Lo primero que hay que hacer es observar con atención y con
cuidado, y una vez que tenemos claro cuál es nuestro objetivo, entonces
hay que buscar la teoría que mejor se adapta a los datos que tenemos. Las
teorías no deben inventarse en abstracto, sino que tienen que adecuarse a
las tareas de explicación fundamentada por los datos. Verdaderamente, la
teoría, lo único que hace es crear la capacidad de inventar explicaciones de
la realidad observada (Requena y Ayuso, 2016: 23).
Queda claro que la teoría y los datos no deben separarse. Tan importante
es lo que la teoría aporta a la investigación empírica, como lo que los datos
aportan determina constantemente la teoría. Las teorías no solo
determinan los instrumentos de la investigación social empírica, también
determinan el mundo social investigado. Por eso el investigador social
empírico no debe desentenderse de las teorías, simplemente por el
argumento de que prefiere abstenerse de toda clase de especulación teórica
y pretenda centrarse solo en los datos (Joas y Knöbl, 2016: 13). Si hacemos
esto nos encontraremos con que tenemos datos sin ningún tipo de
argumentación, lo que nos dificultará el desarrollo de nuevas aportaciones
en forma de leyes.
La teoría es, pues, tan necesaria como inevitable: sin ella no sería posible
aprender nada ni actuar de manera coherente. Sin generalizaciones y
abstracciones, el mundo sería como un confuso conglomerado formado
por experiencias e impresiones inconexas. Las teorías lo que
verdaderamente hacen es poner orden en nuestra forma de ver la realidad.
Es un modelo de referencia con el que podemos guiarnos en la forma de
ver nuestros datos. En nuestra vida diaria no hablamos de teorías, pero las
estamos utilizando constantemente, sin darnos cuenta. De modo que hacer
teorías es parte esencial tanto de la vida cotidiana como de la ciencia, ya
que es la única forma de acercarnos a la realidad (Joas y Knöbl, 2016: 15).
Cómo decía Karl Popper (2008) “la teoría es la red que arrojamos para
capturar ‘el mundo’ —para racionalizarlo, para explicarlo y para
dominarlo—”. Lo que en realidad hacemos cuando estamos haciendo
ciencia es conseguir que estas redes sea cada vez más tupidas para que se
nos escape la menor cantidad posible de realidad.
En una buena investigación hay que evitar tanto una teoría desconectada
de cualquier evidencia empírica y consistente en conceptualizaciones
huecas, como una investigación empírica carente de línea teórica. No es
posible explicar nada pretendiendo establecer inferencias causales a partir
de los simple resultados de análisis estadísticos (Maravall, 2010: 20).
6. CONSTRUIR UNA BUENA TEORÍA
Una vez que hemos realizado la investigación debemos exponer la teoría
resultante de nuestros hallazgos. Es decir, tendremos que construir una
breve teoría derivada de nuestro análisis. Esta es una tarea difícil, pero
siempre hay que intentar establecer una pequeña ley a partir de nuestro
estudio.
Decía Robert Merton (1967) que una buena teoría es el resultado de la
inspiración y la creatividad, así como de un riguroso trabajo con los datos.
Para teorizar bien necesitamos inspiración, y para tener inspiración hay
que trabajar con algo interesante. Es decir, tenemos que producir algo que
sea nuevo e interesante para poder desarrollar una teoría sobre esa
cuestión. Si conseguimos esto con nuestro trabajo, habremos hecho una
pequeña obra de arte. Para ello, tenemos que tomar nuestra hipótesis, y
una vez comprobada y visto que la hemos confirmado entonces podemos
enunciar una pequeña ley diciendo que bajo tales circunstancias el
enunciado de nuestra hipótesis se cumple. Ahora este enunciado ya no será
una hipótesis sino una pequeña ley. De esta forma estaremos
contribuyendo al avance del conocimiento científico de nuestra disciplina.
Ahora veremos cómo tiene que ser una teoría para que sea una buena
teoría. La razón de ser de una buena teoría consiste en proporcionar
explicaciones sobre las relaciones detectadas en las variables de nuestros
datos. Una vez que hemos estudiado nuestros datos y comprobado las
hipótesis tenemos que intentar establecer proposiciones generales referidas
a las relaciones que se producen en el seno de estos datos. Una buena
investigación, sea cual sea la perspectiva metodológica que hayamos
adoptado, tiene que ajustarse a los principios de consistencia lógica y
argumental, a la fundamentación empírica y estar siempre abierta a que
pueda ser comprobada o falsada por otros investigadores. Además una
buena teoría debe tener siempre “parsimonia intelectual”4, es decir, una
buena teoría debe decir mucho con muy poco. No se trata de explicar los
fenómenos con una lista interminable de causas. Cuanto más sencilla sea
nuestra teoría, mejor será.
Pero para hacer una buena teoría sobre nuestros datos conviene tener
claro qué es una teoría. Una definición sencilla: “una teoría es una
generalización separada de los casos particulares, una abstracción separada
de un caso concreto” (Alexander, 2008: 12).
Por ejemplo:
– Los actores económicos son particulares y concretos. Por ejemplo, el
presidente de la Chrysler, la compañía de automóviles, es una persona
específica. Si quisiéramos describir la actividad de esta persona concreta
en la Chrysler Corporation, no estaríamos haciendo teoría. Solo
estaremos describiendo las actividades que realiza esa persona.
– Sin embargo, sí estaremos haciendo teoría si procedemos de esta
manera: los “presidentes de compañías de automóviles” constituyen
una clase de personas. Ahora estamos abstrayendo a partir de un caso
concreto. Si quisiéramos pensar acerca de las actividades de los
“presidentes” de compañías automovilísticas, tendríamos que
generalizar a partir de individuos particulares; estaríamos elaborando
teorías de individuos particulares; estaríamos elaborando teorías
relativas a la conducta administrativa de las compañías
automovilísticas.
– Si quisiéramos estudiar a los “presidentes de las empresas
norteamericanas”, tendríamos un nuevo nivel de abstracción.
– Veamos un ejemplo más cercano: Si miramos a un niño que interactúa
con sus padres, estamos estudiando un caso concreto. Si quisiéramos
mirar muchos casos de niños interactuando con sus padres, estaríamos
generalizando a partir de casos concretos para elaborar teorías sobre la
interacción padre/hijo. Entonces estaríamos teorizando sobre la
socialización (Alexander, 2008: 12).
La cuestión ahora es cómo podemos generar una teoría a partir de los
datos empíricos. El proceso de construcción de una teoría es un proceso
contínuo y circular. Decíamos antes que en la investigación se parte de las
ideas y se termina, de nuevo, en las ideas. De esta forma, en nuestra
investigación hemos comenzado buscando un marco teórico para nuestros
datos, esto era como una forma de enfocar, de mirar hacia el problema o
cuestión que queremos estudiar. La teoría es un elemento importante en la
investigación social. Es su origen, su marco y su fin. Es su origen, porque
son fuente de nuevos problemas e hipótesis; es su marco, porque
proporciona un sistema conceptual que se aplica a la observación,
clasificación y sistematización de los datos de la realidad; y, por último, es
su fin, porque la investigación debe desembocar en una teoría cada vez más
perfecta (Sierra Bravo, 1994: 47).
La teoría que debemos establecer consiste en sintetizar los resultados de
la observación, de la experimentación o del método comparativo
expresando de forma coherente todo lo que se sabe y también todo lo que
se supone acerca de los fenómenos estudiados. Una teoría es un balance de
los resultados de las investigaciones ya realizadas y un programa de futuras
investigaciones (Duverger, 1981: 374). Las hipótesis que hicimos en su
momento para comprobar con nuestros datos ahora se convierten en
pequeñas leyes sociales sobre el fenómeno estudiado. Esto es lo que
significa teorizar.
Las mejores teorías son las de alcance intermedio. Son teorías parciales
que sintetizan los resultados concretos a una rama concreta de una
disciplina. Una buena teoría será más elegante cuanto más sencilla sea. La
regla de la parsimonia es fundamental en el conocimiento científico. La
parsimonia en ciencia significa que la explicación más sencilla es,
probablemente, más correcta que la más difícil y compleja. Por eso, la
sencillez es muy buena a la hora de usar las ideas científicas para explicar
un fenómeno.
Una buena teoría organiza una gran variedad de ideas existentes y
produce otras nuevas. Aquí es donde está la verdadera originalidad de
nuestro trabajo. Cuando construimos una teoría, se supone que creemos en
ella hasta que la evidencia empírica en sentido opuesto la contradiga
(Galtung, 1995: 182). Pero mientras esto no ocurra nuestra teoría será la
mejor.
Hacer esto significa una cierta competencia intelectual. Si logramos
enunciar una pequeña ley sobre nuestro trabajo significa que tenemos
habilidades tales como el cuidado al hacer las definiciones; la capacidad de
construir tipologías fructíferas; haber comprendido lo que significa la
inferencia5; saber cómo basar la teoría en los datos empíricos (Galtung,
1995: 184). Todo esto, como buenos científicos, debemos hacerlo con
eclecticismo, objetividad e imparcialidad tanto ética como metodológica.
4
Maravall pone un buen ejemplo de parsimonia: Es la anécdota de Napoleón: “tras no ser saludado
por los cañonazos de rigor, el Emperador exigió una explicación al comandante de la plaza, el
cual respondió señalando que se habían producido múltiples razones, una de las cuales era que
no disponían de pólvora”.
La explicación por la simple ausencia de pólvora es un buen ejemplo de parsimonia intelectual, por
mucho que sea frecuente entre los sociólogos indagar cuales eran las restantes razones (2010:
15).
5
Según el Diccionario de la Real Academia Española de la lengua, Inferir = deducir algo o sacarlo
como conclusión de otra cosa. “Se infiere de su rostro que está contento”.
7. UNA SUGERENCIA PARA CONSTRUIR TEORÍAS: EL
PROGRAMA TWD (TOCQUEVILLE, WEBER, DURKHEIM)
Una buena sugerencia para cuando necesitemos modelos para
inspirarnos: leer a Tocqueville, Weber o Durkheim. Estos autores son
siempre un buen ejemplo de cómo se hace una buena investigación social.
Estos autores pueden inspirarnos tanto para conseguir buenos marcos de
referencia teóricos para nuestras investigaciones, como para ver cómo hay
que hacer una buena investigación, tanto como para ver cómo hay que
construir una buena teoría.
Lo que Raymond Boudon llamó el programa TWD es siempre una
buenísima ayuda. Cada uno de estos tres autores clásicos: Tocqueville,
Weber o Durkheim estudiaron fenómenos sociales usando el método
científico de forma muy clara y transparente, por eso es bueno que los
usemos de referencia.
Por ejemplo, las teorías de Tocqueville, Weber o Durkheim están
construidas de la misma forma que la teoría de la presión de Pascal6. Estas
teorías disipan el carácter enigmático de los fenómenos que tratan de
explicar, derivándolos a partir de una serie de proposiciones que aparecen
como fácilmente aceptables (Boudon, 2004: 218).
Una buena teoría es aquella que explica un fenómeno determinado
entendiéndola como la consecuencia de una serie de proposiciones
compatibles entre sí y aceptables cada una de ellas, ya sea porque son
congruentes con la observación o por otras muchas razones que varían de
un caso a otro.
Veamos varios ejemplos:

7.1. El caso de Tocqueville


El libro de Tocqueville El antiguo régimen y la revolución es una obra
maestra de Sociología Comparada. Su propósito no es presentar la historia
de la Revolución Francesa, sino explicar una serie de diferencias entre las
sociedades francesa y británica a finales del siglo XVIII (Boudon, 2004:
218).
En otro libro suyo, La democracia en América identifica varias
diferencias entre la sociedad francesa y la norteamericana y trata de
explicarlas. ¿Por qué los norteamericanos siguen siendo mucho más
religiosos que los franceses, a pesar del hecho de que los valores
materialistas impregnan su sociedad? (Boudon, 2004: 219).
Vemos, pues, que el programa de Tocqueville, reconstruido a partir de
sus análisis tiene los siguientes principios que son útiles seguir:
– El objetivo de la Sociología (y las Ciencias Sociales) es explicar
fenómenos intrigantes, enigmáticos o complicados de entender.
– Explicar un fenómeno, tanto en Sociología como en otras Ciencias
Sociales, significa hallar sus causas.
– Las causas de los fenómenos sociales se hallan en el nivel de los
individuos, sus actitudes, decisiones, elecciones o creencias. (El
principio metodológico de Tocqueville es el Individualismo
metodológico).
– Según cual sea el significado de las actitudes, elecciones o creencias que
tienen para los individuos, esa es la causa para que los individuos las
mantengan.
– El significado que para los individuos tienen sus elecciones es
comprensible únicamente por referencia al contexto en el que viven y se
desenvuelven (Ibid).

7.2. El caso de Weber


Max Weber ideó de modo similar, explicaciones científicas sólidas de
fenómenos aparentemente incomprensibles. Para Weber las causas últimas
de los fenómenos sociales residen en las acciones individuales.
El sociólogo (o el científico social) debe intentar descubrir las causas
microscópicas de los acontecimientos macroscópicos (Ibid.). Por ejemplo,
el análisis que Weber realizó de la Religión y de otros temas se
fundamentan en el principio metodológico de que las causas de las
creencias religiosas descansan en las razones que la gente tiene para
mantenerlas. Una buena teoría consiste en explicar fenómenos que, a
primera vista resultan opacos, son causados por sus causas, y esas causas
son representadas como acciones o creencias individuales comprensibles.
De este modo, las explicaciones basadas en una teoría son convincentes
porque son congruentes con los datos de la observación, y están
construidas a partir de nociones y proposiciones que son fácilmente
aceptables (Boudon, 2004: 220). De esta forma, tanto las teorías que
usamos para nuestro marco teórico, como las teorías que después
elaboremos son modelos comprensibles de la realidad que estamos
observando. Se trata de elaborar enunciados que tengan una explicación
lógica y que se sustenten con los hechos empíricos.

7.3. Otro buen ejemplo es el caso de Durkheim


Emile Durkheim en su libro El Suicido muestra todo un ejemplo clásico
de cómo tiene que ser una investigación completa en Ciencias Sociales.
Cómo usar los datos estadísticos, cómo hacer tipologías, como obtener
conclusiones. Durkheim usa como estrategia metodológica el holismo o
Colectivismo metodológico, es decir que las causas de las conductas se
pueden comprender porque existe un conjunto de fuerzas sociales externas
a los individuos que de alguna forma se le imponen.
En conclusión, como sugerencia para elaborar marcos teóricos para
nuestras investigaciones, una buena recomendación es seguir el programa
TWD propuesto por Boudon (2004), que como hemos visto consiste en
buscar y rebuscar en los trabajos de Tocqueville, Weber o Durkheim
(también valen otros clásicos).
Hay multitud de estudios que se pueden basar en el programa TWD, de
forma que aplicando los principios de este programa ofrecen explicaciones
muy buenas que pueden servirnos para elaborar nuestros marcos teóricos.
Estos marcos teóricos pueden ser de los más diversos, y tienen que ver con
temas tales como: La delincuencia; La acción colectiva; La movilidad
social; Normas y valores; Estratificación; Movimientos sociales;
Educación; Procesos de innovación y difusión; Cambio social; Creencias
colectivas; Organizaciones; Opinión pública; Instituciones; Etc. Etc…
En todos estos temas, y en prácticamente todos los que necesitemos, hay
una teoría de algún autor en la que podamos basar nuestro marco teórico.
Los trabajos en Sociología, y en Ciencias Sociales, que cuentan con un
buen marco teórico son los que mejor explican los fenómenos intrigantes y
opacos.
Por último, no podemos perder de vista que nuestro trabajo de
investigación tiene que explicar algo. Es decir, que nuestra teoría tiene que
tener alguna aplicación práctica: es decir, sirve para explicar algo.
Podemos ver muchos ejemplos7 de aplicaciones de las diferentes teorías
sociales en el libro Teoría Sociológica Aplicada (Requena y Ayuso, 2016).
Aquí podemos encontrar ejemplos en los que se pueden aplicar las diversas
teorías sociales que existen. Además es un buen sitio para encontrar un
marco teórico apropiado para nuestra investigación.
6
El principio de Pascal es: la presión ejercida sobre un fluido poco “comprimible” y en equilibrio
dentro de un recipiente de paredes indeformables se transfiere con igual intensidad en todas las
direcciones y en todos los puntos del fluido.
Este principio tiene una importante aplicación práctica: la prensa hidráulica.
7
Hay muchos ejemplos de aplicaciones de la Sociología en el número de octubre de 2015 Vol. 49(5)
de la revista Sociology. Es un monográfico sobre la Sociología de la Vida Cotidiana. Se trata de
una colección de artículos que refleja la amplitud y la diversidad del encanto de la Sociología en
el mundo diario, así como formas innovadoras en las que la disciplina se ha embarcado para dar
una respuesta.
8. BIBLIOGRAFÍA
Alexander, J. (2008). Las teorías sociológicas desde la Segunda Guerra Mundial. Barcelona: Gedisa.
Beltrán Villalba, M. (2012). “La explicación científica en Sociología”. En E. Bericat (2012) (ed.)
Sociologías en tiempos de transformación social. Madrid: Centro de Investigaciones Sociológicas,
pp. 231-245.
Boudon, R. (2004). La Sociología que realmente importa. Papers. Revista de Sociología, 72: 215-
226.
Duverger, M. (1981). Métodos de las Ciencias Sociales. Barcelona: Ariel.
Galtung, J. (1995). Investigaciones teóricas. Madrid: Tecnos.
Joas, H. y Knöbl, W. (2016). Teoría social. Madrid: Akal.
Maravall, J. M. (2010). “Presentación”. En J. H. Goldthorpe (2010), De la Sociología, Madrid:
Centro de Investigaciones Sociológicas, pp. 11-22.
Merton, R. K. (1967). On Theoretical Sociology. Nueva York: Free Press.
Noguera, J. A. (2003). ¿Quién teme al individualismo metodológico? Papers. Revista de Sociología,
69: 101-132.
Popper, K.R. (2008). La lógica de la investigación científica. Madrid: Tecnos.
Requena, F. y Ayuso, L. (2016). Teoría sociológica aplicada. Barcelona: Anthropos.
Selltiz, C.; Wrightsman, L. S. y Cook, S. W. (1980). Métodos de Investigación en las relaciones
sociales. Madrid: Rialp.
Sierra Bravo, R. (1994). Técnicas de Investigación Social. Teoría y Ejercicios. Madrid: Paraninfo.
Capítulo 6
EL DISEÑO DE OBJETIVOS E HIPÓTESIS
Mercedes Fernández Alonso
Universidad de Málaga

Es necesario revisar continuamente los problemas de la historia (cómo una sociedad


se construye y cambia), los biográficos (qué tipo de personas habitan en una sociedad)
y los de la estructura social (cómo los diferentes órdenes institucionales operan en una
sociedad). Esta disposición mental necesaria para captar la interrelación entre el
hombre y la sociedad ayuda a ver qué es lo que está sucediendo en el mundo. Existe
una relación entre la historia, la biografía y las estructuras sociales. En definitiva, “la
imaginación sociológica” mejora la vida de las personas
C. Wright Mills (1986) [1959]

1. DEFINICIÓN DE LOS OBJETIVOS, LA


TRANSFORMACIÓN DE LAS PREGUNTAS DE
INVESTIGACIÓN EN OBJETIVOS
Cuando comienzan las clases de Métodos y Técnicas de Investigación
Social en la facultad, año tras año, la experiencia le lleva a uno a proponer
el primer día a los estudiantes la misma pregunta: ¿Qué es para ellos una
investigación social? Una vez debatido el interrogante, la siguiente cuestión
va encaminada a escrudiñar el para qué investigar. Cuando se esclarece
dicha utilidad, se comienza con la definición y con las fases del proceso de
investigación, y es aquí cuando aparece el diseño de los objetivos, principal
tema del que se ocupa este capítulo. Para explicar esta parte del programa,
es sugestivo seleccionar entre toda la clase un problema social relevante
(ver capítulo 2). Entre ellos, salen a la luz temas como el desempleo, el
consumo de drogas, el ocio y el tiempo libre, la pobreza, la exclusión
social, la familia, los jóvenes, el mercado de trabajo, la conciliación entre la
vida laboral y familiar, etc. A continuación, se les pregunta qué es lo que
les gustaría averiguar al respecto, y es curioso que todos los años se repite
la misma situación: un imperioso silencio. Esto corrobora el hecho de que
no es fácil saber de antemano qué se quiere investigar, qué se pretende
conseguir, qué se quiere averiguar, qué dimensiones o variables
relacionadas con el tema seleccionado influyen o se quieren esclarecer o, en
definitiva, qué objetivos se van a plantear en una investigación social.
A lo largo de la carrera docente e investigadora desempeñada, conforme
ha ido pasando el tiempo y más investigaciones sociales se han realizado,
uno llega a la firme convicción de que gran parte del éxito del proceso
investigador consiste en tener bien formulados y planteados los objetivos
de la investigación.
¿Qué quiere decir esto?, ¿Qué se entiende por objetivos?
Fundamentalmente éstos se podrían definir como las metas o propósitos
que se pretenden conseguir al poner en marcha un trabajo de investigación.
En otras palabras: ¿Qué se quiere averiguar?, ¿Para qué investigar? o ¿Qué
fin pretende alcanzarse? “Los objetivos de investigación tienen la finalidad
de señalar a lo que se aspira en la investigación y deben expresarse con
claridad, pues son las guías del estudio” (Hernández Sampieri, Fernández
Collado y Baptista, 2006: 47). En resumen, los objetivos constituyen el
destino del trabajo de investigación.
Para poder definir los objetivos adecuadamente, el tema o problema de
investigación inicial (ver capítulo 2), ha de estar bien formulado. Es
recomendable que el problema origine una pregunta de investigación
concreta (Santana, 2013). Las preguntas de investigación, tienen la utilidad
de presentar el problema de manera directa, disminuyendo la distorsión
(Gómez, 2006). De hecho, una buena pregunta de investigación puede
asegurar un futuro éxito en los resultados que se obtengan al concluir el
proceso investigador, pero esto es algo que no resulta siempre fácil.
Muchas veces no se sabe exáctamente qué se busca o explora. Podría
decirse que es la fase más crucial de todas (Gerring, 2015).
El investigador puede tener de antemano una lista de cuestiones a
investigar (¿Cómo ha afectado al escenario político actual el surgimiento
de nuevos partidos?, ¿Cómo ha influido la crisis económica en las
relaciones intergeneracionales?, ¿Cuáles son las principales redes sociales
utilizadas por los jóvenes?, etc.), o bien, a medida que se va leyendo,
pueden surgir preguntas derivadas de un cuerpo teórico ya existente
(¿Cómo se aplica la teoría de K. Marx al análisis del teletrabajo o cadenas
de montaje?, ¿Qué grado de aplicación tienen en la sociedad actual
española las teorías feministas relativas a la conciliación de la vida laboral
y familiar?, etc.). El problema es que preguntas demasiado generales, que
contengan ideas iniciales o que no muestren el problema en su totalidad,
precisan de concreción de cara a la correcta iniciación del estudio. Además,
a continuación, lo más adecuado es transformarlas en objetivos; por lo
tanto, la coherencia entre preguntas de investigación y objetivos es un
elemento fundamental a tener en cuenta.

Gráfico 1. Algunos ejemplos de preguntas de investigación y de objetivos.


¿Cómo influye en la relación de pareja la distribución de tareas dentro
Pregunta de investigación general: del hogar?
¿Qué factores influyen en la felicidad
¿Qué importancia tienen los amigos en la relación de pareja?
conyugal?:
¿Qué papel desempeña la familia política en la relación de pareja?, etc.

Analizar la dinámica del reparto de tareas dentro del hogar (distribución de tareas
domésticas, de gestión de la economía familiar, de ayuda a los hijos con los deberes,
etc.).
Objetivo general:
Esclarecer el grado de influencia de las relaciones sociales en la vida de pareja (nº de
Conocer los principales
amigos, frecuencia de contacto, salidas con los amigos por separado, amigos como
factores que determinan
consejeros ante problemas en la pareja, etc.)
la felicidad conyugal:
Medir el papel de la familia política en la vida en pareja (ayuda económica proporcionada
por la familia política, nº de visitas, celebraciones familiares que se comparten, viajes
juntos, grado de intromisión de los parientes en los problemas de la pareja, etc.), etc.

Fuente: elaboración propia.

No hay que sorprenderse si el investigador a lo largo de la fase se siente


perdido o no sabe bien hacia dónde enfocar las preguntas o los objetivos
de la investigación. No hay reglas o criterios fijos para establecerlos. Por
ello, es fundamental llevar a cabo un proceso de retroalimentación
continuo entre teoría y práctica (ver capítulo 5): pensar, leer sobre el tema
elegido y lanzarse a formular la acción que se desea alcanzar, es decir los
objetivos. El hecho de poner por escrito estos propósitos, seguramente
llevará al investigador a tener que seguir leyendo y profundizando en el
tema elegido, y de ahí surgirán nuevas ideas. Y así, una sucesiva
interacción entre teoría y método. Además, a lo largo del estudio es posible
que surjan nueva ideas o propósitos, es decir nuevos objetivos de
investigación, que habrá que ir incorporando en el estudio.
A la hora de redactar los objetivos, resulta especialmente ventajoso
utilizar verbos en infinitivo que conduzcan al investigador a lograr su
propósito. Podrían citarse, entre ellos: analizar, estudiar, conocer,
averiguar, elaborar, definir, describir, establecer, indicar, presentar,
evaluar, verificar, comparar, clasificar, explicar, etc. Respecto a la
estructura que ha de seguirse para redactar un objetivo de investigación, se
utiliza la explicación de Gómez (2006):
Verbo Variable Unidad de análisis Contexto
A continuación, se muestran algunos ejemplos de objetivos teniendo en
consideración todo lo señalado hasta el momento. Si una investigación
social define como tema o problema a investigar “los factores que influyen
en la soledad de los mayores” (económicos, sociales, familiares, ocio y
tiempo libre, salud, etc.) en España, los objetivos podrían plantearse como
siguen:
Ejemplos de objetivos de investigación relacionados con “los factores que influyen en la soledad de los
mayores”:
– “Determinar si el factor económico (nivel de ingresos, tipo de pensión, etc.) en la población de 65 y más años, influye en el
sentimiento de soledad de los mayores”.
– “Conocer si las relaciones sociales (número de amigos, si tiene pareja, etc.) de la población de 65 y más años, intervienen
en el sentimiento de soledad de este grupo de población”.
– “Analizar cómo actúa la familia (número de hijos, nietos y hermanos; tipo de relación con los familiares; frecuencia de
contacto; etc.) con la población de 65 y más años y su efecto en el sentimiento de soledad en el grupo de población
analizado”.
– “Estudiar las actividades de ocio y tiempo libre de la población de 65 y más años (número y tipo de actividad, con quién se
practica, ocio activo vs. ocio pasivo, etc.) y su relación con el sentimiento de soledad”.
– “Averiguar el estado de salud (objetiva y subjetiva) del grupo de población mayor y cómo afecta al sentimiento de
soledad”.
– “Ver si hay diferencias entre varones y mujeres de 65 y más años en España, respecto al sentimiento de soledad y en
relación con cada uno de los factores considerados anteriormente”, etc.

Fuente: elaboración propia.


2. LA REALIZACIÓN DE OBJETIVOS REALISTAS PARA LA
REALIZACIÓN DE TFG Y TFM
En numerosas ocasiones, cuando los alumnos acuden al despacho de un
profesor para que se les dirija su trabajo de fin de master o de grado, no
saben realmente qué hacer. Otras veces, plantean objetivos o metas
ambiciosas que no serían posibles alcanzar con los recursos o con el tiempo
del que disponen (por ejemplo, conocer las consecuencias de un fenómeno
social actual en los próximos cinco años, comparar un mismo hecho
relevante en diferentes países sin que haya bases de datos disponibles o que
sean comparables entre sí, conocer la opinión de todos y cada uno de los
colectivos implicados en un determinado problema social, analizar la
evolución de un fenómeno en un largo período de tiempo, etc.). En su
mayoría, son cuestiones muy relevantes y de gran interés social; por lo
tanto, es desde este primer momento cuando hay que orientar y ayudar al
estudiante a establecer un buen enfoque y planteamiento del tema y a
realizar una adecuada formulación de los objetivos de la investigación.
Los objetivos han de ser precisos y no especulativos. Si las metas de un
trabajo no son claras, no están bien definidas o no son realistas, la
investigación social no tomará desde sus comienzos un buen rumbo. Como
consecuencia, se dará el “fracaso” de la misma, en diversos sentidos:
a) El investigador puede no encontrar aquello que estaba buscando;
b) el investigador puede no tener los medios o herramientas (técnicas de
investigación, ver capítulo 9) adecuadas para conseguir los objetivos
propuestos;
c) el investigador puede no contar con los recursos (materiales,
económicos o humanos) suficientes para desarrollar la investigación;
d) el investigador puede no aportar nada nuevo al avance del
conocimiento, etc.
Póngase por caso un alumno que para su TFG o TFM quiere comparar
las actividades de ocio y tiempo libre de los jóvenes españoles y británicos.
Partiendo de la base de que un estudio comparativo es ya de por sí
complejo, este estudiante se verá en un aprieto a la hora de alcanzar
finalmente su objetivo de investigación inicial si, por ejemplo:
a) No realiza una revisión bibliográfica en profundidad y reincide en algo
excesivamente analizado;
b) no introduce en el diseño de la investigación alguna variable
relacionada con el objetivo u objetivos planteados;
c) no encuentra una base de datos apropiada o en el caso de usar datos
primarios, no halla una muestra de población británica suficiente o
comparable a la española (por ejemplo, diferentes en número o
composición);
d) no tiene los recursos necesarios (por ejemplo, no hay tiempo de
encuestar a una muestra representativa de la población objeto de
estudio, o no cuenta con recursos económicos o con personal técnico de
apoyo para el análisis de los datos, en caso de necesitarlo, etc.); etc.
También es importante en este proceso, evitar el uso de objetivos que
impliquen acciones finales (motivar, cambiar, enseñar, mejorar, etc.)
porque muchas veces no se logran. El investigador social ha de ser
prudente y saber el tiempo real del que dispone para poder conseguir las
metas propuestas. Los objetivos son el punto central de referencia,
muestran la dirección a seguir, dando coherencia a todo el proceso de
investigación. Por lo tanto, hay que insistir en la formulación de objetivos
realistas, concisos o claramente formulados (susceptibles de contrastación
empírica) y que aporten algo nuevo de conocimiento sobre la realidad
social. Para su cumplimiento y correcto desarrollo, el investigador también
ha de atender el universo o selección de las unidades de investigación (ver
capítulo 8) y el empleo de técnicas factibles de obtención de datos (ver
capítulo 9).
Cembrano y cols. (1995) resumen los requisitos que han de cumplir la
formulación de los objetivos en un proyecto social:
1. Coherentes (con las finalidades fijadas y la ideología de donde surgen).
2. Motivadores (para las actividades a emprender durante todo el proceso
investigador).
3. Participativos (todos los integrantes del equipo investigador han de
colaborar en su formulación).
4. Concretos (que expresen con claridad y objetividad lo que se pretende
alcanzar).
5. Proporcionados con los recursos (de los que se dispone y las
condiciones socioculturales).
6. Evaluables (que se pueda valorar su nivel de cumplimiento una vez
finalizado el proyecto).
3. OBJETIVOS GENERALES Y ESPECÍFICOS
Preguntas como: ¿Qué factores están relacionados con el origen de la
crisis económica mundial que comenzó en el año 2008?, ¿Cuál será el
impacto de las nuevas tecnologías de la información en los jóvenes?, ¿Qué
factores están relacionados con el surgimiento de nuevos partidos políticos
en la actualidad?, ¿Cuáles son los rasgos de la familia en las sociedades
posmodernas?, ¿Por qué aumenta en la sociedad actual la violencia de los
hijos hacia los padres?, etc., pueden velar la cabeza de cualquier
investigador social cuando decide iniciar una tarea de producción
científica. La cuestión es que cuando las metas propuestas son ambiciosas
o abarcan varias cuestiones o dimensiones a investigar, como se ha podido
comprobar en los interrogantes anteriores, lo más adecuado y
recomendable es desglosarlas en objetivos generales y específicos.
El objetivo general responde a la pregunta principal de investigación. Es
decir, éste constituye aquello que se quiere conseguir de manera genérica
mediante el desarrollo de las diferentes fases del proceso investigador. Los
objetivos generales “son aquellos propósitos más amplios que conforman
el marco de referencia del proyecto” (Espinoza, 1986: 86); “indican cuáles
son los conocimientos que se obtendrán al haber finalizado el estudio. Este
objetivo expresa el resultado del conocimiento más complejo que se desea
alcanzar” (Gómez 2006: 43); o “se corresponden con las finalidades
genéricas del proyecto social. Expresan el propósito central del proyecto”
(Pérez Serrano, 2016: 52).
Los objetivos generales se concretan en objetivos específicos, o dicho de
otra manera: los objetivos específicos son aquellos necesarios para que se
cumpla el general. Estos suponen una concreción o puntualización de los
generales y, por lo tanto, orientan las actividades a emprender. Los
objetivos específicos describen de manera clara y precisa las metas a
conseguir con cada actividad. “Son más puntuales y concretos, y en general
indican conocimientos de menor complejidad, que se irán obteniendo
mediante la investigación, y que contribuirán a lograr el objetivo general”
(Gómez, 2006: 43).
Los rasgos más significativos de los objetivos específicos son (Pérez
Serrano, 2016: 52):
1. Concretan lo que los objetivos generales significan.
2. Son realistas y medibles (se formulan en función de manifestaciones
observables y evaluables).
3. Permiten hacer seguimiento y evaluación del grado de cumplimiento y
de los efectos que se quieren conseguir.
4. Sólo admiten una interpretación.
5. Facilitan una mejor estructura del proyecto.
6. Pueden desglosarse para su análisis.
7. Posibilitan una evaluación más coherente de todo el proyecto.
Por último, hay tres requisitos a tener en cuenta en la redacción de los
objetivos específicos (Santana, 2013: 45):
1. No pueden ser tan amplios como el general (de ser así, no
simplificarían el trabajo, sino todo lo contrario).
2. No pueden ser superfluos (vacíos, innecesarios o inútiles).
3. No puede faltar ninguno (han de estar todos los objetivos específicos
necesarios que den cabida al objetivo general).
En definitiva, los objetivos generales son el marco de referencia de lo que
se quiere conseguir y demostrar en el trabajo de investigación (el área
temática o los problemas a considerar). Los objetivos específicos son las
partes en las que se divide el todo, el área temática que interesa al
investigador, para ayudar a la comprensión de las metas propuestas
(generalmente, las tareas a desarrollar en la investigación). Por ejemplo, el
objetivo general de partida de una investigación social puede ser conocer el
comportamiento de los jóvenes españoles. A continuación, dada su
extensión y susceptibilidad de especificación, lo más correcto sería
subdividir este objetivo general en varios objetivos específicos. Esto es, las
posibles dimensiones que pueda abarcar este concepto (comportamiento de
los jóvenes) o las que susciten mayor interés al investigador. Entre ellas:
a) Política (conocer su intención de voto, los partidos políticos por los
que sienten preferencia, su grado de satisfacción con la situación
política actual del país, el líder político por el que sienten mayor
simpatía, etc.).
b) Educación (saber los motivos que les llevan a elegir una determinada
carrera, el grado de rendimiento académico, los factores asociados a la
tasa de abandono, etc.).
c) Social (averiguar el trato con el grupo de iguales, cómo se comportan
en las relaciones de pareja, sus hábitos de higiene, sus preocupaciones,
valores, etc.).
d) Ocio y tiempo libre (analizar sus prácticas de ocio y tiempo libre, sus
preferencias musicales o en moda, el consumo de drogas, etc.).
e) Familia (dilucidar cómo les influye la desestructuración familiar, las
relaciones intergeneracionales, la custodia compartida, el maltrato, el
embarazo adolescente, etc.), etc.

3.1. La diferenciación entre objetivos de investigación y objetivos de


intervención
Los objetivos de investigación son, en general, amplios y están dirigidos a
conocer, describir, explicar e incluso comprender la realidad social. Los
objetivos de investigación amplían el conocimiento del tema inicialmente
planteado. Como se ha señalado en apartados anteriores, los objetivos
definen las metas del estudio, la finalidad del proyecto, los logros que se
quieren alcanzar con la ejecución del trabajo de investigación: ¿Qué se
quiere hacer?, ¿Para qué? o ¿A dónde se quiere llegar?
Los objetivos están encaminados a producir u obtener datos, evaluar o,
en última instancia, intervenir en el fenómeno analizado. En este último
caso, se aprecia una estrecha relación con la investigación social aplicada,
donde el investigador no sólo desea describir la realidad, sino también
proponer acciones de mejora: intervenir en el contexto social.
Por lo tanto, además de objetivos de investigación, en función de la
propia intencionalidad del investigador, existen objetivos de intervención.
Estos suponen de por sí una “acción” sobre el fenómeno social estudiado.
La intervención sugiere caminos de actuación para conseguir el cambio
(Viscarret, 2007).
Ejemplos de objetivos de intervención:
– promover la participación social ante las distintas estrategias diseñadas para la prevención del consumo de drogas en los
adolescentes;
– elaborar un programa educativo en las aulas para prevenir el acoso escolar;
– analizar las necesidades del colectivo de trabajadores autónomos con la intención de elaborar un estatuto dirigido a este
grupo de población;
– modificar determinadas conductas alimenticias para fomentar estilos de vida saludables;
– trabajar la educación emocional y afectiva en niños procedentes de familias desestructuradas y en situación de exclusión
social;
– ofrecer alternativas de ocio nocturno saludable a los jóvenes de una ciudad;
– fomentar habilidades sociales (expresar sentimientos, mantener una conversación, mostrar atención, etc.) en un
determinado grupo de población; etc.

Una intervención social es una acción organizada y justificada (tanto


teórico como legalmente), que se realiza sobre una persona, grupo o
comunidades con el fin de optimizar su situación actual y mejorar su
calidad de vida. Por lo tanto, ha de hacerse de forma programada,
respondiendo a necesidades sociales y con una constante acción con el
medio. La metodología de la intervención responde a la cuestión de ¿Cómo
se va a hacer?, es decir “al conjunto de procedimientos que es necesario
realizar para alcanzar las metas y los objetivos propuestos” (Pérez Serrano,
2016: 53).
El investigador debe tener en cuenta que cuando los objetivos que define
son de intervención, es imprescindible que aparezcan en el proyecto
cuestiones como: en qué consiste la intervención, a qué grupo/s va dirigida,
cuál es el estado previo o antecedentes de la cuestión, cómo se va a ejecutar
o cuáles son los resultados esperados.
Para terminar, se ofrecen algunos ejemplos de verbos usados en la
redacción de objetivos de intervención, que pueden ayudar al lector si su
intencionalidad es la de promover un cambio en la realidad social
investigada:
4. LAS HIPÓTESIS, TIPOS DE HIPÓTESIS DE
INVESTIGACIÓN, CONSEJOS PARA HACER BUENAS
HIPÓTESIS
Saber diferenciar correctamente entre objetivos e hipótesis es una de las
primeras dificultades con las que se enfrenta quien decide iniciar por
primera vez un proyecto de investigación social. En la mayor parte de los
casos, se suele confundir ambos pasos o no se formulan de manera
adecuada. Los objetivos constituyen las metas o propósitos de la
investigación, mientras que las hipótesis son las suposiciones o premisas de
las que parte el investigador y que comprobará a lo largo de la misma si
son confirmadas o falsadas por los hallazgos. De manera más clara, el
investigador cuando formula las hipótesis se atreve a avanzar respuestas
probables a las preguntas iniciales de investigación. Las hipótesis, en
general, especifican, describen o detallan el objetivo de la investigación.
Por lo tanto, las hipótesis han de estar relacionadas con los objetivos de
la investigación, así orientarán y ayudarán a la búsqueda de solución del
problema inicialmente planteado. Las hipótesis son las guías de la
investigación. A continuación, se muestran algunas definiciones de
hipótesis:
– “Respuesta tentativa que, comúnmente, denominamos ‘hipótesis’ —
aunque, en términos estrictos, quizás resultaría más correcto utilizar el
término ‘tesis’—” (Santana, 2013: 18-19).
– “Explicaciones tentativas del fenómeno investigado que se formulan
como proposiciones” (Hernández Sampieri, Fernández Collado y
Baptista, 2006: 122).
– “Una proposición o enunciado provisional, una conjetura, que debe
tener la posibilidad de poder ser puesta a prueba, es decir, debe ser
posible recolectar información, de los referentes empíricos, que pueden
ser utilizados como evidencia para aceptar o rechazar la hipótesis”
(Gómez, 2006: 25).
– “Soluciones probables previamente seleccionadas al problema
planteado y que el proceso de investigación ha de ver si son
confirmadas por los hechos” (Sierra Bravo, 2003: 69).
– “Proposiciones, en las que se afirma la existencia o inexistencia de
asociación esperada, al menos entre dos variables (dependiente e
independiente, generalmente), en una situación determinada” (Cea D
´Ancona, 1996: 87).
Por ejemplo, si en una investigación social el problema a investigar es “el
consumo de drogas de los adolescentes en España”, algunos objetivos de la
investigación podrían ser:
Objetivo 1: “Conocer cuáles son las drogas más consumidas por los
adolescentes españoles en el último año”.
Objetivo 2: “Analizar si existen diferencias por sexo en el uso de
sustancias”.
Objetivo 3: “Ver cómo influye la edad en las pautas de consumo”, etc.
A partir de aquí (asociadas a cada uno de los objetivos anteriormente
señalados), las hipótesis podrían expresarse de la siguiente manera:
H1: “El alcohol, el tabaco y el cánnabis son las sustancias más
consumidas por los adolescentes españoles en el año 2016”.
H2: “Las drogas legales (alcohol y tabaco) presentan mayores niveles de
consumo entre las mujeres adolescentes, mientras que los varones
despuntan en el consumo de drogas ilegales (cánnabis, cocaína, LSD,
etc.)”.
H3: “A medida que aumenta la edad, aumenta el porcentaje de consumo
de drogas ilegales”, etc.
Al igual que los objetivos, las hipótesis han de estar formuladas de forma
concreta y precisa. Hay que ser extremadamente cuidadosos en su
construcción gramatical, ya que de ellas también se derivan las variables a
estudiar: la información (dato) que se busca y que se recogerá
posteriormente en la fase de realización del trabajo de campo. Desde un
punto de vista formal, las hipótesis pueden ser formuladas de diversas
maneras. Para este fin, se utilizará la explicación de Ander-Egg (1995) que
enumera cinco formas:
1. Oposición: +…-
Ejemplo: Más edad de un niño, menos admisión del control de los padres

2. Paralelismo: +…+…-…-
Ejemplo: Más formación, más participación política; menos formación, menos participación política
3. Relación causa-efecto:
Ejemplo: El consumo de drogas provoca agresividad

4. Forma recapitulativa: en la hipótesis se contemplan varios elementos


Ejemplo: La elección del tipo de carrera universitaria en los jóvenes está influida principalmente por la opinión de los padres,
la elección de los amigos y las salidas profesionales.

5. Forma interrogativa:
Ejemplo: ¿Es cierto que en el aumento producido en el consumo de drogas en los últimos años, ha influido la proliferación
de nuevas sustancias?

Desde un punto de vista sustantivo, las hipótesis han de estar sólida y


rigurosamente fundamentadas en argumentos teóricos (Santana, 2013).
Como se ha señalado a la hora de formular los objetivos, en el diseño de
las hipótesis de investigación también es esencial que haya una
retroalimentación continua entre teoría y práctica. Dentro de esta
interacción, se pueden mencionar dos procedimientos esenciales, ambos
indispensables, para la formulación de las hipótesis: el inductivo y el
deductivo (ver gráfico 2). Mediante la lógica inductiva, el investigador se
dirige desde los datos específicos u observaciones en casos particulares a la
formulación de las hipótesis, es decir, éste parte de unos datos que
considera relevantes y a partir de aquí verá a qué conclusiones le pueden
llevar. De manera antagónica, mediante el procedimiento deductivo el
investigador busca en la teoría enunciados más concretos o explicaciones
posibles al fenómeno social a investigar (qué observaciones se tendrán en
cuenta) para después comprobar con los hallazgos encontrados una vez
finalizado el proceso investigador.

Gráfico 2. Procedimientos en la formulación de hipótesis


Fuente: Adaptado de Sierra Bravo (2003).

Las hipótesis, pueden clasificarse atendiendo a diversos criterios


(naturaleza, estructura, función, forma lógico-lingüística, etc.) y no existe
un acuerdo unánime entre los diferentes autores. Por lo tanto, de todas las
clasificaciones posibles, se mostrará, siguiendo el criterio de utilidad para
el investigador social, la clasificación de las hipótesis denominadas “de
investigación o de trabajo” (Hernández Sampieri, Fernández Collado y
Baptista, 2006):
Las hipótesis descriptivas: defienden la existencia de determinadas
regularidades empíricas contemplando una variable. Sólo describen la
distribución de un solo concepto (Gómez, 2006). También se conocen
como hipótesis con una sola variable (Sierra Bravo, 2003):
Ejemplo: “Menos del 10% de alumnos obtienen una calificación final de sobresaliente en la asignatura Métodos y Técnicas
de Investigación Social”.

Las hipótesis correlacionales: establecen una relación simple de


asociación o covarianza entre las variables. La relación que hay entre las
variables no es de causalidad o influencia (las variables no deben afectarse
entre sí: “Hay una relación entre… y entre…”; “A mayor… mayor…”; “A
mayor…, menor…”; etc.). También son denominadas hipótesis con 2 o
más variables y relación de asociación (Sierra Bravo, 2003):
Ejemplo: “A medida que aumenta el número de mujeres matriculadas en la asignatura Métodos y Técnicas de Investigación,
es mayor la calificación media final de la clase”.

Las hipótesis de diferencia de grupos: son las que se utilizan en aquellas


investigaciones cuyo principal propósito es la comparación de grupos:
Ejemplo: “Las mujeres le dan mayor importancia a la calificación final de la asignatura Métodos y Técnicas de Investigación
Social que los varones”.

Las hipótesis causales: presentan las causas o efectos de los fenómenos.


Son las hipótesis explicativas. Son las más interesantes desde el punto de
vista científico, ya que son las que más profundizan en los hechos
considerados. Asumen el reto de dar explicaciones causalmente
fundamentadas (Santana, 2013). También se conocen como hipótesis con 2
o más variables y relación de dependencia (Sierra Bravo, 2003):
Ejemplo: “El aumento del número de mujeres en la matriculación de la asignatura Métodos y Técnicas de Investigación
Social, ha provocado una mejora en la calificación media final de la asignatura en los últimos años”.

Para terminar, a modo de síntesis, se ofrecen algunos consejos para


construir buenas hipótesis:
1. Realizar una profunda revisión previa de la literatura relacionada con
el tema a investigar. En otras palabras, dominio de la teoría para evitar
dar respuesta a problemas ya conocidos o investigados previamente.
2. Dejarse llevar por la agudeza o intuición.
3. En los casos que se estime necesario, consultar a expertos en la
materia.
4. Las hipótesis han de ser conceptualmente claras (formuladas en un
lenguaje comprensible que aleje las malinterpretaciones).
5. Las hipótesis han de ser precisas (concisas, rigurosas, específicas) o
capaces de precisión.
6. Las hipótesis deben guardar relación con los objetivos de la
investigación. De ser así, deben contener las variables principales que se
quieran medir en el estudio.
7. Las hipótesis han de ser realistas: creíbles y probables. Las hipótesis
han de ser suceptibles de ser alcanzadas en el tiempo y con las técnicas
propuestas.
8. Las hipótesis han de poseer alcance general.
9. Las hipótesis deben aportar algo nuevo, fresco, reciente o actual con lo
que contribuir al avance del conocimiento científico.
Para concluir, en esta fase del proceso de investigación analizada a lo
largo de este capítulo, en particular, y a lo largo de toda la investigación,
en general, es extremadamente útil recordar: en primer lugar, la innovación
(“el objetivo de la ciencia es descubrir cosas nuevas sobre el mundo y
apreciar el valor de verdad de las proposiciones existentes sobre el mundo”
(Gerring, 2015: 49); en segundo lugar, la formación del investigador en
una “cultura sociológica” (Durkheim, 1991 [1895]): qué se sabe sobre el
tema, y no olvidar el carácter social de los hechos que se vayan a analizar;
en tercer lugar, evitar los errores de especificación en el modelo de
explicación (Lago, 2008): que no falten o sobren variables independientes
relevantes para explicar la variable dependiente; en cuarto lugar, la
objetividad en el método; y, para concluir, uno tiene que tener algo
importante que decir tras la investigación realizada: los resultados a los
que se lleguen han de ser útiles para el avance científico y, en definitiva,
para el conjunto de la sociedad.
5. BIBLIOGRAFÍA
Ander-Egg, E. (1995) [1965]. Técnicas de Investigación Social. Buenos Aires: Lumen.
Cea D´Ancona, M. A. (1996). Metodología cuantitativa: Estrategias y técnicas de investigación
social. Madrid: Síntesis.
Cembranos, F.; Montesinos, D. H. y Bustelo, M. (1995). La Animación Sociocultural. Una
Propuesta Metodológica. Madrid: Ed. Popular.
Durkheim, E. (1991) [1895]. Las reglas del método sociológico. Madrid: Ediciones Akal.
Espinoza, M. (1986). Evaluación de Proyectos Sociales. Buenos Aires: Humánitas.
Gerring, J. (2015). Metodología de las Ciencias Sociales. Madrid: Alianza.
Gómez, M. M. (2006). Introducción a la metodología de la investigación científica. Córdoba,
Argentina: Brujas.
Hernández Sampieri, R.; Fernández Collado, C. y Baptista, P. (2006) [1991]. Metodología de la
Investigación. México: Mc Graw-Hill Interamericana.
Lago, I. (2008). La lógica de la explicación en las Ciencias Sociales. Una introducción
metodológica. Madrid: Alianza.
Mills, C. Wright. (1986) [1959]. La Imaginación Sociológica. México: Fondo de Cultura
Económica.
Pérez Serrano, G. (2016). Diseño de Proyectos Sociales. Madrid: Narcea.
Sierra Bravo, R. (2003) [1969]. Técnicas de Investigación Social: Teoría y ejercicios. Madrid:
Paraninfo.
Santana, A. (2013). Fundamentos para la investigación social. Madrid: Alianza.
Viscarret, J. J. (2007). Modelos y métodos de intervención en Trabajo Social. Madrid: Alianza.
Capítulo 7
LA UTILIZACIÓN DE FUENTES DE DATOS
SECUNDARIOS
Livia García Faroldi
Universidad de Málaga

1. INTRODUCCIÓN: DEFINICIÓN DE DATOS


SECUNDARIOS
La generación de datos para realizar una investigación social es un
proceso generalmente costoso en términos tanto económicos como de
tiempo, de organización, de gestión y de recursos humanos. Por ello, es
habitual que muchos investigadores sociales decidan utilizar datos
proporcionados por fuentes especializadas en vez de generar sus propios
datos, es decir, utilizan datos secundarios. Esta elección se convierte en casi
obligatoria si se quiere realizar una investigación de carácter longitudinal
(a lo largo de un extenso periodo de tiempo) o una comparación
internacional. En el caso de los estudiantes universitarios que deben
presentar su trabajo de fin de grado, de máster o su tesis doctoral, un
trabajo de investigación basado en datos secundarios es una opción factible
e incluso recomendable, siempre que el alumno pueda asegurar la calidad
de los datos elegidos antes de utilizarlos.
Afortunadamente, en la sociedad moderna actual abundan los datos
secundarios, puesto que se registran todo tipo de acontecimientos sociales
por diversas instituciones (desde organismos públicos y privados que
elaboran estadísticas hasta los medios de comunicación de masas que
recogen los hechos acaecidos más relevantes) con diferentes fines. Dichos
datos posteriormente se pueden analizar mediante las herramientas de la
investigación científica.
La distinción entre datos primarios y secundarios se basa en quién
produce los datos: cuando es el propio investigador el que los recaba,
entonces se trata de una fuente primaria de los datos, es decir, produce sus
propios datos. Sería el caso, por ejemplo, de un investigador que realiza
una entrevista a un experto sobre un tema y analiza posteriormente su
contenido. Cuando el investigador utiliza datos que han sido recogidos y
elaborados por otras personas y/o instituciones, se trataría de datos
secundarios. Se han extraído de una fuente secundaria. Por ejemplo, si un
investigador analiza las estadísticas oficiales sobre el número de
matriculados en enseñanza obligatoria en un determinado curso
académico, o las opiniones de la población sobre un tema recogidas en una
encuesta de un instituto de opinión.
La utilización de datos secundarios se relaciona también con el concepto
de análisis secundario. Hakim (1982) define como análisis secundario de
documentos o de datos documentales, todo posterior análisis de un
conjunto de datos primarios que ofrezca interpretaciones y conclusiones
adicionales o en forma diferente a la presentada en el primer informe de
investigación. Es muy habitual que la institución que genera ciertos datos
realice un análisis de los mismos de carácter general y descriptivo, lo que
permite posteriormente al investigador interesado en el tema profundizar
en el análisis de dichos datos y obtener nueva información relevante.
El análisis de datos secundarios, tal como señala Sierra Bravo (1995),
puede aplicarse a varios ámbitos: para elaborar informes, para realizar
análisis basados en un nuevo marco teórico o aplicando nuevas técnicas de
análisis, así como para contrastar nuevas hipótesis de investigación.
2. CÓMO ELEGIR LOS TIPOS DE DATOS ADECUADOS A
NUESTRA INVESTIGACIÓN
Como señala González (1994), el uso normal del término dato
secundario otorga una connotación negativa a éste cuando se le compara
con el dato primario, pero cuando se habla de investigación secundaria no
existe dicho aspecto peyorativo, sino que nos referimos a los datos
existentes. Estos datos cada vez adquieren más importancia. Ello se debe a
la abundancia de datos secundarios que no han sido analizados en
profundidad y de los que se pueden obtener conclusiones interesantes para
el avance del conocimiento de la sociedad, así como al alto coste de
generar los propios datos de carácter primario. En la misma idea incide
Sierra Bravo (1995) cuando subraya que se pueden realizar investigaciones
importantes mediante la utilización de datos secundarios y que la
originalidad de una investigación no depende de que en ella se utilicen
datos primarios. Tal y como destaca Mezo (2015), los datos secundarios se
emplean, como mínimo, en la fase inicial de la investigación al revisar la
literatura, para familiarizarse con los estudios e informaciones ya
existentes sobre el fenómeno que se quiere analizar.
La elección del tipo de datos secundarios más adecuados para una
investigación viene determinada por cuál es la pregunta de investigación.
Advierte Ander-Egg (1982) de que no se caiga ni en el “hábito
coleccionista”, es decir, acumular mucha información sin tener un
propósito definido de qué hacer con ella, ni en la “búsqueda a ciegas”, sin
ningún marco teórico que oriente la interpretación de los datos. Es
precisamente la facilidad con la que, desde finales de los noventa, se puede
acceder a datos secundarios, la que lleva al efecto perverso de usar de
manera poco meditada datos que no son adecuados para el propósito de la
investigación (Mezo, 2015).
Una vez se haya definido la pregunta de investigación, se debe delimitar
espacial y temporalmente el tema de investigación. Por ejemplo, un
investigador puede plantear como pregunta de investigación cuál ha sido el
impacto en el sistema educativo de la reciente crisis económica.
Posteriormente, deberá concretar qué ámbito espacial se quiere estudiar y
qué periodo. El abanico de opciones es amplio: con respecto al ámbito
espacial, se puede decidir estudiar España en su conjunto, o una sola
Comunidad autónoma, o comparar diversas Comunidades, o comparar
España con otros países europeos o de otras zonas del mundo; respecto al
ámbito temporal, se puede estar interesado solamente en el momento
actual, o desear realizar un análisis de los últimos tres o cinco años, o bien
comparar entre la situación hace diez años y la actual, por ejemplo.
En función de cómo se definan estos extremos, se podrá buscar las
fuentes de información de datos secundarios más adecuadas para alcanzar
los objetivos planteados. Cómo se explicará con detalle en los apartados 4
y 5 de este capítulo, existen fuentes de información que facilitan la
comparación internacional y/o temporal, mientras que otras se
circunscriben a España o a una Comunidad autónoma en concreto. A su
vez, si la investigación así lo requiere y la disponibilidad de recursos lo
permite, estos datos secundarios podrán ser complementados con datos
primarios generados por el propio investigador.
3. TIPOS DE DATOS SECUNDARIOS: DATOS OBJETIVOS Y
DATOS SUBJETIVOS
Dada la abundancia de datos secundarios, resulta complejo hacer una
enumeración exhaustiva de los tipos que existen. Ander-Egg (1982)
propone distinguir entre cinco tipos: los documentos escritos (fuentes
históricas, periódicos, documentos personales, archivos privados y
oficiales, etc.), los documentos estadísticos (los que provienen de los
servicios oficiales de estadísticas y de organismos internacionales), los
documentos cartográficos (diversos tipos de mapas), los documentos de
imagen y sonido (fotografía, pintura, escultura, cine, documentación oral)
y, por último, los documentos objetos (es decir, los objetos construidos por
el hombre que revelan información interesante de la sociedad que los
fabrica, puesto que reflejan su naturaleza, organización y nivel de
desarrollo). Esta propuesta coincide a grandes rasgos con la realizada por
Sierra Bravo (1995), que distingue solamente cuatro categorías, omitiendo
los documentos cartográficos como un tipo separado del resto.
Podemos observar, por tanto, la gran variedad de fuentes de donde
pueden provenir los datos, desde obras de arte hasta estadísticas y noticias
en los medios de comunicación. Los datos más adecuados a la
investigación dependerán de la disciplina a la que pertenece la
investigación: los estudiosos de los medios de comunicación, como es
lógico, utilizan de manera fundamental todos los datos producidos por
éstos (no solamente noticias y otros tipos de programas, sino películas,
publicidad, etc.), mientras que los investigadores del Derecho se decantan
principalmente por analizar leyes, dictámenes y sentencias judiciales. Dada
la gran variedad de datos secundarios disponibles, resulta imposible en un
capítulo introductorio como el presente explicar de manera exhaustiva
dónde obtener todos estos tipos de datos. Por ello, en los dos próximos
apartados se centrará la atención en las fuentes de información estadística
que con mayor frecuencia utilizan los sociólogos y que también resultan de
suma utilidad para investigadores de otras disciplinas sociales, como
economistas, trabajadores sociales, demógrafos, criminólogos, periodistas
o educadores, por ejemplo.
Se diferencia aquí entre datos secundarios de carácter objetivo y
subjetivo. Se entiende por datos de carácter objetivo aquellos que se
refieren a hechos objetivos tales como el número de matriculados en un
centro educativo, el consumo de electricidad per cápita en un país o el
número de fallecimientos por accidente de tráfico en un municipio. Por
otro lado, los datos de carácter subjetivo se refieren a aquellas opiniones,
actitudes, valores, deseos, etc. que manifiesta la población sobre un
determinado tema. Por ejemplo, la opinión de la población sobre la calidad
del sistema educativo, la valoración de los precios de la electricidad o las
medidas que se creen que serán más efectivas para reducir la mortalidad en
accidentes de tráfico. Ambos tipos de datos, objetivos y subjetivos, son
interesantes para el investigador social y se pueden utilizar de manera
complementaria para analizar la realidad.
4. LOS DATOS SECUNDARIOS DE CARÁCTER OBJETIVO:
PRINCIPALES FUENTES DE INFORMACIÓN A NIVEL
NACIONAL E INTERNACIONAL
En este apartado se van a enumerar algunas de las principales fuentes de
información de datos secundarios de carácter objetivo. Cabe advertir que
este listado no pretende ser, ni podría serlo, exhaustivo, ya que las fuentes
son innumerables. En el caso de las fuentes internacionales, se han
escogido aquellas que se caracterizan por poseer información de un amplio
número de países, incluido España, y que cubren un amplio abanico de
temas. Es el caso de, por ejemplo, el Banco Mundial, las Naciones Unidas
o Eurostat, la Oficina estadística de la Unión Europea (UE). En el caso de
las fuentes nacionales, resulta imposible incluir aquí todos los Ministerios,
Institutos públicos (como el Instituto de la Mujer o el de la Juventud), los
gobiernos autonómicos y sus respectivos Institutos de estadística, por lo
que se ha decidido centrar la atención en el Consejo Económico y Social y
el Instituto Nacional de Estadística (INE).
Por otro lado, hay que tener en cuenta, si se quiere llevar a cabo una
comparación internacional, que la información estadística disponible (y
accesible online) es mucho más rica en los países más industrializados que
en los que tienen un menor nivel de desarrollo, por lo que puede ocurrir
que no todos los datos que se necesitan para la investigación estén
disponibles para todos los países. Como señala Eurostat, las sociedades
democráticas no funcionan de manera adecuada sin una sólida base de
estadísticas de datos objetivos rigurosa y fiable, que permita, por un lado,
a los legisladores de las diferentes administraciones tomar decisiones y, por
otro lado, que la opinión pública y los medios conozcan la realidad social y
evalúen el desempeño de los políticos y otros actores sociales. Es por ello
que las sociedades más avanzadas dedican una especial atención a
recolectar y publicar dicha información.
Será el propio investigador el que, dependiendo del tema objeto de
estudio, deba reflexionar sobre cuál es la fuente más adecuada de datos
secundarios. Por ejemplo, un estudiante de Criminología puede estar más
interesado en buscar información en el Ministerio de Interior, en el de
Justicia y en las bases de datos policiales; un estudiante de Relaciones
Laborales se decantará por buscar información publicada por los
sindicatos o las asociaciones empresariales; uno de Trabajo social puede
encontrar particularmente interesante los informes sobre inclusión social
de diferentes ONGs; uno de Economía puede acudir a los informes
socioeconómicos que publican entidades bancarias como BBVA o La
Caixa; uno de Marketing estará más interesado por los informes que
realizan las asociaciones de consumidores; un alumno de Turismo preferirá
consultar las estadísticas de movimientos turísticos que publica el INE y a
un estudiante de Comunicación le pueden ser útiles los datos de la Oficina
de Justificación de la Difusión (OJD), que analiza la prensa escrita en papel
y digital, y de la Asociación para la Investigación de los Medios de
Comunicación, que publica el Estudio General de Medios (EGM). Las
posibilidades son casi infinitas y es importante reflexionar sobre cuáles son
las fuentes más adecuadas para encontrar los datos que se necesitan para
contrastar las hipótesis formuladas.
A continuación se explican las fuentes de información, ordenadas
alfabéticamente. Cabe mencionar que en muchos casos las instituciones
ponen a disposición de los usuarios, además de informes ya elaborados,
herramientas de análisis online, que permiten seleccionar los datos que se
quieren consultar (países, años, indicadores), cruzar variables y/o elaborar
gráficos para su descarga posterior. Se debe advertir que las fuentes de
información internacionales están en inglés (a veces, también, en español,
francés o alemán), por lo que es recomendable tener un diccionario de este
idioma a mano. No es aconsejable utilizar las herramientas de traducción
automática de los buscadores, que pueden llevar a equívocos y errores. Por
último, hay que tener en cuenta que, aunque existen páginas muy visibles
en los buscadores que recopilan la información estadística de varias
fuentes, es siempre más riguroso en un trabajo académico acudir a la
fuente de información original de donde se extrajo el dato1.

4.1. Banco Mundial (http://data.worldbank.org/)


El Banco Mundial (World Bank) agrupa a cinco instituciones
internacionales que financian actuaciones en los países en desarrollo, con el
objetivo de incrementar la prosperidad en dichos países y promover el
desarrollo sostenible. Acorde con dichos objetivos, la información que
ofrece esta institución abarca desde indicadores relacionados con la
agricultura sostenible, las infraestructuras y el cambio climático hasta
indicadores sanitarios, educativos, laborales, financieros y económicos. El
abanico de temas de los que recopila información es muy amplio y también
dedican especial atención al análisis de la posición de la mujer en cada
país.
Pinchando en la pestaña “Data” de su página web, se puede encontrar
información no solamente de países menos desarrollados, sino de países
industrializados. Además de estadísticas nacionales, se pueden seleccionar
los valores medios de los indicadores para regiones del mundo (por
ejemplo, África Subsahariana) o para países que pertenecen a uno de los
seis grupos según su desarrollo económico.

4.2. Consejo Económico y Social (www.ces.es)


El Consejo Económico y Social español es un alto órgano consultivo del
Gobierno, en el que están presentes organizaciones empresariales,
sindicales y otras representativas de los intereses de la ciudadanía. El
Consejo emite dictamen preceptivo sobre los Anteproyectos de Leyes del
Estado, Proyectos de Reales Decretos Legislativos que regulen las políticas
socioeconómicas y laborales y Proyectos de Reales Decretos que se
considere por el Gobierno que tienen una especial trascendencia en este
ámbito.
El Consejo publica una Memoria sobre la situación socioeconómica y
laboral de España, de carácter anual, que resulta interesante para el
estudiante universitario, puesto que la rica información estadística se ve
acompañada de una interpretación de los datos. La Memoria se divide en
varios apartados, estando presente habitualmente un análisis del panorama
económico internacional y nacional, del mercado de trabajo, de las
políticas de empleo y las relaciones laborales y de las condiciones de vida
de la población (educación, vivienda, medio ambiente, consumo, salud,
protección social e inclusión social). Por último, desde su página web
también se puede acceder a los Consejos económicos y sociales de carácter
autonómico así como realizar búsquedas en los Dictámenes e Informes,
Boletines Oficiales y Diarios de Sesiones del Congreso de los Diputados y
del Senado.

4.3. Eurostat (http://ec.europa.eu/eurostat)


Eurostat es la Oficina estadística de la Unión Europea, localizada en
Luxemburgo. Su misión es proveer de información estadística de alta
calidad a los países miembros, permitiendo así la comparación de datos
entre estos. Pinchando en la pestaña “Data” y posteriormente eligiendo en
el desplegable “Database” desde su página de inicio, se puede acceder a
estadísticas de economía y finanzas, población y condiciones de vida
(sección que incluye migraciones, salud, educación, protección social,
mercado de trabajo, juventud, cultura y deporte, entre otros temas),
industria, servicios y agricultura, transporte, comercio internacional, medio
ambiente, ciencia y tecnología (apartado que incluye información sobre la
sociedad digital). Navegando por cada uno de estos temas, se despliegan
tablas estadísticas con la información solicitada para todos los países
miembros y, habitualmente, para diversos años. Antes de descargar la
información en formato Excel, permite depurar la información y
seleccionar solamente algunos países y/o algunos años que interesen al
investigador.

4.4. Foro Económico Mundial (https://www.weforum.org)


El Foro Económico Mundial (World Economic Forum), también
conocido como Foro de Davos, es una fundación sin ánimo de lucro con
sede en Ginebra y que reúne anualmente en su asamblea anual en Davos,
Suiza, a dignatarios de todo el mundo. Pinchando en la pestaña “Reports”
se puede acceder a informes que elabora periódicamente sobre diversos
asuntos de interés económico de diversas regiones del mundo (salud,
empleo, turismo, etc.).
De particular interés resulta estudiar el Global Gender Gap Index (índice
global de la brecha de género) que propone esta institución. Anualmente se
publica el informe Global Gender Gap Report, que realiza desde 2006,
iniciándose con 107 países y analizando en 2016 a 144. El Foro ha
desarrollado este índice para cuantificar la desigualdad de género en cada
país en cuatro ámbitos (salud, educación, economía y política) y analizar
cómo evoluciona. Además de acceder al informe global, la página permite
seleccionar perfiles de países para ver cómo puntúan en cada dimensión del
indicador, cómo han progresado desde que se incluyen en el análisis y qué
posición ocupan en el ranking mundial.

4.5. Instituto Nacional de Estadística (www.ine.es)


El Instituto Nacional de Estadística (INE), es un organismo autónomo
adscrito al Ministerio de Economía, Industria y Competitividad. La Ley le
encomienda expresamente la realización de las operaciones estadísticas de
gran envergadura (censos demográficos y económicos, cuentas nacionales,
estadísticas demográficas y sociales, indicadores económicos y sociales,
coordinación y mantenimiento de los directorios de empresas, formación
del Censo Electoral…). El INE ofrece, de manera gratuita y fácilmente
accesible a través de internet, una rica información tanto de datos
estadísticos de carácter objetivo (por ejemplo, tasas de natalidad,
mortalidad y nupcialidad, número de matriculados en la Universidad,
número de fallecimientos por una determinada causa) como de carácter
subjetivo (realiza encuestas a la población sobre diversos temas, desde
salud hasta nuevas tecnologías), siendo la Encuesta de Población Activa
una de las más importantes que elabora, con carácter trimestral.
Pinchando en la pestaña “INEbase” se puede encontrar un listado de las
grandes áreas en que se clasifica la información publicada: agricultura y
medio ambiente, ciencia y tecnología, demografía y población, economía,
industria, energía y construcción, mercado laboral, nivel y condiciones de
vida, servicios y sociedad. Cada área tiene, a su vez, subtemas que, si se
seleccionan, muestran una enumeración detallada del tipo de datos que se
pueden consultar. Para la mayoría de la información existen datos
regionales además de nacionales, y para muchos de ellos también se puede
desagregar a nivel provincial. Una vez seleccionada la información que
interesa, se abre una herramienta con la que el investigador puede escoger
qué datos quiere que se le ofrezcan. Por ejemplo, los nacimientos de
solamente una provincia española, o el número de inmigrantes de
solamente una Comunidad autónoma. Una vez se genera la tabla de datos
con los parámetros especificados, se puede descargar la información en
diversos formatos, entre ellos Excel.
Por último, cabe mencionar que el INE publica un listado muy útil de los
enlaces a todos los servicios estadísticos tanto de las Comunidades
autónomas españolas como de los países de la UE y los de otras regiones
del mundo (http://www.ine.es/htdocs/serv/estadist.htm).

4.6. Organización de las Naciones Unidas


(http://www.un.org/es/index.html)
La Organización de las Naciones Unidas (ONU), también conocida
simplemente como Naciones Unidas (United Nations, UN por sus siglas en
inglés) es la mayor organización internacional existente, creada tras la
Segunda Guerra Mundial. En la actualidad, 193 Estados son miembros de
esta organización y están representados en el órgano deliberante, la
Asamblea General. La ONU es una organización compleja con múltiples
agencias dedicadas a diversas áreas, algunas tan conocidas como la
UNESCO (United Nations Educational, Scientific and Cultural
Organization), dedicada al ámbito de la educación y la cultura, la
OMS/WHO (Organización Mundial de la Salud, World Health
Organization), enfocada a asuntos sanitarios, o la FAO (Food and
Agricultural Organization), centrada en temas alimentarios.
La ONU posee una agencia estadística que es la responsable a nivel
internacional de recolectar la información demográfica oficial de las
agencias estadísticas nacionales. Desde 1948 publica el Anuario
Demográfico (Demographic Yearbook), obra de referencia entre los
demógrafos y otros científicos sociales para cualquier comparación
internacional sobre temas relacionados con la población. Para consultar
información estadística, se debe, desde la página de la portada (en
español), acceder a la pestaña “Documentos” y, posteriormente, a
“Recursos y servicios” y “Base de datos”. Allí se encontrará información
no solamente demográfica, sino de temas sanitarios, educativos,
económicos. etc.
De particular interés para los investigadores sociales es el índice de
desarrollo humano elaborado por esta institución (Human Development
Index, HDI, por sus siglas en inglés), dependiente del Programa de las
Naciones Unidas para el Desarrollo (PNUD). El índice fue creado para
medir los logros medios obtenidos en tres dimensiones fundamentales del
desarrollo humano: tener una vida larga y saludable (salud), adquirir
conocimientos (educación) y disfrutar de un nivel de vida digno (ingresos).
El índice se elabora desde 1990 con carácter anual y en la actualidad
cuenta con datos de 188 países. Cada año se publica el Informe sobre
Desarrollo Humano, que se puede descargar de la web
(http://hdr.undp.org/en). Además de este índice, la ONU en los últimos
años ha elaborado otros índices más específicos, como los relacionados con
la pobreza multidimensional o la desigualdad de género.
4.7. Organización para la Cooperación y el Desarrollo
(http://www.oecd.org)
La Organización para la Cooperación y el Desarrollo (OCDE, o bien
Organisation for Economic Co-operation and Development, OECD, en
inglés), creada en los años sesenta, es una organización internacional que
promueve políticas para aumentar el nivel de bienestar social y económico,
ofreciendo un foro en el que los gobernantes comparten experiencias y
buscan soluciones a problemas comunes. Se encarga de medir la
productividad y los flujos globales de comercio e inversión y analiza y
compara datos para predecir tendencias futuras. Además de su foco en los
aspectos económicos y de comercio, pone a disposición del usuario una
amplia gama de estadísticas de interés social. Aunque la OCDE tiene en la
actualidad 35 miembros (entre ellos España) de diversos continentes y con
diferentes niveles de desarrollo económico, es frecuente que en la
información estadística aparezcan datos de otros países no miembros,
como China.
Desde su página de inicio, pinchando en la pestaña “Data” (en la parte
superior), se puede seleccionar el tema del que se quieren buscar datos
(para el conjunto de países que forman parte de la OCDE) o bien el país en
el que se está interesado. Algunos de los temas son educación, salud,
familia, protección social, desarrollo, nuevas tecnologías o empleo. De
especial relevancia para los investigadores interesados en las familias y la
infancia es la OCDE Family Database
(http://www.oecd.org/els/family/database.html), que incluye 70 indicadores
relacionados con cuatro dimensiones: estructuras de la familias, posición
en el mercado laboral de las familias, políticas públicas para familias y
niños e indicadores relacionados con el bienestar infantil (salud, pobreza,
educación y participación social). También son muy conocidos entre los
interesados en el ámbito educativo —y entre los medios de comunicación y
responsables políticos— los Informes PISA (Programme for International
Student Assesment, Programa para la evaluación internacional de los
estudiantes), un estudio internacional de carácter trianual que evalúa los
conocimientos y habilidades de los estudiantes de 15 años
(http://www.oecd.org/education/).

4.8. Organización Internacional del Trabajo


(http://www.ilo.org/global/lang-es/index.htm)
La Organización Internacional del Trabajo (OIT, International Labour
Organization, ILO, en inglés), fundada en 1919, es la única agencia
tripartita de la ONU, compuesta por representantes de gobiernos,
empleadores y trabajadores de 187 países miembros. Esta organización se
dedica a la elaboración de estándares laborales, así como a desarrollar
políticas y concebir programas que promuevan un trabajo decente para
hombres y mujeres. Desde la página de inicio (en español) se puede pinchar
en la pestaña “Estadísticas y bases de datos”, donde la información se
agrupa en tres partes: ILOSTAT (que recoge las estadísticas de datos
objetivos relacionados con el mercado de trabajo), Estadísticas sobre
trabajo infantil y las Encuestas sobre la mano de obra. Seleccionando este
último apartado, se accede a un listado de países por orden alfabético y,
eligiendo el país del que se tenga interés, se abre un enlace a las encuestas
oficiales sobre el tema en dicho Estado (por ejemplo, la Encuesta de
Población Activa del INE para el caso español).

4.9. Base de Datos Mundial de Riqueza e Ingresos (http://wid.world)


Esta base de datos (World Wealth & Income Database, WID, en inglés)
se ha elaborado con la finalidad de facilitar y promover las comparaciones
internacionales dedicadas a resultados socioeconómicos y los factores
institucionales que moldean dichos resultados. Esta base es reciente,
creándola un grupo internacional de académicos en 2011 inicialmente bajo
el nombre de The World Top Incomes Database (WTID). Recoge
información de más de una treintena de países sobre desigualdad
económica, cubriendo un amplio periodo que, según los países analizados,
puede llegar hasta principios del siglo XX. La novedad de esta base de
datos es que combina información de las cuentas nacionales e información
fiscal con datos de encuesta de manera sistemática, por lo que resulta de
interés para los investigadores que quieran analizar la desigualdad
económica combinando diferentes indicadores. La página ofrece al usuario
crear, además de las tablas y gráficos habituales en otras bases de datos,
mapas interactivos de países.
1
Todas las páginas web de este apartado y el siguiente han sido consultadas en agosto de 2017.
5. LOS DATOS SECUNDARIOS DE CARÁCTER SUBJETIVO:
PRINCIPALES FUENTES DE INFORMACIÓN A NIVEL
NACIONAL E INTERNACIONAL
En los últimos años han proliferado las encuestas de opinión,
coordinadas por equipos de investigadores a nivel internacional, para
facilitar la comparación de las opiniones, prácticas sociales, valores y
actitudes de poblaciones de diferentes partes del mundo. Estas encuestas
abordan temas tan variados como la familia, la religión, la política, la
desigualdad, la inmigración o el Estado de bienestar. Aunque comenzaron
hace varias décadas con un reducido número de países principalmente
occidentales, siendo la Encuesta Mundial de Valores una de las pioneras,
progresivamente se han expandido a otras regiones del mundo e incluso se
han coordinado estudios internacionales en zonas como África o
Latinoamérica sobre aspectos que interesan especialmente a los estudiosos
de la región. De todos ellos se habla en este apartado, así como de dos
fuentes de información nacionales, una de carácter privado (el Banco de
datos ASEP/JDS) y una público, el Centro de Investigaciones Sociológicas.
Como ocurre en el caso de los datos de carácter objetivo, muchas de estas
instituciones tienen disponibles herramientas de análisis online de sus
datos, que permiten elaborar tablas y gráficos con aquellos que interesen al
investigador. Asimismo, la mayoría de ellas están en inglés y es necesario
disponer de un diccionario por si surgieran dudas. El orden que se ha
seguido para explicarlas es el alfabético.

5.1. Afrobarómetro (http://www.afrobarometer.org)


El Afrobarómetro (Afrobarometer en inglés) es una red de investigación
pan-africana que realiza encuestas sobre democracia, gobernanza,
condiciones económicas y temas relacionados con estos aspectos. Esta
encuesta se realiza desde el año 1999 y en la actualidad participan 37
países que representan al 76% de la población africana. En su página web,
se puede descargar directamente la base de datos (a través de la pestaña
“Data”, subsección “Merged data”), o bien realizar un análisis online a
través de la pestaña “Online Data Analysis”, seleccionando el país (o
países) y los temas y preguntas que se quieren analizar. Es una encuesta de
especial interés para los alumnos de Ciencias Políticas y de Sociología,
dada la rica información disponible sobre las actitudes hacia el gobierno y
la democracia, así como la ciudadanía y la identidad, pero no únicamente
para ellos, ya que también se abordan temas como justicia, conflicto y
crimen, que pueden interesar a los estudiantes de Criminología; o sobre
pobreza, tolerancia o capital social, asuntos más cercanos a los
trabajadores sociales. Se incluyen, por último, ítems relacionados con la
igualdad de género, un aspecto muy relevante dado que estos países, en
muchas ocasiones, figuran en los ranking mundiales entre los que tienen
mayores brecha de género.

5.2. Banco de datos ASEP/JDS (http://www.jdsurvey.net/jds/jdsurvey.jsp)


El Banco de datos ASP/JDS es, probablemente, la base de datos española
de carácter privado con más riqueza de información. Fue fundada en 1982
por el catedrático de Sociología Juan Díez Nicolás y su principal objetivo
es la investigación social, económica y política. La peculiaridad de esta
base de datos es que, además de la información que proviene de sondeos
que han realizado los propios investigadores de ASEP, se puede acceder a
bases de datos de carácter internacional, muchas de ellas analizadas en este
mismo apartado.
En cuanto a los datos producidos por ASEP, desde 1986 realiza
mensualmente el sondeo “La opinión pública de los españoles” a una
muestra representativa de la población española, que incluye un Sistema de
Indicadores fijo sobre actitudes y comportamientos económicos y de
consumo, políticos, y de exposición a medios de comunicación (lo que
permite disponer de largas series temporales), además de opiniones sobre
los temas de actualidad cada mes (lo que constituye un gran archivo
histórico de las variaciones en los estados de opinión sobre un gran
número de temas). También se puede acceder al proyecto CIRES (Centro
de Investigaciones de la Realidad Social) que realizó entre 1990 y 1996, a
la Colección Inmigrantes, con datos entre 1991 y 2007, y al Barómetro del
Real Instituto Elcano (datos de 2002 y 2003). En cuanto a los datos que
recopilan de estudios internacionales, desde esta página se puede acceder a
datos del Afrobarómetro, el Barómetro de Asia, el Latinobarómetro y el
Barómetro Global, así como a las Encuestas Mundial y Europea de
Valores, el Programa Internacional de Estudios Sociales y al Estudio
Comparado de Sistemas Electorales. La página pone a disposición de los
usuarios, además de la descarga de los ficheros con las bases de datos
originales para su posterior análisis con paquetes estadísticos, una
herramienta online para estudiar frecuencias y realizar tablas de
contingencia y gráficos que también pueden ser descargados.

5.3. Barómetro de Asia (http://www.asianbarometer.org)


El Barómetro de Asia (Asian Barometer Survey en inglés) es un proyecto
que se engloba en el Programa de investigación sobre estudios
democráticos de Asia Oriental de la Universidad Nacional de Taiwán.
Tiene como objetivo generar en esta región del mundo datos fiables y
comparables que permitan los análisis internacionales. Sus encuestas se
centran en temas como los valores políticos, participación política y
confianza en las instituciones, gobernanza, seguridad humana y la
valoración de las reformas económicas. La primera oleada se realizó en
2001 con ocho países participantes y en la cuarta y última oleada,
correspondiente a los años 2014 a 2016, han participado 14 países del Este
asiático, tales como Japón, Corea del Sur, Taiwán, Tailandia y China.
Mientras que en su página se pueden descargar informes con los resultados
principales de cada oleada (pestaña “Publications”), así como las bases de
datos originales (pestaña “Data”), en ella no existe una herramienta online
de análisis de datos, se debe acudir a la página de ASEP/JDS para
realizarlo.

5.4. Centro de Investigaciones Sociológicas (www.cis.es)


De entre las instituciones españolas, ya sean públicas o privadas, que
realizan sondeos a la opinión pública, sin duda el Centro de
Investigaciones Sociológicas (CIS) es el más importante por la cantidad y
calidad de datos que genera sobre nuestra sociedad. El CIS es un
organismo autónomo dependiente del Ministerio de la Presidencia cuya
función principal es la de contribuir al conocimiento científico de la
sociedad española.
Todos los datos del CIS son de dominio público. El Banco de Datos del
CIS custodia y pone a disposición del público todas las investigaciones
realizadas por el Centro. A él se puede acceder a través de la propia web
del CIS, o de forma presencial. Muchos de estos datos se recogen en la
Colección Opiniones y Actitudes, que desde el año 2010 se edita en
formato electrónico, cuya función es divulgar análisis empíricos de datos,
poniendo especial énfasis en la presentación y descripción de los
resultados, más que en la voluntad de teorizar o de establecer vínculos
causales entre variables
(http://www.cis.es/cis/opencm/ES/3_publicaciones/colecciones/opiniones.jsp).
El CIS realiza encuestas con carácter mensual (los Barómetros del CIS),
que incluyen un bloque de preguntas fijo sobre la situación económica y
social del país, así como un bloque variable dedicado a diversos temas. Las
encuestas se realizan a una muestra de 2.500 personas mediante entrevistas
cara a cara, a diferencia de otros institutos de investigación, que encuestan
a una muestra más reducida y de manera telefónica. El CIS también realiza
estudios encargados por diversas administraciones públicas, tales como los
diferentes Ministerios, para proporcionar diagnósticos precisos para
orientar la labor de los poderes públicos. Los temas recogidos por el CIS
son variados. Se puede encontrar un índice temático en la pestaña “Banco
de datos”, opción “Catálogo de encuestas”, con temas que van desde la
política y la economía hasta la comunicación, la cultura, la educación o la
sanidad, entre otros muchos. Existe también una herramienta online para
buscar información y realizar tablas y gráficas (pestaña “Banco de datos” y
enlace “Análisis online”). Por último, en esta web se pueden encontrar
aquellos estudios que realiza el CIS como responsable en España de los
trabajos de campo de estudios internacionales en los que participa nuestro
país. Es el caso, por ejemplo, del estudio “Familia y género” del Programa
Internacional de Estudios Sociales (ISSP por sus siglas en inglés).

5.5. Encuesta Europea de Valores (http://www.europeanvaluesstudy.eu) y


Encuesta Mundial de Valores
(http://www.worldvaluessurvey.org/wvs.jsp)
Desde la década de los ochenta, a raíz de las grandes transformaciones y
el cambio social cada vez más rápido en todas las sociedades, ha cobrado
importancia en el mundo académico el estudio del cambio de los valores de
la población. Fruto de este interés nacen en 1981 la Encuesta Europea de
Valores (European Values Survey, EVS, por sus siglas en inglés) y la
Encuesta Mundial de Valores (World Values Surveys, WVS). La Encuesta
Europea realiza cada nueve años un sondeo en cada vez un mayor número
de países europeos, siendo 2008 el último año, con datos disponibles para
47 países/regiones europeos y 70.000 entrevistados. Por su parte, la
Encuesta Mundial ha realizado ya seis oleadas (la última con datos
recogidos entre 2010 y 2014), y está preparando en la actualidad la
séptima. En la sexta oleada se recolectó información de casi un centenar de
países que representan a casi el 90% de la población mundial,
entrevistando a casi 400.000 personas. Mediante estas encuestas los
investigadores pueden estudiar cómo las personas valoran diferentes
aspectos de la vida, como la familia, el trabajo, la religión, la política y el
medio ambiente, comparar estos valores con los de otros países y ver cómo
evolucionan a lo largo de las últimas décadas.
Para ambas encuestas es posible descargar los ficheros con las bases de
datos originales de las personas encuestadas, o bien realizar un análisis
online. Sin embargo, mientras que en el caso de la Encuesta Mundial dicho
análisis se realiza en la propia página web, seleccionando la oleada y el
país del que se quiere obtener la información, la Encuesta Europea remite a
la página web del instituto alemán de investigación GESIS (Leibniz
Institute for Social Sciences) (https://www.gesis.org/home). Además de en
esta web, recordemos que la página de ASEP/JDS también permite el
análisis de estos datos.

5.6. Encuesta Social Europea (http://www.europeansocialsurvey.org)


La Encuesta Social Europea (European Social Survey, ESS, por sus siglas
en inglés), es un proyecto académico internacional nacido en 2001 en el
que participan una treintena de países europeos. Desde entonces, se han
realizado siete oleadas (cada dos años), siendo los últimos datos
disponibles los de 2014, aunque próximamente se publicarán los de la
octava oleada, con datos de 2016. El principal objetivo de esta iniciativa es
trazar la estabilidad y el cambio en la estructura social, las condiciones y
las actitudes en Europa e interpretar cómo cambia su tejido social, político
y económico. La ESS presta especial atención a los aspectos metodológicos,
tanto en lo que se refiere al diseño de la muestra y el cuestionario como a
la recogida de los datos, mediante entrevistas cara a cara. La encuesta
incluye algunas preguntas de manera permanente, que se refieren a asuntos
como la confianza social, la política y el bienestar subjetivo, y otras que se
realizan de manera ocasional y que cubren un amplio espectro de temas:
salud y cuidados, moralidad económica, trabajo, familia, inmigración,
justicia, democracia o bienestar.
5.7. Estudio sobre ingresos y sobre riqueza del LIS
(http://www.lisdatacenter.org)
El Luxembourg Income Study (LIS) es un centro de documentación de
carácter internacional con sede en Luxemburgo. Este centro posee dos
bases de datos accesibles para la comunidad investigadora: el Luxembourg
Income Study Database (LIS) y el Luxembourg Wealth Study Database
(LWS). El primero de ellos (LIS), es la mayor base de datos armonizada (es
decir, con datos comparables entre países) sobre ingresos, con información
para alrededor de medio centenar de países en los cinco continentes de los
últimos cincuenta años. En esta base se recogen datos de los encuestados
como la fuente de sus ingresos (trabajo, capital, transferencias sociales y
privadas, etc.), los impuestos que se pagan, las características del empleo y
los gastos de los encuestados. La segunda base (LWS) recoge información
de quince países, principalmente europeos o anglosajones, y pregunta por
diversos aspectos relacionados con las posesiones, deudas, ingresos del
mercado y del gobierno, empleo, consumo y gasto de los encuestados.

5.8. Eurobarómetros
(http://ec.europa.eu/commfrontoffice/publicopinion/index.cfm/General/index
Los Eurobarómetros (Eurobarometer, EB, en inglés) son sondeos de
opinión encargados por la Comisión Europea que se empezaron a realizar
en 1974 entre muestras representativas de las poblaciones de los países
miembros de la UE. Existen tres tipos: el estándar, el especial y el flash. El
Eurobarómetro estándar se publica dos veces al año e incluye una serie de
ítems sobre la situación económica y política de la UE y del país del
encuestado, así como la valoración de la UE. Por su parte, los EB especiales
realizan estudios en profundidad encargados por la Comisión Europea u
otras instituciones comunitarias, integrándose en los sondeos de los
Eurobarómetros estándar como una sección independiente. Abarcan temas
muy variados, desde medio ambiente hasta pobreza, inmigración,
cooperación internacional, deporte o hábitos de consumo. Por último, los
Eurobarómetros flash son encuestas telefónicas realizadas ad hoc sobre un
tema de actualidad por requerimiento de algún servicio de la Comisión
Europea.
En la página web de los Eurobarómetros se pueden descargar los
informes con los principales resultados globales para todos los Estados
miembros, así como los informes individuales para cada país por separado.
También es posible, tras seleccionar un determinado Eurobarómetro,
pinchar en el enlace “Open Data Portal” y descargar en formato Excel
todas las preguntas incluidas en el sondeo y todas las frecuencias para
todos los países miembros. Sin embargo, si se quiere descargar la base de
datos original para realizar análisis estadísticos más sofisticados, se deberá
hacer desde la página web del ya mencionado instituto alemán de
investigación GESIS (Leibniz Institute for Social Sciences).

5.9. Programa Internacional de Estudios Sociales (ISSP)


(http://www.issp.org/menu-top/home)
El Programa Internacional de Estudios Sociales (International Social
Survey Programme, ISSP, en inglés), es un programa de colaboración
académica internacional que realiza anualmente encuestas sobre diversos
temas relevantes para la investigación social. El programa nació en 1984
con cuatro países (Australia, Alemania, Gran Bretaña y Estados Unidos) y
progresivamente ha aumentado el número de Estados participantes a varias
decenas de todas las regiones del mundo. Los temas analizados se repiten
periódicamente, para así permitir comparar la evolución de las actitudes y
prácticas sociales. Algunos de los asuntos que se han abordado han sido: el
papel de los gobiernos, las redes sociales, la desigualdad social, la religión,
la familia y los roles de género o el medio ambiente. Los últimos datos
disponibles, de 2015, se dedican a la orientación hacia el trabajo, y los
próximos que se publicarán serán los módulos dedicados al papel del
gobierno (datos recogidos en 2016), las redes sociales (en 2017) y la
religión (en 2018). Esta página web no tiene disponible una herramienta
online para analizar los datos. Para descargar la base de datos original,
como ya ocurriera en el caso de la Encuesta Europea de Valores y el
Eurobarómetro, se remite al instituto GESIS, aunque también se puede
disponer de algunos estudios (no todos), a partir de 1998, en la página web
de ASEP/JDS.

5.10. Latinobarómetro (www.latinobarometro.org)


El Latinobarómetro es un estudio de opinión pública que realiza
anualmente alrededor de 20.000 entrevistas en 18 países de América
Latina. Esta encuesta es realizada por Corporación Latinobarómetro, una
ONG sin ánimo de lucro con sede en Santiago de Chile. Mediante este
sondeo, se investiga el desarrollo de la democracia, la economía y la
sociedad en su conjunto, usando indicadores de opinión pública que miden
actitudes, valores y comportamientos. Las encuestas comenzaron a
realizarse en 1995 y los últimos datos publicados son de 2015. Además de
preguntas que pueden interesar a estudiantes de Ciencias Políticas o
Sociología, Economía, Criminología, etc. como es el caso de ítems
relacionados con la democracia, la confianza social, la valoración de las
instituciones políticas o de las relaciones internacionales, se incluyen
preguntas que pueden resultar útiles para estudiosos de otros ámbitos,
como las relacionadas con la pobreza, con los medios de comunicación o
con el uso de internet. La página web permite descargarse, además de los
informes y los cuestionarios, las bases de datos originales. Asimismo, está
disponible una herramienta de análisis online en la que se pueden
seleccionar países y/o oleadas para consultar la distribución de frecuencias
y realizar gráficos con las tablas de datos.
6. BIG DATA: DEFINICIÓN, VENTAJAS E
INCONVENIENTES
En los últimos años se ha popularizado la expresión Big Data (grandes
datos) y es común encontrar desde ofertas de empleo hasta propuestas
formativas relacionadas con este concepto. En este apartado se pretende
explicar qué es el Big Data y sus posibles ventajas e inconvenientes en un
trabajo académico (trabajo de fin de grado, de máster o incluso tesis
doctoral) como el que ocupa este manual.
El término fue popularizado en la década de los 90 por el informático
estadounidense John Mashley, quien publicó el artículo “Big Data and the
Next Wave of Infrastress” (Datos masivos y la próxima ola de Infrastress),
donde advertía de que el aumento en la cantidad de datos que se generaría
en los sucesivos años provocarían un estrés en las infraestructuras humanas
y físicas de la informática. Se denomina Big Data a la gestión y análisis de
enormes volúmenes de datos que no pueden ser tratados de manera
convencional, ya que superan los límites y capacidades de las herramientas
de software habitualmente utilizadas para la captura, gestión y
procesamiento de datos. Además del volumen de información, los otros
dos rasgos característicos del Big Data son la variedad (se incluyen nuevas
de fuentes de datos diferentes a las que se utilizan de forma tradicional,
como son los dispositivos móviles, audio, vídeo, sistemas GPS, sensores
digitales en equipos industriales, automóviles, medidores eléctricos, veletas,
anemómetros, etc., los cuales pueden medir y comunicar el
posicionamiento, movimiento, vibración, temperatura, humedad) y la
velocidad (la rapidez con que los datos se reciben, se procesan y se toman
decisiones a partir de ellos). Además de estas tres características
principales, Kitchin (2014) les añade otras: muchos de estos datos tienen
referencia espacial y temporal, son exhaustivos (datos de poblaciones
completas o muestras amplísimas), tienen alta resolución (mucho detalle) y
son flexibles (diseñados para ser ampliados fácilmente añadiendo nuevas
variables y nuevos casos).
Estos grandes datos han generado un enorme interés en las empresas, ya
que pueden utilizarlos para entender el perfil, las necesidades y el sentir de
sus clientes respecto a los productos y/o servicios vendidos. Por ejemplo,
cuando una persona navega por Internet (bien sea utilizando las redes
sociales o visitando páginas de instituciones y empresas de diverso tipo),
deja un rastro sobre cuáles son sus intereses, con quién se relaciona, dónde
compra, cuándo lo hace, etc. Como señalan Navarro y Ariño (2015: 127):
“Si el incremento de datos digitales es ciertamente apabullante, todavía lo
es más el crecimiento de esa clase especial de datos digitales que son los
datos personales”. Nuestras acciones en la red (búsquedas, compras, uso
de las redes sociales, etc.) dejan huellas digitales que son más precisas
cuanto más numerosas y diversas sean. Empresas como Google y Facebook
elaboran estadísticas del número y perfil de los usuarios que buscan
determinadas palabras en el buscador, o que visitan y/o son fans de
páginas de la red social. Esta información es vendida posteriormente a
terceras empresas, que con dicha información, denominada inteligencia
empresarial, elaboran perfiles de consumidores con gran precisión y toman
decisiones sobre qué tipos de productos producir, cómo venderlos y a
quiénes, por ejemplo. Pero no todas las aplicaciones son comerciales. Los
grandes datos son utilizados por los gobiernos para estudiar el
comportamiento de los ciudadanos, y mejorar así los servicios públicos,
perseguir los incumplimientos de la ley, o vigilar masivamente las
comunicaciones para luchar contra el terrorismo. Por su parte, los
investigadores académicos han empleado estos grandes datos para estudiar
el efecto contagio de los estados emocionales a través de las redes sociales,
el contenido de las redes sociales como predictor de comportamientos de
consumo o políticos, etc. (Mezo, 2015).
Los científicos e investigadores han analizado datos desde ya hace mucho
tiempo, lo que hace a este periodo cualitativamente diferente es la gran de
cantidad de datos que se generan diariamente. Esta abundancia de datos y
la velocidad con la que se pueden analizar transforma la forma en que se
investiga en ámbitos como la biomedicina, la salud, el consumo, el medio
ambiente, la seguridad nacional, etc. Ello no significa que los datos y las
herramientas para analizarlos más tradicionales dejen de tener
importancia, pero se complementan con las nuevas fuentes de información.
La naturaleza de la información hoy es diferente a la información en el
pasado. Debido a la abundancia de sensores, micrófonos, cámaras,
escáneres médicos, imágenes, etc. en nuestras vidas, los datos generados a
partir de estos elementos serán dentro de poco el segmento más grande de
toda la información disponible. Navarro y Ariño (2015: 112) advierten de
que internet no será solamente en un futuro cercano el objeto “por
defecto” de la investigación social, sino que será la misma red la que
aportará (lo hace ya) los instrumentos para estudiarla. Cada vez se aplican
más técnicas de inteligencia artificial, conocidas como machine learning
(aprendizaje automático), que son procesos de análisis en los que un
programa de ordenador puede aprender de sí mismo, identificando errores
y aciertos y reformulándose para identificar patrones y hacer predicciones
(Mezo, 2015).
En el caso de un estudiante universitario que está realizando un trabajo
de investigación, el uso de Big Data puede resultar muy interesante para
descubrir patrones de consumo y estilos de vida en ámbitos como la
Publicidad, el Marketing, la Salud o la Sociología del Consumo. Sin
embargo, debe tenerse presente que estos datos requieren una inversión
costosa para las empresas que se dedican a recopilarlos, por lo que es
improbable que el alumno pueda acceder a ellos de manera gratuita, como
sí es el caso de las fuentes comentadas en los dos puntos anteriores. No
obstante, podría ocurrir que algunas de las empresas elaboren informes de
carácter divulgativo para darse a conocer entre potenciales consumidores,
usuarios o inversores, que podrían ser utilizados para realizar un trabajo
académico. En estos casos, lo más probable es que el estudiante se
encuentre con un número limitado de información que, además, puede
estar sesgada. Por ello, deberá evaluar de manera cuidadosa la calidad de
dichos datos, utilizando una serie de criterios que se explican en el
próximo apartado2.
2
Para una explicación más detallada de los problemas metodológicos propios de los grandes datos,
ver Mezo (2015), pp. 508-510.
7. CÓMO EVALUAR LA CALIDAD DE LOS DATOS
SECUNDARIOS
Dada la abundancia de datos secundarios y su facilidad de acceso a través
de internet, resulta necesario que el investigador dedique un tiempo a
valorar la calidad de las fuentes de información y, por tanto, de los datos
que ofrecen. Dicha evaluación es fundamental para llevar a buen término
la investigación. El examen crítico de los datos secundarios es
indispensable en Ciencias Sociales, como indica Ander-Egg (1982), dado
que no permiten casi nunca que el investigador tenga contacto directo con
los hechos y fenómenos a que se hace referencia en los documentos.
Siguiendo a este autor, una valoración de datos estadísticos, tanto de
carácter objetivo como subjetivo, requiere conocer las circunstancias en las
que se desarrolló la investigación originaria, como cuáles fueron los
procedimientos para obtener los datos o si el organismo que recopiló la
información lo hizo de forma imparcial o tenía algún tipo de fin
interesado. La evaluación pretende medir la fiabilidad y la validez de los
datos. La fiabilidad se refiere a la exactitud de la medida, es decir, a que si
se realizan diferentes pruebas los resultados que se obtienen son similares.
La validez, por su parte, se refiere a que el procedimiento que se usa mide
lo que realmente pretende medir. Para valorar la fiabilidad de una fuente
de información, González (1994) sugiere que el investigador se pregunte
por la accesibilidad de los datos, el objetivo de la investigación y quiénes
fueron sus responsables, si los datos en sí son fiables y cuándo y cómo se
recogieron, entre otros aspectos. Por su parte, para evaluar el grado de
validez hay que interrogarse sobre si los indicadores miden lo que se
suponen que miden, si coinciden los conceptos que va a utilizar el
investigador con los indicadores propuestos en los datos, si ha habido
cambios en la definición del concepto (en el caso de un estudio
longitudinal) y si se cubren las dimensiones más relevantes del concepto
con los datos disponibles.
En conclusión, podríamos dividir en tres grandes bloques los aspectos
que el investigador debe evaluar de la fuente de información secundaria y
los datos que ofrece:

7.1. Con respecto al diseño de la investigación


Cuáles eran los objetivos e hipótesis de la investigación, cómo se
definieron los conceptos y las variables, cómo se diseñó la recogida de
datos, si la muestra es representativa o deja fuera a segmentos de la
población relevantes (en el caso de tratarse de una encuesta a una gran
población), cuál es el margen de error, qué preguntas y categorías de
respuesta se incluyeron en el cuestionario. Para valorar esta parte, resulta
útil analizar los anexos metodológicos así como los cuestionarios que
habitualmente la institución responsable publica junto a los principales
resultados. En el caso de los cuestionarios, se debe valorar si las preguntas
se formularon correctamente, sin sesgos que pudieran influir en la
respuesta del entrevistado. También se debe prestar atención a que las
categorías de respuestas fueran exhaustivas (que ninguna persona
encuestada diera una respuesta que no está recogida en el cuestionario y,
por tanto, no pudiera responder) y excluyentes (que no resulte posible
responder dos categorías de respuesta simultáneamente). Por último, se
debe plantear si faltan preguntas (y/o categorías de respuesta) importantes
para contrastar las hipótesis.

7.2. Con respecto a la recogida de datos


Hay que valorar cómo fue el trabajo de campo y si se controló la labor de
los encuestadores, si las entrevistas fueron personales, por correo postal o
electrónico o por teléfono, las fechas en que se realizaron las encuestas y la
tasa de respuesta a las preguntas más importantes para nuestra
investigación. Hay que prestar atención a si durante el periodo de recogida
de los datos ocurrió algún hecho relevante que pueda influir en la manera
de responder. Por ejemplo, si la encuesta trata de las actitudes hacia el
medio ambiente y durante las dos semanas en que se recoge la información
ocurre una catástrofe medioambiental, pudiera ocurrir que las respuestas
estuvieran influidas por este hecho. También hay que analizar si existe
alguna pregunta que tiene una tasa de respuesta baja, es decir, que muchas
personas no contestan por diferentes motivos: por tratarse de un tema
íntimo, polémico o poco conocido entre la población.

7.3. Con respecto a la presentación de los datos y su análisis


Hay que valorar si se han publicado todos los datos relevantes, sin omitir
algunos importantes, pues ello nos haría dudar de la imparcialidad de la
fuente y de sus objetivos. Hay que prestar atención a si se comparan
cantidades que son realmente comparables y a que las conclusiones no sean
abusivas y se deriven directamente de los datos.
Requiere comentario aparte el análisis crítico de los datos cuando se
realizan comparaciones a lo largo del tiempo o cuando provienen de
diferentes fuentes3. En el último caso, por ejemplo, cuando se trata de un
estudio internacional que ha sido llevado a cabo por diversos institutos de
investigación de varios países, es muy recomendable leer el cuestionario (ya
sea en su idioma original o en su traducción al inglés) puesto que en
ocasiones la formulación de las preguntas o las categorías de respuesta
pueden variar. Por ejemplo, en un país se puede haber dado al entrevistado
la posibilidad de expresar su grado de acuerdo eligiendo entre cinco
categorías: “muy de acuerdo/de acuerdo/ni de acuerdo ni en desacuerdo/en
desacuerdo/muy en desacuerdo”, mientras que en otro no se ha preguntado
la categoría intermedia y solamente existen cuatro opciones. En estos
casos, las comparaciones se deben realizar con suma cautela, puesto que la
distribución de la población en diferentes categorías puede ser muy
diferente debido en parte a la diversa codificación de las respuestas.
También puede ocurrir que, en un estudio internacional, no todos los ítems
se preguntan en todos los países, por lo que es recomendable realizar un
primer análisis de los datos controlando si las preguntas con las que va a
trabajar el investigador están presentes en todos los países que quiere
estudiar.
Por último, es muy importante comprobar que no ha cambiado la
definición de los conceptos cuando se trata de un estudio longitudinal.
Cambios legislativos o adaptaciones a metodologías de organismos
internacionales, por ejemplo, pueden provocar que un fenómeno social
cambie su definición y, por tanto, su manera de medirlo difiera a lo largo
de los años. Un ejemplo de ello para el caso español ocurrió con la entrada
en vigor del Reglamento 1897/2000, que modificó sustancialmente la
manera de registrar el paro en España, como explica el Instituto Nacional
de Estadística en su página web. La definición formal de parado no cambió
con el nuevo reglamento, usándose la definición internacional de la OIT.
Según esta definición, desempleada es la persona con más de cierta edad
especificada que durante el periodo de referencia está sin trabajo,
disponible para trabajar y que busca empleo. Sin embargo, el nuevo
reglamento introdujo instrucciones sobre cómo interpretar la búsqueda
activa de trabajo y esta modificación afectó mucho a las cifras de paro que
registra la Encuesta de Población Activa (EPA), provocando una gran
disminución en las cifras del desempleo tanto absolutas como relativas4.
Este reglamento, que se aplicó para unificar la definición de parado en
toda la Unión Europea, afectó especialmente a España. El INE modificó los
cuestionarios de 2001 para poder registrar tanto la nueva como la antigua
definición y así poder cuantificar el impacto del cambio, que se demostró
fue importante. Los cuestionarios anteriores a 2001 no recogían este matiz
sobre si la búsqueda de empleo es o no activa, por lo que no es posible
determinar, para periodos anteriores a 2001, qué cifras de paro habría
dado la EPA de utilizar la nueva definición. Por tanto, un investigador que
quiera comparar las cifras de parados en España durante las últimas
décadas deberá tener en cuenta esta modificación en el concepto y en la
medición y saber que los datos no son directamente comparables antes y
después de 2000.
3
Como señala Mezo (2015), hay que tener en cuenta que muchas estadísticas compiladas
internacionalmente por organismos como la ONU o Eurostat, aparentemente tienen una fuente
“única” pero, en realidad, fusionan informaciones de organismos nacionales, con criterios que
son similares pero no idénticos, por lo que es necesario revisar las notas metodológicas que
acompañan a dicha información.
4
Hasta la entrada en vigor del reglamento, se consideraba que estar inscrito en las oficinas públicas
de desempleo era suficiente para considerar que estaba buscando empleo. Tras su entrada en
vigor, no era suficiente con dicha inscripción, sino que la persona desempleada debía en las
cuatro semanas anteriores a la entrevista haber estado en contacto con una oficina pública de
empleo, o con una privada, haber realizado entrevistas de empleo, o haber enviado su
candidatura a empleadores, entre otras actividades.
8. VENTAJAS E INCONVENIENTES DE LA UTILIZACIÓN
DE DATOS SECUNDARIOS
El uso de esta técnica tiene ventajas e inconvenientes a tener en cuenta.
Siguiendo a González (1994: 250 y ss.), entre el grupo de las ventajas,
destacan:
a) Los datos secundarios permiten disponer de información abundante,
barata y de calidad. Este fue el primer argumento para usarlos, aunque
ahora se acepta que tienen otras ventajas además de su coste. Además,
su calidad puede ser mayor que la de los datos recogidos por el propio
investigador, dado que los recopilan organizaciones especializadas en el
tema. Por ejemplo, una encuesta realizada por el Centro de
Investigaciones Sociológicas a una muestra representativa de la
población española muy probablemente contendrá datos de mayor
calidad que una encuesta que realice un estudiante a algunas decenas de
personas de su entorno cercano. En este caso, además, los datos
recolectados por el CIS han sido revisados por especialistas y recogidos
en una base que permite su utilización inmediata una vez se descargan
de manera gratuita, mientras que el estudiante que recopila sus propios
datos debe revisar los errores en su recogida y codificar todas las
respuestas en una base que cree para tal fin, labor larga y compleja.
b) Permite una gran variedad de diseños de investigación, como las
comparaciones internacionales (cada vez más frecuentes) y las series
temporales. El aumento de la colaboración entre organismos oficiales e
instituciones de investigación de diversas partes del mundo y la
facilidad para conseguir datos secundarios en internet ha hecho posible
que, de manera gratuita, un estudiante universitario pueda realizar una
comparación sobre un determinado tema (educación, empleo, pobreza,
inmigración, etc.) entre todos los países miembros de la Unión Europea
y en dos momentos diferentes del tiempo, algo impensable hace pocos
años. Por otro lado, siempre que queramos comprender un fenómeno
del pasado necesitaremos recurrir a datos secundarios para conocerlo.
c) Se pueden emplear estos datos, especialmente los que provienen de
censos, para crear los marcos muestrales y para ver lo representativa
que es una muestra que hemos empleado en nuestra investigación. Si el
estudiante va a recoger datos primarios por sí mismo, los secundarios le
pueden orientar sobre cómo se distribuye la población objeto de estudio
por sexo, grupo de edad o nivel educativo, por ejemplo.
d) Evita la reactividad, es decir, la distorsión que produce el que los
sujetos sepan que están siendo investigados. Sin embargo, puede haber
ocurrido dicho efecto en el momento de la investigación original, por lo
que el investigador de datos secundarios debe examinar críticamente la
información y valorar la posibilidad de que se produjera reactividad en
el momento en que los datos se recogieron.
e) Permite el reanálisis de los datos de encuestas, que normalmente se
explotan muy poco. Se pueden reanalizar los datos desde marcos
teóricos distintos y con técnicas distintas.
f) Promueve el progreso científico (teórico, metodológico y técnico),
gracias al desarrollo y utilización de grandes bases de datos.
Entre los inconvenientes, que limitan su utilización, el mismo autor
destaca:
a) Accesibilidad: aunque en general los datos son accesibles, puede
ocurrir que la información que necesita el investigado para cubrir los
objetivos de su investigación no esté disponible. Por ejemplo,
imaginemos que para nuestra investigación necesitamos distinguir a las
personas que tienen unos ingresos mensuales menores de 450 euros del
grupo que ingresa entre 451 y 750 euros pero, en la base de datos que
queremos utilizar, se distingue entre los que tuvieron unos ingresos
menores de 600 euros y los que obtuvieron una cifra superior. En este
caso, debemos valorar diferentes opciones: buscar una fuente de datos
que sí realice la distinción que nos interesa o, si se decide seguir
utilizando esos datos, prescindir de la variable ingresos en el análisis o
adaptarse a las categorías de respuesta disponibles. Otro problema que
puede encontrarse el investigador es que existan los datos a nivel
agregado, pero no individual. Por ejemplo, el investigador puede haber
obtenido el dato de cuántos minutos navegan por internet de media los
españoles los días laborables, pero no tener dicha información para
cada uno de los encuestados de su base de datos, que es una muestra
representativa de la población española, por lo que no puede analizar
cómo se distribuye ese tiempo según diversas características.
b) Empirismo burdo: los datos no hablan por sí mismos, por lo que las
grandes bases de datos no van a generar por sí mismas ideas e
interpretaciones. En ellas hay muchas variables interesantes pero es la
teoría la que nos hará seleccionar unas y no otras. El estudiante, por
tanto, no debe sentirse tentado de incluir un gran número de datos en el
trabajo académico para demostrar que ha sabido buscar las fuentes de
información más pertinentes para su investigación, ni tampoco cruzar
todas las variables sin un sentido teórico que guíe dicha operación, sino
que tendrá que seleccionar cuáles son los datos más interesantes y cómo
cruzarlos para comprobar sus hipótesis, hipótesis que, a su vez, derivan
de un marco teórico previamente elaborado.
c) Calidad de los datos y de la fuente: es necesario valorar si cumplen con
unos requisitos mínimos de validez y fiabilidad, tanto los datos como la
fuente de la que provienen. Las recomendaciones sobre este aspecto han
sido realizadas en el apartado anterior.
9. BIBLIOGRAFÍA
Ander-Egg, E. (1982). Técnicas de Investigación Social. Buenos Aires: Humánitas.
Barranco Fragoso, R. (2012). ¿Qué es Big Data? [online]. Disponible en:
https://www.ibm.com/developerworks/ssa/local/im/que-es-big-data/. Fecha de consulta: 14 de
agosto de 2017.
Gázquez, J. (2017). Qué es el Big Data y usos en el Marketing de contenidos [online]. Disponible
en: http://www.foromarketing.com/big-data-marketing-contenidos/. Fecha de consulta: 14 de
agosto de 2017.
González, B. (1994). “La utilización de los datos disponibles”. En: M. García Ferrando, J. Ibáñez Y
F. Alvira (comp.). El análisis de la realidad social. Métodos y técnicas de investigación [2ªed.
revisada y ampliada]. Madrid: Alianza, pp. 245-273.
Hakim, C. (1982). Secondary analysis in social research. Londres: G. Allen.
Kitchin, R. (2014). The Data Revolution: Big Data, Open Data, Data Infrastructures & Their
Consequences. Londres: Sage.
López López, J.C. (2014). La moda del Big Data: ¿En qué consiste en realidad? [online]. Disponible
en: htttp://www.eleconomista.es/tecnologia/noticias/5578707/02/14/La-moda-del-Big-Data-En-
que-consiste-en-realidad.html. Fecha de consulta: 14 de agosto de 2017.
Mezo, J. (2015). “Explotación de datos secundarios”. En: M. García Ferrando, F. Alvira, L. E.
Alonso y M. Escobar (comp.). El análisis de la realidad social. Métodos y técnicas de investigación
[4ª edición]. Madrid: Alianza Editorial, pp. 485-521.
Navarro, P. y Ariño, A. (2015). “La investigación social ante su segunda revolución digital”. En: M.
García Ferrando, F. Alvira, L. E. Alonso y M. Escobar (comp.). El análisis de la realidad social.
Métodos y técnicas de investigación [4ª edición]. Madrid: Alianza Editorial, pp. 110-141.
Sierra Bravo, R. (1995). Técnicas de investigación social. Teoría y ejercicios [10ª edición]. Madrid:
Paraninfo.
Capítulo 8
LA SELECCIÓN DE LAS UNIDADES DE
INVESTIGACIÓN: EL DISEÑO DE MUESTRAS
Verónica de Miguel Luken
Universidad de Málaga

1. INTRODUCCIÓN
En este capítulo se presenta una introducción al muestreo. No se
profundiza en cuestiones complejas, sino que lo que se pretende es
proporcionar ciertas ideas clave para entender en qué consiste el muestreo
y cuáles son las herramientas metodológicas para poder realizar un diseño
muestral sencillo. Si bien se pueden tomar muestras humanas, animales,
agrupaciones como empresas o países, u objetos, dependiendo del interés
de estudio, el texto se centrará fundamentalmente en las muestras de
personas, que son las habituales en las Ciencias Sociales. Los ejemplos,
además, estarán orientados a la recogida de datos por medio de encuestas
fundamentalmente, aunque se dedicará un apartado específico al muestreo
de tipo cualitativo.
Realizar un buen muestreo constituye una de las etapas más importantes
de una investigación. Si bien ciertos problemas de representatividad se
pueden solventar posteriormente con un buen análisis, el éxito de la
investigación viene determinado en gran medida por la calidad de los datos
que se recogen. En este sentido, dos palabras son clave para entender lo
que es una buena muestra: la representatividad y, su versión opuesta, el
sesgo.
En España, el Instituto Nacional de Estadística (INE), el Centro de
Investigaciones Sociológicas (CIS) o los institutos de estadística
autonómicos cuentan con equipos profesionales que se encargan de
elaborar complejos diseños muestrales que permiten obtener información
de buena calidad que sea válida para orientar políticas públicas. No está al
alcance de muchos investigadores el poder contar con estos medios, pero es
conveniente tener presente a estos organismos como referencia de
metodología de trabajo.
2. BREVE CONTEXTUALIZACIÓN HISTÓRICA
La recogida de datos estadísticos se remonta a los primeros tiempos de la
historia. La necesidad de contabilizar a la población se justificaba por la
distribución y previsión de recursos, por la utilidad de conocer los
contingentes disponibles en caso de conflictos bélicos y para la recaudación
de tributos e impuestos por parte de los gobernantes. Sin embargo, recabar
información de forma exhaustiva no siempre era posible y de ahí que
surgiera la necesidad de tomar subconjuntos de ciertas unidades para
poder inferir a todo el universo de estudio. En el libro Historias de
Heródoto (s. V a. C.), el autor relata como un rey persa empleó una
técnica basada en el muestreo para contar el número de efectivos de sus
tropas. Tomó un número fijo de soldados y les pidió que se pegaran tanto
como pudieran. Luego cercó el área que ocupaban e hizo pasar por ella a
toda su armada. Estimó la población total de soldados multiplicando la
cantidad que había contado en el primer grupo por el número de grupos
que llenaron el cercado (Thompson, 2012).
A pesar de aproximaciones al muestreo anteriores en la historia, no fue
hasta el siglo XX cuando se desarrolló la teoría de muestras y se avanzó
realmente en las técnicas para su aplicación. Es a principios de siglo
cuando se introduce el concepto de aleatoriedad en las muestras y durante
las dos primeras décadas del siglo se discutía si la representatividad del
muestreo aleatorio simple era mejor que la del muestreo intencional. El
director de la Oficina Central de Estadística Noruega, A. N. Kiaer, fue el
primero que planteó extraer muestras en las que la mayoría de las variables
representativas de la población estuviesen contempladas (jóvenes/mayores,
ricos/pobres, etc.). Sin embargo, el inglés A. Bowley fue uno de los que
primero introdujo la condición de aleatoriedad en sus muestras. El
estadístico polaco J. Neyman agrupó ambas aproximaciones en 1934,
intentando asegurar que una muestra incluyese variables representativas y
que los individuos fuesen seleccionados al azar. El primer éxito de la
técnica de muestreo estratificado llegó en 1936 de la mano de G. Gallup,
que predijo la reelección de Roosevelt en EE.UU. con una muestra de 3000
votantes, mientras que la competencia vaticinó el resultado opuesto a
partir de una muestra no estratificada de 2 millones de votantes (Rooney,
2009).
Con posterioridad, se fue ampliando el nivel de sofisticación a muestreos
estratificados, de conglomerados, polietápicos, etc. Los últimos avances de
la teoría de muestras proceden de la búsqueda por encontrar la mejor
manera de estudiar grupos de población difíciles de localizar o aquellos
para los que no existen apropiados marcos muestrales. Obviamente, la
posibilidad de trabajar con grandes ficheros de datos y el avance de la
estadística inferencial se ha producido de forma paralela al desarrollo de
los recursos informáticos disponibles.
3. CONCEPTOS BÁSICOS
A la hora de abordar una investigación, el primer paso que conviene
realizar es el de fijar claramente el grupo de individuos sobre los que se
pretende trabajar. Surge así el concepto de población, como el conjunto
delimitado y bien definido por una serie de caracteres, de los elementos que
se quieren estudiar. Se usarán igualmente población objetivo y universo
como sinónimos de población. El tamaño de la población (N) viene dado
por el número de individuos que la componen.
Ejemplo: Colectivo de los alumnos de 1º de grado de la Universidad de
Málaga matriculados en el curso 2017/18.
La población, por tanto, debe quedar bien acotada y debemos saber en
todo momento quiénes la componen y quiénes no. Una cuestión que parece
tan banal suscita en la práctica múltiples dudas. Si se desea elaborar una
encuesta sobre las expectativas laborales y profesionales futuras de los
estudiantes de una universidad, ¿nuestra población incluye a los
estudiantes de todos los cursos o solo a los de 4º? ¿Se incluye a los
estudiantes de máster? ¿Y a quiénes están realizando la tesis doctoral?
¿Interesan también aquellos que están ya trabajando?
En la mayoría de ocasiones es inviable recoger datos para todos los
individuos de la población (recogidas exhaustivas de tipo censal) por
diversos motivos (Lohr, 1999):
– Limitaciones presupuestarias (ej.: no hay suficiente dinero para poder
entrevistar a toda la población).
– Limitaciones de tiempo (ej.: llevaría demasiado tiempo entrevistar a
toda la población).
– Porque el estudio implique la destrucción del elemento a estudiar (ej.:
tiempo de vida de una bombilla).
– Porque la población sea difícil de controlar (ej.: personas en unos
grandes almacenes en una semana).
Por ello, y gracias a las herramientas de análisis que propone la
estadística inferencial, se recurre a una recogida de datos parcial. Se escoge
un subconjunto de la población, la muestra, y se estudia a partir de él las
características de la población. Es decir, a partir de la recogida de
información sobre una muestra se generalizan los resultados al total de la
población. El tamaño de la muestra se suele denotar como n.
La principal característica que se le debe exigir a una muestra es que sea
representativa de la población. Una buena muestra reproducirá las
características que nos interesan de la población tan fielmente como sea
posible. Será representativa en el sentido de que cada unidad muestral
representará las características de un número conocido de elementos de la
población. El interés de la muestra residirá, por tanto, en la información
que pueda proporcionar acerca de la población, ya que influirá
directamente en que los resultados extrapolados sean más o menos
precisos.
Otro concepto que se debe tener claro para el diseño de una muestra es el
de marco muestral, o listado de las unidades sobre las que vamos a escoger
la muestra1.
Ejemplo: En un estudio de población, los datos nominativos del Padrón
de Habitantes podría constituir el marco muestral, en el ejemplo de los
alumnos de 1º de la Universidad de Málaga, bastaría con el listado de los
matriculados.
A menudo puede ser muy difícil o costoso contar con un buen marco
muestral, por lo que se tendrá que recurrir a otros listados alternativos
cuyas unidades se puedan asociar a uno o más elementos de la población.
Si se utiliza un listado de este tipo, habrá que decidir cuál es la regla de
enumeración (Levy y Lemeshow, 2008).
Ejemplo: Quizás no se pueda disponer de un listado de personas
residentes en un municipio concreto, pero sí un listado de hogares o
viviendas sobre el que se pueda extraer la muestra, con unidades que
puedan agrupar a uno o más elementos de la población. La regla de
enumeración se tendría que decidir una vez seleccionada una vivienda: ¿se
entrevista a todos los mayores de edad que residan en la misma? ¿a una
persona escogida al azar entre los que allí residan?
La figura 1 ilustra las situaciones que se pueden dar en la relación entre
población objetivo, el marco muestral y la población realmente accesible.
En una encuesta ideal, el conjunto A debería coincidir con el conjunto C.

Figura 1. Relación entre población, marco muestral y población accesible


Fuente: adaptado de Lohr (1999: 4)

Ejemplo: Se quiere pasar una encuesta a la población extranjera que lleva


en España más de un año y que reside en un determinado territorio,
excluyendo a los que solo viven allí por periodos vacacionales (A) y para
ello contamos con los datos del Padrón Continuo (B). Realizando el
trabajo de campo, se pueden encontrar personas incluidas en el listado que
lleven menos tiempo en España (no elegibles), personas que no viven donde
están empadronadas (no localizadas), personas que rechazan contestar (no
quieren participar), personas que no hablan nuestro idioma (no pueden
participar), etc., con lo cual nuestro marco muestral inicial ya queda
reducido (C). También puede ocurrir (y esto no se puede controlar tan
fácilmente desde el punto de vista estadístico) que haya personas que
cumplan las condiciones de la población de estudio pero que no estén
empadronadas, con lo cual no aparezcan en el marco muestral.
Una unidad de muestreo es un elemento o conjunto de elementos cuya
elección se considera en alguna etapa del muestreo. En un muestreo
polietápico, las unidades variarán de una fase a otra (por lo que serán
necesarios distintos marcos muestrales), con lo cual coincidirán con las
unidades de observación en la última fase.
Ejemplo: Las unidades primarias son las secciones censales, las
secundarias los hogares, las terciarias las personas a quienes se va a
entrevistar.
Una muestra está sesgada cuando no es representativa de la población y
en tal caso los estimadores que proporcione pueden no reflejar fielmente
las características del universo de estudio. Se pueden distinguir dos tipos
principales de sesgos (Lohr, 1999):
– Sesgos de selección: cuando parte de la población de estudio no está
incluida en el marco muestral del que se extrae la muestra (ejemplo:
alumnado que no tiene Facebook si el profesorado usa esta red para
hacer una encuesta).
– Sesgos de medida: cuando los instrumentos de medida tienden a dar
resultados que difieren de los valores reales (ejemplo: diseño incorrecto
de alguna pregunta de un cuestionario). Los que están relacionados con
los errores de muestreo son los anteriores.
Ejemplo: El 20 de septiembre de 2016, El País publicó un artículo sobre
el perfil del joven ciberacosado. La información se basaba en un estudio
elaborado sobre una base de datos de llamadas recibidas en un teléfono de
ayuda a niños y adolescentes, y a adultos/familia de los mismos. La
asociación encargada del teléfono había atendido 60.408 llamadas
relacionadas con acoso escolar, de entre las que se habían seguido 1.363
casos de bullying. Los resultados reflejaban que la mayoría eran jóvenes
españoles, procedentes de familias sin problemas económicos, con alto
rendimiento escolar y, en el caso del ciberacoso, estaban más afectadas las
chicas. La cuestión que se debería plantear alguien tras leer el artículo es si
estas conclusiones son extrapolables a toda la población joven o no. Para
ello, habría que cuestionarse previamente si existe alguna diferencia en las
características de quienes llaman y de quienes no. ¿Se puede considerar a la
población que llama una muestra representativa de toda la población que
sufre acoso escolar o existe algún sesgo de selección? Habría que
preguntarse si los extranjeros con alguna dificultad en el idioma acudirían
con la misma facilidad a una ayuda ofrecida telefónicamente, o si es más
probable que los que llamen tengan móvil y (quizás) un mayor poder
adquisitivo. O si quienes llaman son los mejor informados (conocen la
asociación y el teléfono) y son presumible también los mejor formados.
El hecho de que puedan existir sesgos de selección no necesariamente
invalida la información que se recibe, pero es importante ser crítico con la
misma, conocer los límites de la investigación, saber de qué universo se
está hablando exactamente, hasta dónde llega la capacidad de
extrapolación de los resultados (qué validez externa tiene la investigación).
En definitiva, es conveniente leer, si es posible, la ficha técnica de informes
y publicaciones sobre investigaciones para ser conscientes del alcance de las
mismas antes de valorar los resultados que arrojan.
En la fase inicial de planificación de la investigación y de cara al diseño
de la muestra, se debe pensar detenidamente en cuáles son los subgrupos
de la población para los que se pretenden hacer las estimaciones (por edad,
sexo, lugar de residencia, procedencia geográfica…) y el nivel de precisión
requerido para dichas estimaciones (siempre condicionado por cuestiones
de presupuesto y tiempo).
La finalidad de una encuesta suele ser estimar ciertos valores de la
distribución de algunas características de la población. Estos valores son
los parámetros, que casi siempre son desconocidos. Un parámetro de una
población es, por tanto, una caracterización numérica (una constante) que
describe parcial o totalmente la distribución.
Cualquier cantidad obtenida de una muestra con el propósito de estimar
un parámetro poblacional se llama estadístico muestral. De forma más
rigurosa, un estadístico es cualquier función real de las observaciones
muestrales (media, proporciones, etc.), que no contienen parámetros
desconocidos. A partir de ellos se realizan las extrapolaciones a toda la
población, por lo que sirven para hacer estimaciones sobre los parámetros
de la población. La validez y fiabilidad de estas extrapolaciones dependen
de la calidad de la muestra y de las medidas recogidas (preguntas del
cuestionario).
Ejemplo: Sea una muestra de alumnos en un instituto. Cada estudiante
proporciona un valor para la variable ‘tiempo dedicado a ver la TV en un
día laborable’. Algunos posibles estadísticos serían: 1. el tiempo medio de
los alumnos de la muestra, 2. El máximo de tiempo observado, 3. la
varianza del tiempo que ven los alumnos la TV, etc.
Por convenio, en muchos textos se suelen utilizar letras griegas para los
parámetros poblacionales y letras romanas para los estadísticos muestrales
(µ y para la media)2.
Sea una población finita de tamaño N y una muestra aleatoria simple de
tamaño n. Sea X una variable aleatoria (una característica de la población),
que toma valores Xk para k=1, 2, …, N. Los parámetros y estadísticos
correspondientes para la media, la proporción y sus varianzas serían los
reflejados en la tabla 1 (Azorín y Sánchez-Crespo, 1986; Levy y Lemeshow
2008; Lohr, 1999; Thompson, 2012).

Tabla 1. Parámetros y estadísticos correspondientes más comunes


La desviación típica poblacional se define como:
Se denomina estimador de un parámetro poblacional desconocido a todo
estadístico que nos da un valor que está próximo al parámetro poblacional
desconocido. Ejemplo: media muestral como estimador de la media
poblacional.
Por ejemplo, un estimador de la varianza de la población vendrá
dado por (Levy y Lemeshow 2008):

Si el número de elementos N de la población es moderadamente elevado,


entonces el cociente será muy próximo a uno y se podrá usar la
aproximación: Este suele ser el caso cuando se trabaja con encuestas
de población.
No debemos olvidar que cada muestra particular nos conduciría a un
estimador diferente. La estadística inferencial se basa en la idea de que, si
las muestras son probabilísticas y suficientemente grandes, los estimadores
que pudiéramos obtener de distintas muestras no deberían variar mucho de
unos a otros y no deberían alejarse demasiado del valor real (esta es la idea
que subyace cuando se habla de márgenes de error).
De todas formas, hay que tener en cuenta que estos estadísticos
muestrales y estimadores de la población no serían válidos para cualquier
diseño muestral, ya que los métodos para estimar las características de la
población son específicos de los diferentes diseños muestrales.
1
La dificultad de obtener un buen marco muestral reside, por un lado, en la posible inexistencia del
mismo. Por ejemplo, si se quiere hacer una encuesta a personas que han sufrido violencia filio-
parental, no se dispondrá de un listado de aquellas personas que la han padecido para extraer la
muestra. Por otra parte, la imposibilidad de contar con el marco muestral se debe a cuestiones
sobre confidencialidad de datos. Actualmente es muy difícil obtener datos de población
nominativos.
2
Algunos autores, no obstante, prefieren usar letras mayúsculas para los parámetros y minúsculas
para los estadísticos.
4. MUESTREO PROBABILÍSTICO
A continuación se presentan los tipos de muestreos probabilísticos más
importantes. La combinación de ellos daría lugar a ‘diseños de muestras
complejas’ que suelen aparecer en muestreos polietápicos.
En un muestreo probabilístico, cada unidad de la población tiene una
probabilidad conocida y distinta de cero de ser escogida. Esta probabilidad
es la que dará lugar al factor de ponderación, fundamental en los análisis,
sobre todo en la parte descriptiva de la investigación. Si la muestra está
bien diseñada, un investigador puede usar una muestra relativamente
pequeña para hacer inferencias sobre una población de gran tamaño.
La mayoría de los resultados en muestreo se basan en la distribución
muestral de un estadístico (correspondiente a una característica estudiada),
la distribución de los diferentes valores del estadístico obtenido en el
proceso de extraer todas las muestras posibles de una población.

4.1. Muestreo aleatorio simple (MAS)


Cada posible muestra de tamaño n tiene la misma probabilidad de ser
escogida. Es el tipo de muestreo probabilístico más sencillo, pero
proporciona la base teórica para otros modelos más complicados (aunque
a la hora de llevar a cabo una investigación, en raras ocasiones es el
método más viable). Puede ser de dos formas (Azorín y Sánchez-Crespo
1995):
– Con reemplazamiento: el mismo elemento se puede incluir más de una
vez en la muestra (vuelve a la ‘urna’). Una muestra de tamaño n será
equivalente a n muestras independientes de tamaño 1, donde cada
unidad tiene probabilidad 1/N de aparecer.
– Sin reemplazamiento: como la duplicación de un elemento en la
muestra no aporta nueva información, generalmente se prefieren
muestras aleatorias sin reemplazamiento, donde todos los elementos de
una muestra son distintos. Existen posibles muestras de tamaño n,
cada una igualmente probable de ser escogida, luego:

(M: muestra concreta)


En una MAS con reemplazamiento, todos los individuos de la población
tienen la misma probabilidad de elección. Si es sin reemplazamiento las
probabilidades varían, pero si N es suficientemente grande el error que se
produce por considerarlas iguales es despreciable. Tanto es así, que en
estos casos se considera a todos los efectos como si fuese con
reemplazamiento. Cuando se estudian poblaciones humanas, las muestras
que se toman son sin reemplazamiento.
Para tomar una MAS sin reemplazamiento, bastaría asignar un número a
cada elemento del marco muestral (de 1 a N) y tomar al azar tantos
números (n) como tamaño tenga la muestra. Actualmente se suelen utilizar
programas de ordenador para generar los números aleatorios. Por ejemplo,
Stata cuenta con el módulo sample, en SPPS se puede crear una nueva
variable en ‘Transformar/calcular variable’, escogiendo en el grupo de
funciones ‘números aleatorios’ y, como función, la uniforme. Se tendrá que
indicar el número inicial y final entre los que se deben escoger los casos
para la muestra. Luego habrá que quitar las cifras decimales. O también, si
se tiene el marco muestral en formato *.sav, bastará con ir a
‘datos/seleccionar casos/muestra aleatoria de casos’, donde se indicará el
número de elementos que se quiere en la muestra o el porcentaje que
representa sobre la población elegible (la incluida en el marco muestral).
En Excel se puede simplemente usar la fórmula =ALEATORIO.ENTRE(nº
inicial; nº final).

4.1.1. Intervalos de confianza


Cuando tomamos una muestra, no basta con indicar, por ejemplo, la
proporción de votantes que piensan votar al candidato B o la media de
horas que una muestra de alumnos pasa delante del ordenador. Hay que
indicar hasta qué punto estos estimadores son precisos y para ello usamos
los intervalos de confianza (IC)3. Suponiendo que no hay errores de
medición o que estos son despreciables, la fiabilidad de un estimador se
valorará por el tamaño de su error típico o estándar. Cuanto mayor el
error, peor la fiabilidad.
Un IC al 95% se explica de la siguiente manera: si tomamos una muestra
tras otra de nuestra población y construimos un IC para cada una,
podemos predecir que el 95% de los intervalos resultantes incluirán al
verdadero parámetro poblacional. O dicho de otra manera, para el 95% de
todas las posibles muestras de tamaño n, el verdadero valor de la media de
la población (o la proporción o cualquier otro parámetro que estemos
estudiando) estará recogido en el intervalo de confianza resultante.
Para una muestra grande (sin reemplazamiento), un IC al nivel de
confianza 100(1-α)% para la media poblacional viene dado por (Levy y
Lemeshow, 2008; Lohr, 1999):

Donde es el percentil de la distribución normal estándar. Para un


intervalo de confianza al 95%, α=0,05 y =1,96.
Como generalmente se desconoce la varianza poblacional, se sustituye
por la muestral (en muestras grandes):

El IC para proporciones:

Si la muestra es con reemplazamiento, el factor desaparece de la


raíz.
El tamaño de la muestra (y la variabilidad de la misma) tiene una gran
importancia en el contraste de hipótesis. Si un resultado no se puede
considerar significativo, puede ser porque en efecto no existan diferencias
estadísticamente reseñables o efectos significativamente distintos de cero
pero, si la muestra es pequeña, podrá ser por este motivo, lo que implicaría
que una muestra de mayor envergadura sí podría arrojar diferencias
significativas.
No se debe olvidar, por tanto, que el aumento del tamaño muestral y una
mayor homogeneidad en el comportamiento de la variable de estudio en la
población repercutirán en una reducción del error muestral.

4.1.2. Estimación del tamaño muestral


A la hora de diseñar una MAS se debe decidir qué cantidad de error
muestral para los estimadores es tolerable y se debe sopesar la precisión
deseada con los costes que esta implica. Cuanto mayor el tamaño de la
muestra, menor el error atribuible a la misma, pero igualmente mayor el
gasto asociado a la obtención de la misma (Rodríguez Osuna, 1993).
Aunque en la investigación se recoja información sobre numerosas
variables, el investigador debe centrarse en una o dos importantes para
calcular el tamaño muestral.
La precisión deseada generalmente se expresa en términos absolutos
como (Lohr, 1999):

donde e es el margen de error y α el nivel de significación.


El cálculo del tamaño de la muestra n se desprende de los intervalos de
confianza. Buscamos, por tanto, un valor de n que satisfaga (Thompson,
2012):

De donde, despejando, obtenemos n= , con


En estudios en los que una de las respuestas principales es una
proporción, establecer el tamaño muestral es más sencillo, ya que para

poblaciones grandes, que alcanza su máximo cuando .

Haciendo , resultará en un IC al 95% con amplitud 2e. A


menudo, se utiliza sin más este cálculo para estimar el error por exceso.
En teoría, cuando no estemos ante proporciones y sea desconocida,
habrá que estimarla de alguna manera (con una encuesta piloto, estudios
anteriores similares, etc.).
Nota: en la MAS con reemplazamiento, el factor de corrección para
poblaciones finitas (FCPF: ) no aparece, con lo cual . En
la práctica, si el FCPF es cercano a 1, es decir, si las muestras tienen un
tamaño considerable, se puede ignorar igualmente (Thompson, 2012).
Ejemplo: Se desea llevar a cabo una encuesta sobre satisfacción con los
servicios municipales en el municipio de Fuengirola que, según la
Estadística del Padrón Continuo del INE a 1 de enero de 2016, cuenta con
65.092 personas de 18 y más años. Si se admite como máximo un 3%

(0,03) de margen de error para nuestra muestra, tendríamos


1.067 (si se exige un nivel de error inferior, por ejemplo, del 2%, se produce
un cambio sustancial en el número de casos a recoger, y el tamaño
muestral aumenta hasta 2.401 personas). Hay que tener en cuenta que en
una encuesta se recogen muchas preguntas y, por tanto, muchas variables.
Para unas las proporciones serán una buena forma de resumir los datos y
para otras podrían serlo la media, por ejemplo. El cálculo anterior, por
tanto, no deja de ser una aproximación, por exceso, al tamaño adecuado
para una MAS, aunque en sentido estricto cada medición tendría su error
asociado. Hay programas informáticos de análisis estadístico que permiten
incorporar la información sobre el diseño muestral y, consecuentemente,
afinar en el cálculo de los IC y niveles de error asociados a las distintas
variables (preguntas) del cuestionario.
Ejemplo: En el ejemplo descrito anteriormente no se tendría que hacer
más, ya que se trata de una muestra con unas proporciones adecuadas para
nuestra población de estudio y un tamaño viable. Aplicar la fórmula como
si fuera una población finita, o una MAS sin reemplazamiento, no haría
variar apenas el resultado (se aconseja hacer la prueba). En cambio, si se
desea obtener una muestra con el mismo margen de error en un instituto
de secundaria de 900 alumnos, ¡el tamaño muestral proporcionado por n0
superaría el tamaño de la población!, luego en este caso se tendría que

aplicar la fórmula completa: n= luego, redondeando, 488


alumnos. Por tanto, se aprecia que no se trata de una cuestión tanto de
proporción del tamaño muestral sobre el total de población, como de
tamaño de la muestra en términos absolutos.

4.2. Muestreo estratificado


En el muestreo aleatorio estratificado (MAE) la población se divide en
subgrupos (estratos) que forman una partición del total. Es decir, no existe
solapamiento entre los estratos y cada elemento de la población está
incluido en un solo estrato. Estos grupos deben ser lo más homogéneos
internamente como sea posible y lo más heterogéneos como sea posible
entre ellos, con respecto a la cuestión que se esté analizando. Se selecciona
una MAS en cada estrato. La muestra total estará formada por la unión de
cada una de las submuestras (figura 2).
Si se aplica correctamente, el muestreo estratificado proporciona
estimadores más precisos de la población, reduciendo los errores
muestrales derivados. Dado que lo que se pretende es que los elementos de
los estratos se parezcan entre ellos lo más posible, se suele utilizar cuando
se quieren comparar determinados subgrupos (ejemplo: grupos étnicos en
un estudio sobre inmigración, cada estrato podría definirse según grandes
regiones de procedencia), o cuando tenemos determinada información
suplementaria sobre nuestra población de estudio que queremos incorporar
al diseño de la muestra (ejemplo: una encuesta sobre salarios, sabemos que
en determinadas áreas el precio de la vivienda es más elevado, luego
podemos crear estratos homogéneos de acuerdo con estas características).
Si N es el total de la población, Ni es el tamaño de población del estrato i
y H es el número de estratos, se tendrá que:

Un estimador de la media poblacional, sería:

o media ponderada de las medias de los estratos (tomando en cada


estrato se tendrá un estimador para la proporción).
Al igual que ya se vio para el MAS, el IC aproximado al 100 (1-α)%
vendrá dado por:

cuando los tamaños muestrales de cada estrato son altos o hay un gran
número de estratos.

4.2.1. Tipos de afijación


Hay diferentes formas de asignar un tamaño muestral a cada estrato,
dependiendo de los intereses del estudio y de las características de la
población. Así, la afijación puede ser de diversos tipos (Azorín y Sánchez-
Crespo, 1995; Lohr, 1999; Martínez Martín, 2015):
– Afijación proporcional: el tamaño muestral de cada estrato es
proporcional al tamaño poblacional del estrato. Por tanto, la
probabilidad de selección de una unidad es igual en todos los estratos.

Probabilidad de escoger al individuo j en el estrato h: h =1,


2, …, H.
Dicho de otra forma, cada elemento de la muestra representa al mismo
número de individuos de la población.
– Afijación uniforme: es la menos aconsejable. Consiste en tomar el
mismo número de unidades para la muestra de cada estrato n1=n2= …=
nH, luego la probabilidad de selección de una unidad concreta variará
de un estrato a otro. Aunque las probabilidades puedan oscilar mucho,
a veces puede interesar para asegurar una muestra mínima en cada
estrato.
– Afijación óptima: si la varianza interna de cada estrato variase mucho
de uno a otro, la mejor alternativa sería una afijación óptima, por la
que se tomarían muestras mayores en aquellos estratos con varianzas
más elevadas. Suele ser efectivo en estudios en los que los estratos
tienen tamaños poblacionales muy diversos, en los que cabe esperar que
aquellos estratos de mayor tamaño tengan, a su vez, varianzas más
altas. Es un método efectivo también cuando algunos estratos son más
costosos a la hora de ser muestreados que otros.
Ejemplo: Se quiere realizar una encuesta sobre la elección de estudios
universitarios y expectativas profesionales, con especial atención a las
diferencias de género. Se sabe que la distribución del alumnado de nuevo
ingreso en los sectores de estudios más representados es la siguiente para el
curso que se inicia (total de 207.406 alumnos/as en estas ramas) y se
quieren alcanzar las 1.000 entrevistas4.
Mujeres Hombres
Ciencias de la Educación N1=33.365 N2=9.901
CC. Sociales y del comportamiento N3=26.232 N4=19.703
Enseñanza comercial y admón. N5=27.015 N6=24.290
Mecánica, electrón. Y otra formac. técn. N7=7.966 N8=26.718
Salud N9=22.973 N10=9.243

En el supuesto de que se dispusiera del listado de alumnos y se pudiera


extraer un MAE, el tipo de afijación proporcional conduciría a la siguiente
distribución de casos, aplicando una sencilla regla de tres:
n1=33.365*1.000/207.406=161, n2=9.901*1.000/207.406=48, n3=126,
n4=95, n5=130, n6=117, n7=38, n8=129, n9=111, n10=45 (las cifras se han
redondeado para evitar decimales y hacer que el total sume 1.000). Por el
tipo de afijación uniforme, se escogerían aleatoriamente 100 alumnos de
cada subgrupo. Si no tuviésemos información de cursos anteriores para
nuestras variables de investigación, no tendría mucho sentido aplicar una
afijación óptima ya que, además, se considera igual de costoso acceder a
los/as alumnas/as de cualquiera de las categorías de estudios. Sin embargo,
y aunque la afijación uniforme asegura una n mínima suficiente en cada
estrato, podría ser aconsejable la afijación proporcional pero aumentar el
número de casos en las casillas con menos representación muestral en
detrimento de las que tienen más (se recuerda que hay autores que sitúan
en 50 el umbral para poder considerar la normalidad de los datos).

4.2.2. Tamaño muestral


Para un intervalo de confianza del 95%, y presuponiendo una
aproximación normal de los datos y que podemos ignorar el factor de
corrección para poblaciones finitas, el tamaño de la muestra para un error
e vendría dado por:
Observaciones
– Nunca debe haber menos de 2 unidades en la muestra por cada estrato.
– Cuanta menos información de partida tengamos sobre la población,
menor el número de estratos que debemos emplear.

4.3. Muestreo por conglomerados


En ocasiones, es difícil aplicar una MAS o un muestreo estratificado a
una población por cuestiones de tiempo, accesibilidad, etc. En el muestreo
por conglomerados, al igual que en el estratificado, se divide a la población
en subgrupos, pero en esta ocasión interesa que cada grupo
(conglomerado) sea en sí mismo lo más parecido a la población total de
estudio, lo más heterogéneo internamente posible y lo más similares entre
ellos (Azorín y Sánchez-Crespo, 1995; Martínez Martín, 2015).
Se selecciona una muestra aleatoria simple de todos los conglomerados y,
a menos que estemos ante un diseño polietápico, observamos/encuestamos
a todos los elementos de los conglomerados escogidos. Los bloques o
conglomerados serían las unidades primarias de muestreo y los
hogares/elementos incluidos finalmente en la muestra, unidades
secundarias de muestreo.
Este tipo de muestreo tiene la gran ventaja de que sirve para reducir los
costes derivados del trabajo de campo y el tiempo de ejecución del mismo,
pero en detrimento generalmente de la calidad de la muestra (los errores
suelen ser más elevados).
Se suele aplicar cuando hay dificultades en la elaboración/obtención del
marco muestral o cuando la población está muy dispersa geográficamente
o naturalmente agrupada (como, por ejemplo, en hogares o colegios).
El cálculo de los estimadores variará según se trate de un muestreo por
conglomerados de una sola etapa (todos los elementos de cada bloque se
incorporan a la muestra) o de dos o más etapas (en el de dos, por ejemplo,
se tomaría una MAS dentro de cada conglomerado seleccionado).
Por último, indicar que los conglomerados pueden tener tamaños iguales
o diferentes. En el cálculo de los intervalos de confianza y,
consecuentemente, de los márgenes de error y del tamaño de la muestra,
intervienen las inter-intra mean squares del análisis de la varianza
(ANOVA).
Figura 2. Diferencias entre el muestreo por conglomerados y el muestreo aleatorio
estratificado

Fuente: adaptado de Lohr (1999: 133).

Ejemplo. Considérese alguno de los últimos barómetros del CIS. Si se


observa la ficha técnica del mismo (a continuación se presenta la del
estudio 3138 de julio de 20175), se lee, en referencia al procedimiento de
muestreo: “Polietápico, estratificado por conglomerados, con selección de
las unidades primarias de muestreo (municipios) y de las unidades
secundarias (secciones) de forma aleatoria proporcional, y de las unidades
últimas (individuos) por rutas aleatorias y cuotas de sexo y edad. Los
estratos se han formado por el cruce de las 17 comunidades autónomas,
con el tamaño de hábitat, dividido en 7 categorías: menor o igual a 2.000
habitantes; de 2.001 a 10.000; de 10.001 a 50.000; de 50.001 a 100.000;
de 100.001 a 400.000; de 400.001 a 1.000.000, y más de 1.000.000 de
habitantes”. Anteriormente se indica que la afijación es proporcional y que
los puntos de muestreo son 253 municipios y 48 provincias.
Para el mismo, se establece que “para un nivel de confianza del 95,5%
(dos sigmas), y P = Q, el error real es de ±2,0% para el conjunto de la
muestra y en el supuesto de muestreo aleatorio simple”, teniendo en cuenta
que el universo es la población española de ambos sexos de 18 años y más
y que la muestra final obtenida es de 2.490 entrevistas.

4.4. Muestreo sistemático


Técnicamente el muestreo sistemático se puede considerar un caso
particular del muestreo por conglomerados, aunque si la población de
estudio está ordenada de forma aleatoria se asimilará al MAS. Podría ser
efectiva para situaciones en las que se producen flujos de personas
(ejemplo: peatones que pasan por una esquina).
Para obtener una muestra sistemática, se fija un tamaño muestral n. Sea k

el entero más próximo a . Se busca entonces un entero aleatorio R entre 1


y k, que determina las unidades escogidas para la muestra de la siguiente
manera:
R, R+k, R+2k, …, R+(n-1)k
Ejemplo: Para escoger una muestra de 45 alumnos de una lista de
45.000, el intervalo muestral será de k=1.000. Supongamos que el primer
número escogido al azar entre 1 y 1.000 es 567. Entonces los estudiantes
seleccionados serán: 567, 1.567, 2.567, …, 44.567.
Las muestras sistemáticas no dan lugar necesariamente a muestras
representativas (a menos que tengamos muy claro que la población está
ordenada de forma aleatoria). Supongamos una población con el mismo
número de chicos que de chicas, ordenados alternativamente
(chico/chica/chico/chica…). Entonces, dependiendo de que k sea par o
impar, saldrían siempre de un sexo o de ambos.
4.5. Problemas derivados de la no respuesta
No se puede obviar el efecto que la no respuesta puede tener sobre los
datos recogidos y, consecuentemente, sobre los resultados que se presenten
con posterioridad. No es indiferente el hecho de que las personas que no
respondan puedan coincidir en alguna característica. Para ello, lo
conveniente será comparar, en la medida de lo posible, cómo son las
personas que han contestado respecto de aquellas que no lo han hecho,
sobre todo en relación con aquellos aspectos de la investigación que se
puedan ver influidos por estas características.
La no respuesta, por tanto, puede ser de tipo aleatorio o puede estar
condicionada por alguna razón determinada que conduzca a un sesgo de
selección importante. Los valores perdidos asociados a la no respuesta son
completamente aleatorios si no dependen de la variable de interés ni de
ninguna otra variable estudiada en el conjunto de datos (ejemplo: si la no
respuesta en una pregunta sobre afiliación política no estuviese relacionada
con ninguna inclinación política en particular ni con ninguna otra variable
como el sexo, la clase social, etc.). Son simplemente aleatorios si no
dependen de la variable de interés, pero están condicionados por otras
variables del conjunto de datos (ejemplo: se podría imaginar que el nivel
adquisitivo tiene más valores perdidos entre hombres que entre mujeres
pero que, dentro de cada sexo, no están relacionados con el propio nivel
adquisitivo, no dejan de contestar más los que tienen mayores o menores
ingresos —situación alejada de la realidad, por otra parte—). Finalmente,
son no aleatorios si dependen de la propia variable medida (ejemplo: si las
personas que no responden sobre sus ingresos son las que tienen los niveles
adquisitivos en los extremos, los más altos o los más bajos).
Si los valores perdidos asociados con la no respuesta son de uno de los
dos primeros tipos, los problemas derivados no son especialmente
relevantes y se pueden imputar valores con alguno de los métodos clásicos.
Si, por el contrario, los valores perdidos son de la última clase, se deberían
realizar modelos estadísticos que permitan reponderar los resultados o
estimar la pauta subyacente (Lohr, 1999).
La no respuesta se puede dar a dos niveles. Por una parte, la producida
en preguntas que, por diferentes motivos, encuentran menor aceptación en
la encuesta. Por otra, la producida por el rechazo a participar en un
estudio (experimento, encuesta, etc.).
3
Se ha efectuado un salto metodológico desde el apartado anterior a este por limitaciones en la
extensión del capítulo y porque la finalidad del mismo no es tanto profundizar en la matemática
que justifica los pasos como en la aplicabilidad de los resultados. En cualquier caso, en la parte
obviada se explicaría cómo las funciones de distribución de los estadísticos muestrales, cuando n
es suficientemente grande (muchos autores sitúan el umbral mínimo en 20 casos, otros lo elevan
hasta 30 o 35 o incluso 50), se aproximan a una distribución normal. El lector puede acudir a la
bibliografía referenciada al final del capítulo para ampliar.
4
En realidad, los datos corresponden al curso 2010/11, según la Estadística de la Enseñanza
Universitaria en España (INE).
5
http://www.cis.es/cis/export/sites/default/-Archivos/Marginales/3180_3199/3183/FT3183.pdf.
5. MUESTREO NO PROBABILÍSTICO
En numerosas ocasiones no se puede llevar a cabo un muestreo
probabilístico por la ausencia de un marco muestral adecuado. En otras
ocasiones, no es prioritario porque la aproximación metodológica es
cualitativa, y se persigue la riqueza y el detalle de la información para
comprender e interpretar la realidad social, no su potencial para la
generalización cuantitativa, por lo que se trata de un muestreo tipológico.
Es entonces cuando se acude al muestreo no probabilístico, que no permite
calcular la probabilidad de selección de cada elemento de la población, con
lo cual tampoco se puede asignar un error a los estimadores obtenidos a
partir de la misma. Los tipos de muestreo no probabilístico más conocidos
son:

5.1. Muestreo por cuotas


Muchas muestras que aparecen como estratificadas, en realidad son
muestras por cuotas. Es común, de hecho, que se aplique el cálculo de
márgenes de error como si se tratara de una muestra probabilística. Se usa
porque en numerosas ocasiones no hay un marco muestral disponible,
aunque sí se cuenta con información general sobre la población de estudio.
Se emplea frecuentemente en los estudios de mercado. En el muestreo por
cuotas, la población se divide en diferentes subpoblaciones como en el
muestreo aleatorio estratificado, pero con una diferencia importante: no se
usa muestreo probabilístico para elegir a los individuos en cada
subpoblación de la muestra. En versiones extremas del muestreo por
cuotas, la elección de las unidades en la muestra se realiza a total
discreción del entrevistador, de manera que una muestra de conveniencia
se elige en cada subgrupo. Se utiliza sobre todo cuando el muestreo
aleatorio es difícil de realizar, excesivamente costoso o se considera
innecesario.
No podemos saber, por tanto, si existe sesgo en la elección de las
unidades. De todas formas, la calidad de la muestra se puede mejorar
intentando que los entrevistadores elijan de la manera más ‘aleatoria’
posible a las personas u hogares a incluir en la muestra.
Ejemplo: Para una investigación se requiere que una mitad de las
entrevistas se realice a los hombres, y la otra, a las mujeres. Además, se
requiere que, de cada subgrupo, haya un tercio de autóctonos, un tercio de
personas de la Europa comunitaria y otro tercio de personas de cualquier
otra procedencia. El entrevistador podría optar por dirigirse a una
urbanización de la costa con elevada presencia de población británica y
alemana, o a una asociación de inmigrantes latinoamericanos, decisión que
muy posiblemente derivaría posteriormente en estimadores sesgados (las
personas escogidas no serían representativas de los colectivos a analizar).
Es aconsejable, en definitiva, que el equipo de investigación diversifique
las vías para contactar a los informantes si se pretende una recogida de
información pseudo-representativa. Si el enfoque metodológico es
cuantitativo, la representatividad de la muestra se tendrá que comprobar
en cierta medida a través de los modelos estadísticos que se le aplique,
siempre y cuando los datos verifiquen las especificaciones de los mismos.

5.2. Muestreo de bola de nieve


El muestreo de bola de nieve se basa en la premisa de que los miembros
de poblaciones raras (difíciles de localizar) se conocen unos a otros. Para
obtener una muestra de personas sin hogar, por ejemplo, se comenzaría
por contactar con algunas de ellas. Se le tendría que pedir a cada una que
identificara a otras personas en las mismas circunstancias para ampliar la
muestra, entonces el entrevistador se dirigiría a estos nuevos contactos y se
aplicaría el mismo procedimiento (preguntarles si pueden facilitar acceso a
nuevos individuos), etc., hasta que se completara una muestra del tamaño
deseado. Este tipo de muestreo permite lograr una muestra razonablemente
grande de una población inusual. Lo relevante, si se desea obtener cierta
representatividad, sería diversificar en lo posible las vías de contacto en la
primera fase.

5.3. Muestreo de conveniencia


Se intenta elegir a los individuos que se consideran más representativos de
la población en su conjunto y que sean de fácil acceso. Por ejemplo, se
quiere saber cuántas personas entran a una determinada tienda en un año
seleccionando aquellas que acuden durante algunos días “típicos”. En este
tipo de muestreo no se puede hacer ninguna aproximación matemática a la
fiabilidad de los resultados estimados. Algunos autores incluyen este tipo,
junto al anterior, dentro de la categoría de muestreo opinático (Ruiz
Olabuénaga, 2012).

5.4. Muestreo teórico o intencional


De carácter marcadamente cualitativo, se emplea para generar teorías o
progresar en la comprensión de significados, que se van desarrollando a
medida que se recogen y analizan los datos y estos van dirigiendo las
nuevas vías de profundización y búsqueda. En este tipo de método es muy
importante el concepto de nivel de saturación, cuando los discursos
empiezan a reiterarse y se puede considerar que nuevas entrevistas, grupos
de discusión o más tiempo de observación en el campo no conducirá a
avances sustantivos en la información ya obtenida. La cantidad queda, por
tanto, definida por la saturación, y la calidad por la riqueza de la
información (Ruiz Olabuénaga, 2012).
En la investigación cualitativa, las estrategias de selección de casos
pueden variar a lo largo del proceso del trabajo de campo, que es mucho
más flexible que el empleado desde la metodología más cuantitativa. No
obstante, es importante partir con un diseño muestral, aunque se admita de
antemano su provisionalidad.
Aunque no haya reglas fijas, es conveniente tener en cuenta las diferentes
perspectivas en la selección de informantes, que a veces sigue en una lógica
secuencial y que ponen el acento en el estudio de la variabilidad de
opiniones, comportamientos y experiencias (Palinkas et al., 2015; Ruiz
Olabuénaga, 2012):
– Muestreo de casos extremos: para ilustrar lo inusual o atípico.
– Muestreo de intensidad: se pone también el énfasis en el estudio de las
variaciones, pero con menor interés por los casos más extremos.
– Muestreo de variedad máxima: se buscan las pautas comunes que
atraviesan casos diversos, la significación de la heterogeneidad.
– Muestreo de casos críticos: permite la generalización lógica y la
máxima aplicabilidad, ya que se seleccionan los casos más significativos
para la comprensión de otros casos.
– Muestreo de casos confirmadores y desconfirmadores: los casos
confirmadores constituyen ejemplos adicionales que encajan en las
pautas emergentes identificadas y añaden riqueza y credibilidad; los
casos desconfirmadores ayudan a poner límites a los hallazgos
confirmados y actúan como fuentes de interpretaciones alternativas.
La diferencia fundamental entre el muestreo cualitativo y el cuantitativo
es que el primero se orienta hacia la búsqueda de la saturación. En cambio,
en el segundo la utilidad radica en lo generalizable que sea la información,
su representatividad estadística, la opción de inferir, de un subconjunto, a
toda una población. En consecuencia, el tamaño de la muestra suele ser
muy superior en el caso del muestreo cuantitativo. La idoneidad de cada
aproximación metodológica dependerá de los objetivos de la investigación
y de los medios de los que se disponga. En cualquier caso, ambos enfoques
intentan maximizar la eficiencia y validez.
6. CONSEJOS PARA HACER UNA MUESTRA PARA EL
TFG/TFM
Trabajar con datos primarios es sin duda atractivo para el estudiante que
va a abordar su TFG/TFM, pero añade gran complejidad a su
investigación. Hay que tener muy presente que existen a disposición del
público general sobradas y fiables bases de datos relacionadas con
múltiples ámbitos de las Ciencias Sociales y que se puede optar por
explotar alguna de esas fuentes de datos secundarios. Sin embargo, si el
estudiante decide emprender la recogida de información propia, debe
diseñar una muestra coherente con el tipo de herramienta que emplee para
tal fin (encuesta online, encuesta cara a cara, entrevistas en profundidad,
etc.). Dadas las múltiples limitaciones a las que se enfrentará, hay dos
consejos que pueden resultar útiles, en aras a la representatividad, si no se
puede obtener una muestra probabilística: 1) emplear un muestreo por
cuotas (práctico tanto para la aproximación metodológica cuantitativa
como la cualitativa), para lo cual será conveniente contar con algún marco
de referencia de partida a partir de las estadísticas oficiales (de población,
de ingresos hospitalarios, de alumnado universitario, etc.); 2) diversificar,
en la medida, de lo posible, la forma de acceder a los informantes.
7. BIBLIOGRAFÍA
Azorín, F. y Sánchez-Crespo, J. L. (1995). Métodos y aplicaciones del muestreo. Madrid: Alianza
Editorial.
Levy, P. S. y Lemeshow, S. (2008). Sampling of Populations. Methods and Applications. New
Jersey: John Wiley & Sons, Inc.
Lohr, S. L. (1999). Sampling: Design and Analysis. Duxbury Press. [cit. Lohr, S. L. (2000).
Muestreo: diseño y análisis. México: International Thomson Ed.]
Martínez Martín, V. C. (2015). “El muestreo aplicado”. En: M. García Ferrando, F. Alvira, L. E.
Alonso y M. Escobar (coords.). El análisis de la realidad social: métodos y técnicas de
investigación. Madrid: Alianza, pp. 237-269.
Palinkas, L. A.; Hhorwitz, S. M.; Green, C. A.; Wisdom, J. P.; Duan, N. y Hoagwook, K. (2015).
Purposeful sampling for qualitative data collection and analysis in mixed method implementation
research. Administration and Policy in Mental Health, 42(5): 533-544.
Rodríguez Osuna, J. (1993). Métodos de Muestreo. Casos Prácticos. Madrid: Centro de
Investigaciones Sociológicas.
Rooney, A. (2009). The Story of Mathematics. Londres: Arcturus.
Ruiz Olabuénaga, J. I. (2012). Metodología de la investigación cualitativa. Bilbao: Universidad de
Deusto.
Thompson, S. K. (2012). Sampling. New Jersey: John Wiley & Sons, Inc.
Capítulo 9
PRINCIPALES TÉCNICAS DE OBTENCIÓN DE
DATOS EN CIENCIAS SOCIALES
Gonzalo Herranz de Rafael
Universidad de Málaga y Universidad de Almería

1. INTRODUCCIÓN
La meta de cualquier ciencia es establecer los hechos de una situación y
por qué estos son como son. Los hechos son indagados a través de la
investigación, y son explicados por medio de la teoría científica. Ambos
están entrelazados.
Para llegar a saber lo que acontece realmente en la realidad social, los
sociólogos aplican el método científico, que no es otra cosa, que el
procedimiento general de actuación seguido en el conocimiento científico.
En términos generales, cuatro son los medios que utilizan los científicos
sociales para investigar la compleja realidad social: la observación, la
experimentación, la comparación y el método histórico. Cada uno de ellos
es importante y tiene sus propias técnicas que veremos a lo largo de este
capítulo.
La Sociología, al ser una ciencia empírica, es decir, que su objeto de
conocimiento es la realidad social, utiliza el método científico en sus
diferentes fases, que son en términos generales: la observación de la
realidad; la formulación de hipótesis y la verificación o refutación de
dichas hipótesis.
En este apartado, el objetivo es contextualizar el primer paso: qué tipo de
técnicas utiliza el sociólogo para observar la realidad empírica, es decir,
cómo saca los datos de esa realidad, para posteriormente analizarlos, que
sería un paso posterior de la investigación o trabajo sociológico.
Gran parte del éxito de hacer un buen trabajo o investigación en las
ciencias sociales en general, y en el ámbito de la sociología en particular, es
saber elegir los métodos de observación adecuados para cada tipo de
hechos sociales, problemas sociales o en general, realidades sociales. Y este
es el contenido del siguiente apartado.
2. LA ELECCIÓN DE LAS TÉCNICAS MÁS ADECUADAS Y
SU VINCULACIÓN CON LOS OBJETIVOS DE LA
INVESTIGACIÓN: UN PLANTEAMIENTO REALISTA
Aunque es cierto que, como dice García Ferrando (2014), apenas existen
crónicas de investigación social que resuman el modo en que aparecen los
problemas sociales, la forma de acercarse a los datos que se van a analizar,
las técnicas empleadas en su manipulación y su incidencia en el marco
teórico-conceptual empleado (García Ferrando, 2014: 71), lo cierto es que
el éxito del trabajo o investigación depende en gran medida de ello, y en
especial de las técnicas de observación que se elijan. Unos ejemplos
clarificadores y pioneros, sobre trabajos de Sociología empírica, los
tenemos en las investigaciones llevadas a cabo tanto por Fréderic Le Play
(1855) en el siglo XIX, en su estudio sobre las condiciones de los obreros
europeos y los presupuestos familiares, donde combinó la observación
participante con la encuesta, como por W.I. Thomas y F. Znaniecki
(1927), en el periodo de entreguerras, sobre el campesino polaco y las
formas de integración en la sociedad norteamericana, donde los autores
utilizaron una gran cantidad de fuentes de datos, con mucha dificultad,
como fueron: colecciones de cartas, archivos de periódicos, historias
parroquiales, documentos sobre ONG de ayuda a los inmigrantes,
biografías, etc.
Estas pioneras investigaciones, nos indican que cuanto más diversificadas
sean las fuentes de datos que utilicemos en los trabajos o investigaciones,
mayor riqueza descriptiva y explicativa se logrará. En efecto, la
complejidad de los fenómenos sociales determina que el material con el que
se cuenta para su análisis sea muy diverso, y un hecho social puede
derivarse de diversas fuentes: desde el análisis de contenido de unos
documentos personales, hasta la observación directa de la conducta de los
individuos, pasando por las respuestas procedentes de una entrevista más o
menos estructurada, procedentes de encuestas o historias de vida. Otro
ejemplo, también clásico, sobre utilización de diferentes fuentes de
observación, fue el estudio del matrimonio Lynd (1929) de la ciudad
norteamericana de Middletown, donde se describe objetivamente la vida
cotidiana de sus habitantes.
No obstante, no ha sido la constante en los estudios sociológicos la
pluriutilización de técnicas de observación, como en los ejemplos previos.
Los trabajos de Brown y Gilmartin y de Phillips (1969) sobre las fuentes de
obtención de datos en la observación en las dos revistas más importantes
norteamericanas, demostraron, ya en los años setenta, que la mayoría de
investigaciones, más del noventa por ciento, habían utilizado datos
primarios procedentes de encuestas o entrevistas, pasando a un segundo
plano otras técnicas, como las historias de vida, la observación
participante, el análisis de contenido o los documentos personales, técnicas
que más adelante concretaremos.
Sin embargo, lo que está claro es que, dependiendo qué estudio o
investigación llevemos a cabo, las técnicas de observación deben tender a
ser complementarias, y solamente los objetivos de la investigación, y los
medios disponibles para alcanzarlos, deben determinar la técnica de
observación apropiada. Por ejemplo, si queremos saber el nivel de
xenofobia que hay en una determinada zona geográfica, donde existe una
alta densidad de inmigrantes, en este caso, a nivel provincial, al ser un
universo muy amplio (mucha población), la técnica de observación más
adecuada sería la encuesta. Si por el contrario, queremos saber, partiendo
de la hipótesis, si la información sobre los efectos perniciosos sobre el
consumo de drogas influye en la aceptación de los jóvenes en su consumo,
la técnica de observación más adecuada sería el experimento, ya que se
trabajaría con grupos reducidos de jóvenes, por ejemplo, un aula
universitaria.
Por último, existen diferentes maneras de hacer tipologías de las
diferentes técnicas de observación. Desde las más clásicas, como la
elaborada por Galtung (1966), donde establecía seis: observación de la
conducta; experimento; informes técnicos; análisis de fuentes
documentales; entrevistas y cuestionarios, a las más generalistas o
escolares, como la propuesta por Gelles y Levine (1996): la encuesta; el
estudio de campo; la experimentación; el estudio transcultural y el estudio
histórico. Nosotros hemos elaborado una más, donde se combinan tanto
las más simples, como la directa, a la documental, pasando por las
indirectas, ya sean estas cualitativas o cuantitativas, a las más recientes
como el método Delphi, como veremos a continuación. En cada una de
ellas se incluirán, tanto un estudio clásico, como una referencia
bibliográfica en español para aquellos que quieran una mayor información
pormenorizada de las mismas.
3. LAS PRINCIPALES TÉCNICAS DE INVESTIGACIÓN:
UNA FORMA DE CLASIFICACIÓN
3.1. Observación directa simple
Es la que se produce por medio de los sentidos, tanto de hechos como de
realidades sociales actuales. Si los acontecimientos se producen
espontáneamente y de forma natural, estaríamos en la observación directa
simple, y la utilización de medios técnicos sería aleatoria o circunstancial.
Un ejemplo sería un reportaje periodístico actual, o el estudio en un aula
de educación primaria de la interacción de los niños para ver la existencia
de liderazgo entre ellos. También se utiliza en la fase previa de una
investigación de tipo descriptivo o explicativo. Contamos lo que estamos
viendo o viviendo para que otros posteriormente, bien describan esos
fenómenos sociales en conjunto de forma descriptiva, como una
manifestación pública, o bien intenten explicarla, mediante la
comprobación de determinadas hipótesis, previamente formuladas.
En definitiva, es un procedimiento de observación que se basa en lo
percibido por los sentidos del investigador, aspecto que podemos instituir
como una de las grandes ventajas de este tipo de observación: la intuición y
la percepción.
Su procedimiento es el siguiente: 1. El investigador debe estar presente en
el mismo ambiente de las personas analizadas y adaptarse al mismo. 2.
Contemplar el desarrollo normal de los acontecimientos. 3. Registrar, por
cualquier medio, lo percibido. 4. Interpretar lo observado, y redactar, bien
un relato o informe.
Un ejemplo pionero lo tenemos en la investigación de Bruce Brown
(1979), cuyo objetivo fue analizar a padres de diferentes clases sociales
cómo reprendían a sus hijos en un lugar público como es un centro
comercial.
Los límites o inconvenientes que presenta este tipo de observación,
siguiendo a Sierra Bravo (1985: 209) serían las siguientes:
– La limitación de los sentidos humanos en relación a la complejidad y
amplitud de los fenómenos sociales.
– La dificultad de captar en profundidad las relaciones sociales.
– Los frecuentes errores de percepción difícilmente evitables en la
investigación.
– La neutralidad del observador, al ser parte de la sociedad.

3.2. Observación indirecta: técnicas cualitativas


La observación cualitativa en general la podemos entender como el
estudio de los hechos sociales o realidades sociales en su contexto más
natural, en la forma como suceden, interpretándolos de acuerdo a como lo
cuentan (lenguaje o escritos), viven (conducta), entienden (percepción) o
interpretan (opinan) las personas implicadas.
De una forma más descriptiva, podríamos decir que las investigaciones
cualitativas, en general, lo que pretenden es llegar a comprender las
complejas interrelaciones sociales que se dan en la realidad.

3.2.1. Técnicas biográficas: Relatos de vida, Historias de vida y Biogramas


El método biográfico consiste en el testimonio subjetivo de una persona,
famosa o no, es decir, con o sin trascendencia social, en la que se recogen
los acontecimientos, así como las valoraciones que esa persona hace de su
vida.
Los relatos de vida, son historias de una vida tal y como la persona la
relata. Un ejemplo es el libro Las cenizas de Ángela, que narra la vida de
Frank Mc Court (1999) y su familia en Irlanda. Es una historia desde la
infancia hasta que el protagonista logra emigrar a los Estados Unidos.
Las historias de vida, es el estudio de un caso referido a una persona
concreta, donde se incluye, no solamente el relato de vida, sino también
entrevistas sucesivas por parte del investigador, así como otros tipos de
documentos e informes que permitan una reconstrucción exhaustiva y
objetiva de su vida. Una investigación típica y clásica es la llevado a cabo
por Suthertland (1988) sobre los ladrones profesionales en el Chicago de
los años treinta o la ya citada de W.I. Thomas y F. Znaniecki (1927), El
campesino polaco, donde se incluye una historia de vida de un inmigrante
polaco en los Estados Unidos. En general, muchas de las obras que se
elaboraron en torno a la Escuela de Chicago forman parte de este legado
de historias de vida, entre otros tipos de observación, de forma especial, las
de Shaw y McKay, Delinquency Areas (1929) y Juvenile Delinquency and
Urban Areas (1942).
Otro método más minoritario es el biograma, que son registros
biográficos más escuetos que los relatos de vida o historias de vida, y que
suponen, previa solicitud del investigador, la recopilación de una amplia
muestra de biografías personales que han participado en experiencias
similares, a efectos de realizar un análisis comparativo. Por ejemplo, los
alumnos/as en prácticas construirán su biograma, desde el primer contacto
con el periodo de prácticas hasta la finalización de la asignatura. Será una
manera de constatar sus vivencias a lo largo de esta experiencia pre-
profesional. Entre las obras clásicas estaría la del historiador alemán,
Ronald Fraser, Hablan los trabajadores (1970), una selección de
experiencias personales de trabajadores británicos publicada originalmente
en New Left Review.
En términos generales, la ventaja del método biográfico es la gran
cantidad de documentos con el que puede trabajar el investigador, y la
amplia información con la que cuenta, como los diarios personales,
correspondencia, objetos personales, videos, fotos etc. En sentido
contrario, estarían los problemas de control de autenticidad y veracidad de
los documentos y, sobre todo, la gran laboriosidad que requiere, y por lo
tanto, el tiempo necesario para llevarla a cabo con garantías. (Véase:
Pujadas, 1992 y De Miguel, 1996).

3.2.2. Observación participante


Son estudios de campo donde el investigador se mezcla conviviendo con
el grupo observado, que utilizan la observación directa de forma
sistemática y lo que pretenden percibir es su conducta social. Además de
convivir, va anotando en su cuaderno de campo todo lo observado, y
además, utiliza otras técnicas de análisis, como las entrevistas en
profundidad. Si el trabajo se prolonga mucho en el tiempo, se refieren a
estudios antropológicos o etnográficos.
En efecto, la mayoría de estas investigaciones se iniciaron en el ámbito de
la antropología o la etnografía, y se centraban en tres principios:
participación, observación e interrogación. La primera obra que aplicó esta
técnica es la del antropólogo polaco de nacimiento B.K. Malinowski, en su
obra Los argonautas del Pacífico Occidental (1922), aunque
posteriormente fueron otras muchas, entre las que podríamos citar,
también por su clasicismo, la de Margaret Mead, Adolescencia, sexo y
cultura en Samoa (1928). Más cercano en el tiempo, es el trabajo de Oscar
Lewis (1964), Los Hijos de Sánchez, donde se describe la vida cotidiana,
las costumbres y los valores de una familia mexicana que vive en Tepito,
en la Ciudad de México, en los años 40, obra que fue llevada al cine por el
director Hall Bartlett en 1978, con actor protagonista Anthony Quinn.
En el ámbito de la Sociología, los pioneros en aplicar este método fueron
los integrantes de la Escuela de Chicago desde 1910 a 1940. Lindeman en
su obra Social Discovery (1924) ya indicaba la importancia de este
procedimiento de observación en sociología: “la observación participante
—realizada desde dentro— como distinta de la observación objetiva —
realizada desde fuera— es un método de investigación sociológico superior
a ningún otro. Si se desea conocer lo que hace realmente una persona,
obsérvele, no le pregunte” (Lindeman, 1924: 182-183 cif. García Ferrando,
2014: 77).
Dentro de esta Escuela, destacan los estudios, sobre todo, de Sociología
Urbana, Ecología y de grupos desviados. Ejemplos hay muchos, pero por
citar algunos de los más importantes, estarían los de Robert E. Park
(1925), sobre la vida y cultura urbana, o los de W.F. White (1955) sobre la
estructura social de un barrio bajo italiano.
Las ventajas que aporta esta técnica es que permite estudiar a la gente en
su entorno natural, por lo que se considera la mejor forma de recoger
datos sobre la interacción social.
En sentido contrario, las limitaciones se enfocan al mucho tiempo
requerido para llevarlas a cabo, así como una cierta imposibilidad de
aplicar técnicas cuantitativas. Además, estos trabajos solamente pueden
observar una pequeña muestra de las conductas, por lo que es difícil su
generalización. (Véase: Guasch, 1998; García Jorbán, 2000).

3.2.3. Entrevistas en profundidad o semi-estructuradas


Se pueden definir como un procedimiento metódico mediante el cual el
entrevistador obtiene información detallada del entrevistado o informante
sobre determinados problemas sociales a través de preguntas
intencionadas.
En este tipo de técnica lo que se persigue es que el investigador
profundice en las ideas, opiniones, creencias, actitudes y conductas
mantenidas por los entrevistados o informantes, es decir, lo importante son
sus explicaciones sobre su propias experiencias, ya sean estas laborales,
familiares, organizativas, institucionales o delictivas, entre otras.
Los procedimientos que han de llevarse a cabo para la aplicación de este
tipo de observación son tres: antes, durante y después de la entrevista.
En la etapa pre-entrevista hay que tener muy claro el objeto de
investigación y la hipótesis a verificar. Seguidamente se procede a la
elección de la muestra teórica, es decir, la elección de los informantes clave
que participan en la entrevista. Posteriormente se elabora una guía de la
entrevista, con preguntas abiertas, referidas al objeto de investigación.
En la fase de la entrevista, se realizan las preguntas contenidas en la guía,
a todos los informantes por igual, y se graban para su posterior
transcripción.
Los tipos de preguntas son de diferente naturaleza, siendo las más
comunes las demográficas y biográficas; sensoriales (oído, olfato, gusto);
las derivadas de la experiencia; conductuales; emocionales y las
relacionadas con el conocimiento, la opinión y los valores.
Por último, después de la entrevista, los datos obtenidos se incorporan a
un software tipo Nudis1, que posibilite su análisis.
Muchas investigaciones a lo largo del tiempo se han llevado a cabo a
través de esta técnica. La más clásica y pionera fue la realizada por Elton
Mayo en 1933, donde se realizaron entrevistas para conocer el rendimiento
productivo de los trabajadores industriales en Hawthorne en la Western
Electric en Norteamérica. Curiosamente, en esta investigación empezaron
con preguntas estructuradas a los trabajadores (cuestionarios), y al final se
dieron cuenta que conseguían más información cambiando al modelo no
estructurado. Además, se da la circunstancia de que es la primera
investigación donde los investigadores empezaron a aplicar otra técnica de
observación: el análisis de contenido, que veremos más adelante, como
consecuencia de la gran cantidad de información acumulada en las muchas
entrevistas realizadas, unas 1.600.
Un ejemplo, sería que quisiéramos probar la hipótesis de que la
estructura social determina la carrera delictiva. A continuación elegimos un
tipo de delincuente, en este caso, el ya condenado. Elegimos un centro
penitenciario, elegimos diez informantes claves, con tipos de delitos
diferenciados y los entrevistamos. Elaboramos previamente una guía de la
entrevista con preguntas abiertas donde consten nueve temas principales:
infancia y relaciones familiares, estructura y relaciones familiares adultas,
hábitat y relaciones espaciales, relaciones de amistad, trabajo y desempleo,
estudios, sistemas de valores predominantes, pensamiento y actitudes ante
la igualdad de oportunidades y motivos y circunstancia de la estancia
carcelaria. Grabamos las entrevistas, las transcribimos y analizamos los
datos para verificar o refutar la hipótesis.
La ventaja que tiene este tipo de procedimiento es que logra una mayor y
mejor comprensión de las condiciones psicológicas y ambientales de los
informantes, así como de sus intenciones y disposiciones a las cuestiones
planteadas. Además, posibilita, en mayor medida que otras métodos, una
información más profunda sobre aspectos comprometidos de la vida
cotidiana de los informantes. Por último, tienen un coste bajo, en relación
con otras técnicas.
Las limitaciones se centran, sobre todo, en la imposibilidad de generalizar
los datos, es decir, de poder extrapolarlos a un conjunto más amplio que a
los sujetos investigados. (Véase: Valles, 2014).

3.2.4. Grupos de discusión y el grupo focal


Aunque introduzcamos los grupos de discusión y al grupo focal (focus
group) en el mismo apartado, no son lo mismo.
El primero se desarrolla en España a partir de la obra de Jesús Ibáñez
(1979) y otros entre los años sesenta y ochenta. Mientras que el segundo,
es de tradición norteamericana, cuyo principal exponente, en el ámbito de
la Sociología, fue R. K. Merton (1956). No obstante, tienen características
comunes, como se exponen a continuación.
Como su nombre indica, son grupos de individuos seleccionados
estratégicamente por el investigador en torno a un tema de interés social,
propuesto por el investigador, donde se pretende captar los valores,
creencias, costumbres, actitudes, expectativas, temores, etc. dominantes en
el perfil social del grupo.
El investigador, o moderador, establece una guía que sirve para guiar el
discurso hacia los objetivos de la investigación.
El experto o moderador presenta el tema, es decir, lo enfoca, haciendo
preguntas, planteando situaciones hipotéticas, etc, pero sin especificar el
marco: los miembros del grupo establecen las líneas de discusión,
respuesta, orden de intervención, etc.
Las reuniones son grabadas, tanto en audio como en video, previo
permiso de los integrantes del grupo.
El análisis se realiza a partir de las transcripciones, tanto de audio como
de video, de las reuniones y debates. El tratamiento de los datos es igual
que en las entrevistas en profundidad, con software tipo Nudis. El rastreo
del video posibilita la observación de conductas no verbales, como gestos,
movimientos, interacciones, etc.
El número ideal de participantes es de entre cuatro y diez miembros. No
obstante varía, en relación al tipo y características según el tipo de datos
que queramos conocer. Para aquellos de tipo personal o conflictivo, los
grupos deben ser más reducidos, en torno a cuatro o cinco personas.
El perfil del participante es elegido intuitivamente por el investigador,
dependiendo del objetivo del estudio.
Como decíamos más arriba, también existen diferencias entre el grupo de
discusión y el grupo focal, aunque escasas.
Las principales se refieren al diseño de la investigación y en relación a la
intervención de los moderadores. Respecto a la primera, los grupos de
discusión parten de diversas reuniones previas, y la muestra de los grupos
tiene que tener una estructura interna que refleje las principales
discrepancias entre ellos respecto al objeto de análisis. Para los grupos
focales, la muestra del grupo no es una cuestión principal. En relación a la
segunda, la participación del moderador en los grupos focales es mayor
que en los de discusión, ya que estos se interpretan como más abiertos.
Por otra parte, comentar que el uso inicial más característico de este tipo
de observación, ha sido en el ámbito del marketing, para evaluar e intentar
mejorar los productos.
No obstante, se han utilizado en otros tipos de investigaciones más
sociológicas, como ya se ha comentado. Un ejemplo sería, analizar los
motivos que inducen a determinados agricultores propietarios de
invernaderos a llevar sus productos bien a alhóndigas (empresas
comercializadoras) o a cooperativas.
Las ventajas que reporta este tipo de observación son coincidentes, en
algunos aspectos, con las entrevistas en profundidad: tienen un coste bajo,
diversifican los puntos de vista de un problema social, permite determinada
información que no podemos encontrar por otro medio y es
complementaria para explicar problemas sociales cuya estructura principal
ha sido observada a través de técnicas cuantitativas, como por ejemplo, las
encuestas.
Las desventajas se centran en la no posibilidad de extrapolación de los
datos, así como en las interferencias ambientales que pudieran producirse
en la obtención de los datos. Además, el entrevistador tiene escaso control
sobre el grupo y en ocasiones puede perder tiempo en conversaciones de
poca trascendencia. (Véase: Gutiérrez Brito, 2014).

3.2.5. Otras técnicas menos utilizadas: los estudios transculturales y los


estudios históricos
Los estudios transculturales son investigaciones sociológicas
comparativas, de dos grupos diferenciados por su cultura y estilos de vida.
Se sitúan normalmente en el ámbito de la cultura inmaterial, como
creencias, valores, normas, costumbres y conductas.
El objetivo de este tipo de investigación es comprender qué modelos de
vida social son universales culturales, comunes a todos los pueblos y
sociedades existentes.
Un ejemplo típico y clásico de este tipo de indagaciones fue el realizado
por Rebecca Morley (1994) en Papúa Nueva Guinea, sobre la violencia de
género y la modernización. Llegó a la conclusión de que el maltrato no es
un fenómeno solamente occidental, es decir, relacionado con la
modernización.
Otro trabajo, también clásico, es el realizado por Ernest Gellner (1994)
como modelo multicultural, donde afirma que el método científico es
transcultural al no tener obligación con ninguna cultura, y por este motivo,
no existen verdades absolutas ni apriorísticas en este ámbito y todo hecho
debe ser analizado.
Las ventajas de este método es que posibilita hallar universales culturales
en todas las culturas, además de delimitar tanto el etnocentrismo (creer que
la cultura propia es superior) como el etnocentrismo invertido (creer que
nuestra cultura o sociedad es peor que las otras).
Los límites estarían en los significados de las conductas, ya que éstas
varían según las culturas, así como en la traducción de los conceptos,
cuando se aplican en las entrevistas o cuestionarios.
Los estudios históricos se basan en la observación del pasado a través
fuentes documentales para buscar y determinar cuándo y por qué han
sucedido los hechos y los cambios experimentados en el tiempo.
Un ejemplo de este tipo de examen histórico es el llevado a cabo por el
matrimonio Dobash (1998), quienes llegaron a la conclusión de que la
violencia de género es una extensión del patriarcalismo en toda época
histórica, a través de las costumbres y leyes que se han ido estableciendo.
La parte positiva de este tipo de análisis es que permite hacer estudios de
tipo longitudinal, a lo largo del tiempo, mientras que su limitación está en
que muchas veces los datos con los que contamos se han recogido para
otros propósitos distintos al nuestro. (Véase: Bernardi, 2006).

3.3. Observación indirecta: técnicas cuantitativas


La observación cuantitativa la podemos entender como el estudio de las
causas de los hechos o realidades sociales a los que se les busca una
explicación, aplicando el método hipotético deductivo.
De una forma más explícita, las investigaciones cuantitativas pretenden
explicar las causas y sus efectos de los fenómenos o problemas sociales.

3.3.1. La encuesta y sus tipos


La encuesta la podemos definir como un tipo de observación que consiste
en obtener datos primarios, de interés sociológico, mediante la
interrogación a los miembros de una sociedad o una muestra de ella.
Es el mejor medio de análisis para saber o controlar los patrones de
conductas de una gran población, como es por ejemplo, las encuestas
realizadas para medir las opiniones políticas.
La primera investigación mediante encuesta la realizó Samuel Stouffler
(1949) en su estudio de psicología social de los soldados norteamericanos
en la Segunda Guerra Mundial. Fue un trabajo ingente, que duró cinco
años, cuyo objetivo era medir las actitudes de los soldados durante la Gran
Guerra, como por ejemplo, las de integración racial.
Realizó más de medio millón de entrevistas a soldados norteamericanos,
con técnicas de muestreo que oscilaron entre trescientos y doce mil
soldados. Dado el alcance de la investigación, fue también el primero que
utilizó el cuestionario auto-administrado, cuyas características veremos
más adelante.
Las características más significativas de la encuesta las podemos resumir
de la forma siguiente siguiendo a Sierra Bravo (1985: 263):
a. Consiste en la observación no directa de los hechos, como sucede en la
observación simple, sino a través de las manifestaciones realizadas por
los encuestados.
b. Es un método de observación de datos preparado especialmente para
la investigación sociológica, a diferencia de la documental, en la que se
utilizan con fines sociológicos datos y hechos recogidos de antemano y
con otros fines.
c. Permite, frente al carácter particular, propio de la observación simple o
experimental, una ampliación masiva que mediante los sistemas de
muestreo puede extenderse a comunidades nacionales o internacionales
enteras sobre un amplio abanico de cuestiones y aspectos.
d. Hace posible que la investigación social se extienda a aspectos
subjetivos de los miembros de una sociedad.
Ejemplo. Los barómetros del CIS, que con periodicidad mensual rastrean
la opinión de los españoles en cuestiones como las situaciones económicas
y políticas, electoral, ideológica o sobre las percepciones sobre los
principales problemas del país.

3.3.1.1. Cuestionarios
El instrumento de observación básico mediante encuesta es el
cuestionario.
Lo podemos definir, sucintamente, como un conjunto de preguntas, sobre
el conjunto de hechos o problemas sociales de interés para la investigación,
para su contestación por parte de la población o su muestra.
La finalidad del cuestionario es obtener de una forma sistemática y
ordenada, la información de la población o su muestra sobre las diferentes
variables objeto de investigación. Y estas variables están referidas,
normalmente, a lo que las personas investigadas hacen, opinan, esperan,
quieren, sienten, aprueban, desaprueban, los motivos de sus actos, de sus
conductas y actitudes. Estas variables se pueden agrupar de muchas
formas, siendo la más clásica en tres niveles: hechos, opiniones y actitudes.

3.3.1.1.1. Tipos de cuestionarios


Existen cuatro tipos de cuestionarios: el simple o autoadministrado, la
entrevista cara a cara, las escalas sociométricas y el telefónico.
El cuestionario simple, o autocumplimentado, es aquel que es contestado
por los encuestados, por escrito, leído previamente, sin intermediación por
parte del investigador. Este puede ser enviado por correo normal o correo
electrónico para su cumplimentación y devuelto por el encuestado en el
tiempo establecido por el investigador. Hay una variación a este tipo, que
consiste en la contestación individual al cuestionario por parte de los
encuestados reunidos en un mismo lugar a instancias del investigador.
Las ventajas que tienen este tipo de aplicación del cuestionario
autoadministrado o cumplimentado, son que son más económicos, fáciles
de aplicar y las respuestas se interpretan como más reflexivas. En sentido
contrario, los inconvenientes son que existe una alta mortandad muestral,
es decir, la tasa de respuesta es normalmente baja, en segundo lugar, no
existe una seguridad plena de quién responde realmente a la encuesta.
En relación a las ventajas de la encuestas autoadministradas o
autocumplimentadas en grupo, son que suelen conseguir altas tasas de
cooperación y que existe la posibilidad de explicar los objetivos del estudio
y de aclarar las dudas de los encuestados. Además, implican un coste
económico bajo.
El inconveniente de la encuesta autoadministrada en grupo es la
dificultad de obtener muestras representativas mediante este
procedimiento.
En las entrevistas cara a cara, el cuestionario es aplicado a los
entrevistados por personas previamente entrenadas para este fin, quienes
hacen las preguntas y anotan las respuestas.
Las ventajas de este tipo de entrevistas es que tienen una alta tasa de
respuestas, el control del encuestado es total, tanto en la persona como en
cómo responde a las preguntas, así como la posibilidad de incluir
preguntas complejas en el cuestionario.
Los límites se asocian al alto coste que requiere, así como el tiempo que
se ha de dedicar al entrenamiento y formación de los encuestadores.
Las escalas sociométricas son una forma especial de cuestionarios que se
caracterizan por que las preguntas tienen atribuidas un valor numérico, y
miden, normalmente, las actitudes de los sujetos investigados. Sus tipos y
construcción se verán más concretamente en el capítulo 10.
Las ventajas se asocian a una mayor cuantificación de los resultados de la
investigación, ya sea en su precisión como en su análisis. Así mismo,
posibilitan de forma más clara la comprobación de los resultados
obtenidos por nuevas investigaciones. La desventaja es que normalmente y
en el ámbito sociológico se centran en exclusividad en las actitudes.
En las entrevista telefónicas, de la misma forma que las personales, se
hace uso de un entrevistador que, a través de este medio, se dirige al
encuestado para realizarle las preguntas que se incluyen en el cuestionario.
En la actualidad, como consecuencia de la implementación de
procedimientos de muestreo automatizados como la RDD (Random Digit
Dialing) y del desarrollo de entrevistas telefónicas asistidas por ordenador
(CATI, Computer-Assisted Telephone Interviewing), las entrevistas se
realizan pregrabadas.
Las ventajas de este tipo de encuestas son su rapidez y bajo coste,
mientras que sus inconvenientes son varios: normalmente la tasa de
respuesta es baja, al elaborar el cuestionario hay que reducir las
alternativas de respuesta y es limitativa en encuestas con temas delicados.

3.3.1.1.2. Tipos de preguntas del cuestionario


Las preguntas que se incluyen en el cuestionario son el elemento central
del mismo. Dependiendo de las clases de preguntas y de su adecuada
formulación dependerá el éxito o fracaso de la investigación, es decir,
recogerá o no de forma real lo que ocurre en la realidad empírica. Para
cerciorarnos de ello es siempre recomendable introducir una encuesta
piloto o pre-test, donde se ensayen las preguntas con un grupo reducido de
la muestra, donde podamos comprobar la estructura, adecuación,
redacción, imprecisión de las mismas.
Cuando diseñamos un cuestionario es preceptivo tener en cuenta qué tipo
de cuestiones se pueden incluir y qué reglas seguir.
En términos concretos, las preguntas que se incluyen en un cuestionario
son interrogaciones sobre las variables incluidas en la investigación de las
que queremos obtener información.
Hay muchos tipos de preguntas así como forma de clasificarlas, así como
de respuestas, que se especifican como las variaciones o categorías de las
variables a las que se refieren los interrogantes.
Para el caso de las respuestas, solamente tienen que cumplir con dos
condiciones esenciales: que sean exhaustivas y excluyentes.
Exhaustivas, es cuando las categorías o respuestas abarcan todos los
casos que puedan darse, es decir, que el encuestado siempre pueda
encontrar su categoría de respuesta, y excluyentes, es cuando el encuestado
no pueda elegir dos respuestas distintas de la misma pregunta. Ejemplo.
Para el caso de la exhaustividad, incluir todas las categoría posibles, y si
tenemos dudas de no abarcar todas, incluir la categoría, “otras, cuáles”. Y
respecto de las excluyentes, si ponemos una pregunta sobre los diferentes
tipos de fe religiosa, no podemos incluir, por ejemplo, las categorías
cristiano, católico, anglicano, ya que la categoría cristiano abarca a las
otras dos.
En términos generales, las formas clásicas de preguntas y sus formas de
clasificarlas son extensas, por lo que incluiremos las más importantes o
usadas, siendo las siguientes: a. Según el tipo de contestación son: cerradas
y abiertas. b. Según la naturaleza del contenido son: de identificación;
acción; información; intención; opinión y motivación. c. Según su función
en el cuestionario: preguntas filtro; y de control.; d. Según su finalidad se
dividen en directas o indirectas.
a. Según el tipo de contestación son: cerradas y abiertas.
Las cerradas son aquellas donde las respuestas son diseñadas por el
investigador y elegida por el encuestado como la más conveniente.
Son las mayoritarias en el cuestionario, ya que facilitan su categorización
y el análisis de las respuestas. En contraposición, pueden limitar las
opciones de respuestas al entrevistado en cuestiones complejas.
Ejemplo: ¿Está Vd. de acuerdo con los matrimonios homosexuales?, Sí,
No, No sabe, No Contesta.
Las abiertas son aquellas donde al entrevistado no se le establece ningún
tipo de respuesta. Ejemplo: ¿Me podría decir cuántos años tiene?
b. Según la naturaleza del contenido: identificación; acción; información;
opinión; motivación e intención.
Identificación: son las denominadas sociodemográficas, como por
ejemplo, la edad, sexo, estado civil, ingresos, hábitat, etc.
Acción: son las referidas a las actividades de los encuestados. Ejemplo. ¿A
qué partido ha votado en las últimas elecciones?
Información: son las que inciden en el conocimiento del encuestado.
¿Sabe en qué año cayó el muro de Berlín?
Opinión: son las que pretenden conocer el juicio o criterio del encuestado
sobre un tema concreto. Ejemplo. ¿Qué opina Vd. del aborto?
Motivación: son las que pretenden saber los motivos de las opiniones,
acciones o actividades de los encuestados. Ejemplo. ¿Qué motivos le ha
llevado a elegir el coche Skoda Octavia?
Intención: son las que se establecen para conocer los propósitos o
intenciones de los encuestados. Ejemplo. ¿Tiene Vd. pensado comprarse
una casa en los próximos meses?
c. Según su función en el cuestionario: preguntas filtro y de control.
Las filtro son preguntas que se hacen al entrevistado, previamente a la
formulación de otra pregunta. Ejemplo. ¿Tiene Vd. coche? Sí, No.
(Pregunta filtro). Solamente a los que señalaron que no tienen coche,
¿Tiene Vd. pensado comprarse uno en los próximos meses?
Control: se establecen para comprobar la fiabilidad de las respuestas del
entrevistado. Incluyen normalmente preguntas trampa o falsas, para
comprobar si el encuestado se contradice. Normalmente hay que
colocar las preguntas en el cuestionario bastante alejadas entre sí.
Ejemplo: Queremos saber las opiniones sobre el divorcio. La primera
pregunta sería, ¿Está Vd. de acuerdo con el divorcio? La segunda, más
adelante, ¿Ha pensado Vd. alguna vez en la posibilidad de divorciarse?
d. Según su finalidad se dividen en directas o indirectas.
Las directas pretenden saber expresamente lo que se pregunta. Ejemplo:
¿Está Vd. de acuerdo con la supresión de las corridas de toros en
España?
Las indirectas buscan saber algo distinto de lo que expresa literalmente la
pregunta formulada. Ejemplo: Queremos saber la normalidad de la
utilización de los anticonceptivos. ¿Vd piensa que la mayoría de la
población, en la actualidad, utiliza anticonceptivos en sus relaciones
sexuales? Sí o No. ¿Puede indicarme qué opinión le merece su
utilización?

3.3.1.1.3. Reglas básicas de la formulación de preguntas en el cuestionario


Hay una serie de reglas que se deben tener en cuenta en la elaboración de
la preguntas del cuestionario. Las más importantes son:
1. Las preguntas deben ser pocas.
2. Las preguntas deben ser relevantes, no superfluas. Ejemplo. Si estoy
preguntando sobre conductas xenófobas, no incluir preguntas de
hábitos de ocio.
3. Deben ser concretas, es decir, precisas. Nunca ambiguas o abstractas.
Ejemplo: sustituir ¿Qué especie de pareja tiene Vd. actualmente? por
¿Me podría precisar, de acuerdo a las categorías de parejas que le
muestro a continuación, la que Vd mantiene actualmente?
4. Debe utilizarse un lenguaje convencional, para que un mayor número
de personas las entienda. Ejemplo: ¿Qué edad cumplió en su último
cumpleaños?
5. Evitar siempre las abreviaturas. Ejemplo: ¿Cree que el crecimiento del
PNB garantizará las pensiones en el futuro?
6. Evitar las expresiones coloquiales y tecnicismos. Ejemplo: ¿A qué hora
aproximada se va Vd. al catre?
7. Utilizar preguntas ya contrastadas en otras encuestas. Ejemplo: las
utilizadas por el CIS, la EPA, etc.
8. Utilizar cuestiones que no levanten prejuicios. Ejemplo: ¿Nos puede
decir si se considera Vd. racista?
9. No utilizar interrogantes indiscretos, sin necesidad. Ejemplo: ¿Se
considera Vd. morboso, con cierta frecuencia?
10. Evitar preguntas con más de una idea. Ejemplo: ¿Cree que la política
inmigratoria del gobierno y de la Unión Europea es la adecuada?
11. Evitar interrogantes negativos (pueden dar lugar a dudas sobre el
sentido de la respuesta), afirmativos (pueden sugerir la contestación
afirmativa) y evitar los interrogativos del por qué. Ejemplos: negativa:
¿Es Vd. o no partidario de la no puesta en marcha de los referéndums
municipales?; afirmativa; ¿Si es Vd. partidario de la misa televisada?;
interrogativa, ¿Puede decirme por qué no se compra el Samsung
Galaxy?
12. Utilice indicaciones opcionales cuando sea necesario. Ejemplo: ¿Ha
sido Vd. (o alguien que vive con Vd.) objeto de algún delito en el
último año?
(Véanse las referencias: Rojar, Fernández, Pérez, 1997; Diaz de Rada,
2015; Alvira, 2011; Azofra, 2000; Bosch, 1993).

3.3.1.2. El panel
Es una encuesta realizada al mismo universo o muestra en dos tiempos
diferentes y respecto a la misma temática. Son las más científicas, ya que
recogen los aspectos del cambio social. Ejemplo: la EPA (Encuesta de
Población Activa).
En este caso, se le aplica la misma estructura que a las encuestas.
La gran ventaja es, como ya se ha comentado, la posibilidad de observar
el cambio social, siendo su mayor inconveniente el alto coste económico
que requiere, además de la alta mortandad muestral, al no poder repetir la
encuesta a parte de la muestra.

3.3.1.3. El experimento
Consiste en el estudio de grupos y fenómenos, preparados o
manipulados, es decir, controlados por el investigador. Más
concretamente, es un examen de causa a efecto sistemático y controlado. El
investigador maniobra algunos aspectos de la situación y observa los
efectos en la conducta y en las opiniones de los sujetos. Siempre debe haber
un grupo experimental, el que está expuesto al tratamiento del
experimento, y uno de control, el que está expuesto a todas las condiciones
experimentales, a excepción del tratamiento experimental.
Existen varios tipos, pero el más común y certero es el denominado
pretest postest.
Las fases de este tipo de experimento son cinco:
1. Se deben preparar dos grupos con situaciones iguales o similares.
Ejemplo: El grupo de clase A y B del primer curso de periodismo de la
Universidad de Málaga. Estableciendo que el grupo A es el
experimental y el B el de control.
2. Observación o medición inicial de ambos conjuntos. Tanto el
experimental como el de control. Normalmente a través de la aplicación
de un cuestionario.
3. Modificación de uno de los grupos, incidiendo sobre él un estímulo
(variable) (ver ejemplo abajo). Siempre sobre el grupo experimental.
Ejemplo: el grupo A, antes mencionado.
4. Nueva observación y medición de ambas colectividades, en especial
sobre la variación producida. Se pasa de nuevo el cuestionario a ambos.
5. Comparación de los resultados en ambos, a través de la medición de
las variaciones inicial y final. Ejemplo. Se compara los resultados
obtenidos, tanto del grupo experimental (comparando los resultados del
primer cuestionario y del segundo) como de control (comparando el
primer y segundo cuestionario). Conclusión: la hipótesis se verifica si ha
existido variación en el experimental (a través del estímulo sobre la
variable) y se mantiene constante en el de control.
Las ventajas se sitúan en la posibilidad de manipulación por parte del
investigador para que no haya interferencias de otras variables. En sentido
contrario, las desventajas son que no se pueden extrapolar los datos.
Además comentar que en Ciencias Sociales no es posible el control
riguroso del ambiente, de los grupos y de la variable experimental. Por este
motivo, para que tenga una cierta validez, se requiere, normalmente, de
replicaciones para contrastar los resultados.
Esta técnica la utilizan, en mayor medida, los psicólogos sociales, ya que
se aplica normalmente a grupos pequeños. Uno de los experimentos
clásicos es el de disonancia cognitiva llevado a cabo por el norteamericano
Leon Festinger en 1957.
Ejemplo: Partiendo de la hipótesis (hay que señalar que el experimento es
el instrumento de investigación causal por excelencia) de que la
información científica adecuada puede hacer cambiar de opinión, saber si
la información rigurosa sobre los efectos nocivos del consumo de drogas, a
través de conferencias, coloquios etc, por parte de personal especializado,
como médicos, psicólogos, etc. puede cambiar la opinión de un grupo de
jóvenes universitarios (grupo experimental). (Véase: Campbell y Stanley,
2011).

3.4. Observación documental: sus tipos


Se obtiene a través de una gran variedad de documentos actuales o
históricos de todo género, en cuanto que recogen hechos y datos de interés
social.
En los documentos vamos a buscar datos significativos. Para ello es
preciso establecer antes las variables empíricas y sus categorías sobre las
que necesitemos recoger información. Una vez establecidas las variables y
categorías se examinan sistemáticamente los documentos. La finalidad
pretendida es ver si los datos prueban o no las hipótesis formuladas.
Ejemplo: libros, artículos científicos, películas, fotografías, estadísticas,
prensa, teatro, internet, etc. Se interpretan como datos secundarios.
También deberían incluirse las bases de datos de interés sociológico
disponible por los diferentes organismos, tanto públicos como privados.
Las ventajas son el ahorro de dinero, tiempo y personal. Los
inconvenientes, la no posibilidad de llevar a cabo estudios sociales que
ocurren en un periodo corto de tiempo, así como que, muchas veces, los
datos fueron recolectados previamente con un propósito diferente a
nuestra investigación.
Lo importante en la utilización de estas formas de observación es
distinguir las fuentes que se utilicen y que estas sean lo más fiables
posibles. Ejemplo: si vamos a utilizar bases de datos de una encuesta,
siempre revisar primero la de los organismo oficiales, por ejemplo, el CIS,
Universidades, la EPA, etc.
Por último comentar que la técnica más científica que se aplica en la
observación documental es el análisis de contenido, que veremos a
continuación. (Véase: Cordero Valdivia, 1998).

3.5. Otros tipos de técnicas


3.5.1. Análisis de contenido
La podemos definir, siguiendo a Berelson, como “una técnica de
investigación para la descripción objetiva, sistemática y cuantitativa del
contenido manifiesto de las comunicaciones, con el fin de interpretarlas”.
(Berelson, 1952, cit. en Sierra Bravo, 1985: 247).
Se trata de un método para cuantificar datos secundarios, procedentes de
la observación documental, cuyo procedimiento consiste en sistematizar
cualquier tipo de información, ya sea por escrito, visuales o auditivas en
datos o valores objetivos.
Sus resultados se especifican en tablas numéricas.
Para realizar un análisis de contenido tenemos que tener en cuenta cuatro
fases: a. Elección de la muestra; b. Elección de las unidades de análisis; c.
Elección de las categorías; d. Diseño del cuadro de recogida de datos.
a. Muestra. Se establece sobre las fuentes documentales disponibles,
como libros, periódicos, radio (ejemplo: emisiones, programas),
televisión (ejemplo: programas, duración de los mismos, etc.) También
se incluyen las fuentes, como títulos de periódicos y revistas y las fechas
y espacios, por ejemplo, dentro de un mismo documento, programa,
etc.
b. La elección de las unidades de análisis pueden ser muchas. Si es una
revista, podemos elegir los artículos, determinadas frases, párrafos o
incluso palabras. Para este último caso, por ejemplo, elegimos una o
varias palabras claves para posteriormente contar la frecuencia con la
que aparece en el artículo. Si es un programa de televisión, por ejemplo,
elegir por tipos de programas: informativos, culturales, deportivos, etc.
c. La elección de categorías.
Las categorías pueden ser muchas, siendo las más comunes: por materias:
sociológicas, religiosas, etc.; por actores: edad, sexo; posicionamiento
de los autores: afirmación, negación, optimismo, pesimismo, etc.
d. Cuadro de recogida de datos.
El cuadro tendrá que contener todas las categorías incluidas en el
documento. Cada categoría a su vez tiene que tener su espacio para
poder cuantificar su frecuencia, peso, etc. Por último, cada unidad de
observación (libro, programa, etc.) tendrá su cuadro individualizado.
En definitiva, esta técnica se lleva a cabo por medio de la codificación de
las características relevantes del contenido de un mensaje para su análisis.
Ejemplo: en una investigación se pretende cuantificar el número y tipo de
anuncios publicitarios publicados en la prensa escrita nacional en los dos
últimos meses.
La muestra sería los tres periódicos nacionales más importantes: El País,
El Mundo y ABC.
Las unidades de análisis serían los anuncios publicitarios. Las categorías
serían los tipos de anuncios, que tendríamos que desglosar; por ejemplo:
institucionales, comerciales, informativos, culturales, jurídicos, turísticos,
de ocio, deportivos, etc. (Véase: Alonso, Volkens y Gómez, 2012).

3.5.2. Estudios Delphi


Es un método de observación que permite estructurar el procesamiento
de la comunicación grupal, para tratar temas complejos. Tiene una gran
utilidad para el análisis de prospectiva de riesgos, toma de decisiones
estratégicas en las empresas, generar ideas nuevas, contratación de
personal especializado, adquisición de nuevos productos tecnológicos o de
otro tipo.
Esta técnica se origina en el ámbito del ejército norteamericano a
mediados de los años cincuenta del siglo XX para predecir el alcance
nuclear. En España, su primera aplicación fue llevada a cabo por el
Observatorio de Prospectiva Tecnológica Industrial (OPTI) entre 1998-
2001.
Este método permite obtener, de forma sistemática, el consenso de un
grupo de expertos, de forma anónima y realizando una retroalimentación
controlada, ya que es el coordinador el único que conoce a los miembros y
estos no se conocerán entre sí, ni se reunirán conjuntamente.
La forma de actuación consiste en un proceso de interrogación a expertos
con la ayuda de cuestionarios sucesivos, el primero desestructurado y el
segundo estructurado, a fin de poner de manifiesto convergencias de
opiniones y deducir eventuales consensos.
El objetivo de los cuestionarios sucesivos es disminuir el espacio
intercuartil, es decir, cuánto se desvía la opinión del experto de la opinión
del conjunto, precisando la mediana de las respuestas obtenidas.
Las fases del método Delphi son las siguientes: 1. Formulación del
problema. Ejemplo: queremos saber por qué una empresa que comercializa
productos hortofrutícolas está perdiendo mercado.
1. Elección de expertos. Ejemplo: elegiremos los expertos que tienen un
mayor nivel de conocimiento del problema. Dos agricultores, con un
nivel medio-alto de formación y con más de 20 años en el sector; uno
que comercializa los productos en alhóndigas y otro que los
comercializa en cooperativas; un especialista financiero de temas
agrícolas de una empresa bancaria afincada en el sector o zona de
análisis, dos profesores universitarios expertos, uno en horticultura y
otro en economía agraria. El número idóneo está entre seis y treinta
expertos.
2. Elaboración y entrega de cuestionarios. Previamente se define la
metodología a seguir y se comunica individualmente. Se entrega un
primer cuestionario desestructurado, con preguntas abiertas, sobre
ventajas, razones, impactos, así como establecer jerarquías (pedir orden
en los ítems), valorativas (dar puntuaciones a escalas) o comparativa.
Los expertos establecen sus respuestas, tendencias y prioridades. El
coordinador recoge los resultados y los reenvía a los expertos que
emiten sus conclusiones.
De acuerdo al análisis de la primera ronda, se hace otro cuestionario, ya
estructurado. Si los técnicos reafirman o cambian su opinión inicial,
deben comentar el porqué. Finalmente el coordinador vuelve a devolver
el cuestionario con las conclusiones que enviar a los expertos. El cierre
se produce por parte del coordinador a partir de las diferentes
respuestas cruzadas de los dos cuestionarios, quien realiza un informe
(con datos estadísticos de distribución de frecuencias, así como de las
medianas, medias y rango intercuartílico) que entrega, en este caso, a la
empresa comercializadora para que inicie la toma de decisiones
oportunas.
Normalmente se le envía una copia del informe a los informantes y nota
de agradecimiento.
En definitiva, la calidad de los resultados dependerá sobre todo de la
elaboración del cuestionario y de la elección de los expertos.
La ventaja de esta técnica consiste principalmente en su capacidad de
prospectiva futura de acontecimientos, mientras que su inconveniente es su
compleja organización, en diseño y tiempo. (Véase: Landeta, 1999).
1
Ver el capítulo 14 sobre análisis cualitativo para el estudio del Software sobre estas cuestiones.
4. BIBLIOGRAFÍA
Alonso, S.; Volkens, A. y Gómez, B. (2012). Análisis de contenido de textos políticos. Madrid:
Centro de Investigaciones Sociológicas. Cuadernos metodológicos, nº. 47.
Alvira Martín, F. (2011). La encuesta. Madrid: Centro de Investigaciones Sociológicas. Cuadernos
metodológicos, nº. 35.
Azofra Márquez, M. J. (2000). Cuestionarios. Madrid: Centro de Investigaciones Sociológicas.
Cuadernos metodológicos, nº. 26.
Berelson, B. (1952). Content analysis in communication research. Nueva York: Hafner Press.
Bernardi, F. (2006). Análisis de la historia de acontecimientos. Madrid: Centro de Investigaciones
Sociológicas. Cuadernos metodológicos, nº. 38.
Bosch, J. L.; Torrente, D. (1993). Encuestas telefónicas y por correo. Madrid: Centro de
Investigaciones Sociológicas. Cuadernos metodológicos, nº. 9.
Brown, B. W. (1979). Parent´s discipline of children in public places. The Family Coodinator, 28
(1): 67-71.
Brown, J.; Gilmartin, B. (1969). Sociology today: lacunae, emphases and surfeits. American
Sociologist, 4: 283-291.
Campbell, D. T; Stanley, J. C. (2011). Diseños experimentales y cuasi-experimentales. Madrid:
Amorrortu.
Cordero Valdavida, M. (1998). Banco de datos. Madrid: Centro de Investigaciones Sociológicas.
Cuadernos metodológicos, nº. 24.
De Miguel, J. M. (1996). Autobiografías. Madrid: Centro de Investigaciones Sociológicas.
Cuadernos metodológicos, nº. 17.
Díaz de Rada, V. (2015). Manual de trabajo de campo de la encuesta. Madrid: Centro de
Investigaciones Sociológicas. Cuadernos metodológicos, nº. 36.
Festinger, L. (1957). Theory of cognitive dissonance. Stanford: Stanford University Press.
Fraser, R. (1970). Hablan los trabajadores. Barcelona: Nova Terra.
Galtung, J. (1966), Teoría y métodos de la investigación social. Buenos Aires: EUDEBA, 2 Vols.
García Ferrando, M. (2014). Sobre el método. Madrid: Centro de Investigaciones Sociológicas.
García Jorbán, J. M. (2000). Diarios de campo. Madrid: Centro de Investigaciones Sociológicas,
Cuadernos Metodológicos, Nº 31.
Gelles, R. J.; Levine, A. (1996). Introducción a la Sociología. México: Mc Graw-Hill.
Gellner, E. (1994). Posmodernismo, razón y religión. Barcelona: Paidós.
Guasch, O. (2002). Observación participante. Madrid: Centro de Investigaciones Sociológicas,
Cuadernos Metodológicos, Nº. 20.
Gutiérrez Brito, J. (2014). Dinámica de los grupos de discusión. Madrid: Centro de Investigaciones
Sociológicas, Cuadernos Metodológicos, Nº. 41.
Ibáñez Alonso, J. (1979). Más allá de la Sociología. Madrid: Siglo XXI.
Landeta, J. (1999). El método Delphi. Barcelona: Ariel.
Le Play, F. (1855). Les Ouvriers européens. París: Tours.
Lewis, O. (1964). Los hijos de Sánchez. Autobiografía de la una familia mexicana. México: Fondo
de Cultura Económica.
Lindeman, E. C. (1927). Social discovery. Nueva York: Republic.
Lynd, R. S.; Lynd H. M. (1929). Middletown: a study in contemporary American culture. Nueva
York: Harcourt, Brace.
Malinoswki, B. K. (2001). Los argonautas del Pacífico Occidental. Barcelona: Ediciones Península.
Mayo, E. (1988). The social problems of an industrial civilization. New Hampshire: Salem.
Mc Court, F. (1999). Las cenizas de Ángela. Madrid: Maeva.
Mead, M. (1993). Adolescencia, sexo y cultura en Samoa. Buenos Aires: Planeta-Agostini.
Merton, R. K; Fiske, M; Kendall, P. (1956). The focused interview. A manual of problems and
procedures. Glencoe: The Free Press.
Morley, R. (1994). Wife beating and modernization: the case of Papua New Guinea. Journal of
Comparative Family Studies, 24 (1): 25-52.
Park, R. E; Mc Kenzie, R. D; Burgess, E. (1925). The city. Suggestions for the study of human
nature in the urban environment. Chicago: University Chicago Press.
Phillips, D. L. (1971). American Sociological Review (1962-1969). Knowledge from what? Theories
and methods in social research. Chicago: Rand Mc Nally.
Pujadas Muñoz, J. J. (1992). El método biográfico: El uso de las historias de vida en Ciencias
Sociales. Madrid: Centro de Investigaciones Sociológicas. Cuadernos metodológicos, nº. 5.
Rojas, A; Fernández Prados, J. S.; Pérez, C. (1997). Investigar mediante encuesta. Madrid: Síntesis.
Shaw, C. R. (1929). Delinquency areas. Chicago: University Chicago Press.
Shaw, C. R. (1942). Juvenile Delinquency and urban areas. Chicago: University Chicago Press.
Sierra Bravo, R. (1985). Técnicas de investigación social. Madrid: Paranínfo.
Stouffer, S. A.; Suchman, E. A.; Leland, C. A.; Shirley, A. E.; Willians, R. M. (1949). Studies in
socialpsychology in world war II. American Soldier. New Jersey: Princenton University Press, 4
vols.
Sutherland, E. H. (1988). Ladrones profesionales. Madrid: Ediciones de la Piqueta.
Tercer Informe de Prospectiva Tecnológica Industrial (2001). Futuro tecnológico en el horizonte de
2015. Madrid: Fundación OPTI y Fundación EOI.
Thomas, W. I.; Znaniecki, F. [1927] (2006). El Campesino polaco en Europa y en América.
Madrid: Centro de Investigaciones Sociológicas.
Valles Martínez, M. S. (2014). Entrevistas cualitativas. Madrid: Centro de Investigaciones
Sociológicas, . Cuadernos Metodológicos, Nº 32.
White, W. F. [1955] (2015). La sociedad de la esquina. La estructura social de un barrio bajo
italiano. Madrid, Centro de Investigaciones Sociológicas.
Capítulo 10
OPERACIONALIZACIÓN Y ELABORACIÓN DE
INDICADORES: ESCALAS, TASAS E ÍNDICES
Rafael Grande Martín
Universidad de Málaga

1. INTRODUCCIÓN
En todo proceso de investigación llega el momento en el que el científico
social, delante de su objeto de estudio, sus preguntas de investigación, su
marco teórico, sus objetivos, sus hipótesis, e incluso sus fuentes de datos —
aun cuando disponga de fuentes primarias diseñadas ad hoc—, se pregunta
cómo medir esa realidad social que quiere estudiar.
La respuesta a esta cuestión plantea un doble problema. Por un lado, la
realidad social es compleja y se articula en una trama de múltiples
conexiones, por lo que el investigador debe decidir qué aspectos o factores
son los que le interesa medir según sus propios objetivos y su perspectiva
analítica. Por otro lado, las Ciencias Sociales suelen trabajar con conceptos
teóricos, aspectos de sentido común o términos de uso frecuente en los
medios de comunicación o presentes en la agenda política, que son
considerados relevantes para el planteamiento del estudio por variados y
razonables motivos, pero que, en la mayoría de ocasiones, no se pueden
medir directamente. Por ejemplo, ¿cómo medir la posición socio-
económica de un individuo?, ¿cómo conocer la actitud de la población
nativa hacia la población de origen extranjero?, ¿a qué se hace referencia
cuando se habla de fracaso escolar? o ¿cómo calcular el nivel de desarrollo
de una región o país determinado?
Por ello, este capítulo pretende aportar las herramientas básicas
necesarias para transformar esos conceptos de interés para la investigación
en propiedades medibles mediante la operacionalización y la elaboración
de diversos indicadores que permitan su análisis, como son las escalas, las
tasas y la construcción de índices.
2. OPERACIONALIZACIÓN Y MEDICIÓN
En las Ciencias Sociales se trabaja constantemente con conceptos. Sin
esos conceptos los investigadores estarían ciegos, pues no sabrían qué
observar, sobre qué aspectos indagar o cómo reconocer los rasgos más
relevantes para sus fines. Por ello es esencial dedicar tiempo y esfuerzo,
como una fase intermedia en el proceso de investigación social, a la
operacionalización y medición de los conceptos teóricos e ideas que
forman parte del diseño del estudio. Precisamente, uno de los déficits que
se detectan más habitualmente en los trabajos final de grado o fin de
máster es la falta de capacidad para presentar mediciones precisas de los
objetos de estudios planteados, siendo este un problema común en las
diferentes disciplinas de las Ciencias Sociales que ensombrece en muchos
casos excelentes y novedosos temas de estudio.
En esta fase dos son las tareas cardinales: la operacionalización y la
medición. Mediante la operacionalización, como señala Cea D`Ancona
(1998: 123), se asignan mediciones a los conceptos extraídos del marco
teórico. Se pasa de un concepto teórico, difícil de medir en la realidad
social directamente, a otro concepto empírico que sí puede ser observado,
valorado y medido mediante variables empíricas o indicadores. Esto es,
desagregar ideas o términos abstractos a un nivel más concreto.
Tras ello, la tarea de medición consiste en atribuir significado a esos
elementos y propiedades más concretos de la realidad social a través de la
asignación de características o propiedades cuantificables. En otras
palabras, se trata de asignar diferentes valores numéricos a diferentes
fenómenos o pautas sociales determinadas, utilizando un instrumento y un
método, con el fin de obtener variables que se puedan manipular y con las
que se puedan contrastar nuestras hipótesis de trabajo. En Ciencias
Sociales se debe tener en cuenta que lo que se mide no son individuos o
grupos sociales (estas son las unidades de análisis), sino determinadas
características sociológicamente relevantes para estos (rasgos, eventos,
actitudes, comportamientos, conductas, opiniones, etc.).
Por ejemplo, se puede manejar desde el planteamiento teórico la
interesante relación entre fracaso escolar y origen socioeconómico de los
estudiantes. El científico social debe transformar ambos conceptos en
términos empíricos para poder llevar a cabo su estudio contrastando sus
hipótesis; es decir, debe operacionalizar sus conceptos. ¿Qué se quiere
observar empíricamente cuando se habla de fracaso escolar: retraso,
abandono, dificultad de aprendizaje…? ¿Cómo medir ese fracaso escolar:
finalización de determinado grado de estudios, usando las calificaciones
académicas, utilizando tests de rendimiento…? Igualmente, ¿cómo
concretar esa idea teórica de origen socioeconómico: renta del hogar,
situación laboral de los progenitores, situación de la vivienda, nivel de
estudios de los padres…? Dar una buena respuesta a ese tipo de preguntas
permite manejar términos empíricos adecuados, es decir, que se acercan lo
más fielmente posible a la realidad que se quiere estudiar.
Para solventar el escoyo que supone en muchos casos estas tareas de
operacionalización y medición, siguiendo la propuesta que realizó
Lazarsfeld (1973), se han de llevar a cabo las siguientes cuatro
operaciones.
1. Acotar las características y propiedades del concepto a partir de
nuestra perspectiva de análisis y nuestro marco teórico. Por ejemplo, si
se quiere estudiar la calidad del empleo, el investigador debe comenzar
preguntándose: ¿qué es lo que realmente quiero estudiar cuándo hablo
de “calidad de empleo”?
2. Fijar las dimensiones de dicho concepto. Esto es, decidir qué rasgos o
aspectos específicos del concepto teórico se quieren abordar. En muchas
ocasiones se trabaja con conceptos que incluyen una gran variedad de
aspectos que nunca puede abarcarse en su totalidad. Además,
manipular demasiadas dimensiones para un mismo concepto dificultará
el análisis, por lo que sólo se deben seleccionar aquellas que sean más
relevantes en el marco de su trabajo. Siguiendo el ejemplo anterior:
¿qué aspectos de la calidad de empleo me interesa abordar y definen
mejor este concepto? ¿según mi perspectiva me interesa el salario, las
características del empleo, las condiciones de salud y seguridad, la
conciliación…? La clave en esta fase radica en seleccionar aquellas
dimensiones que más exactamente describan el concepto estudiado.
Pero, como menciona González Blasco (1989), no hay una regla sobre
el número de dimensiones óptimas que se debe considerar, estas
dependerán del planteamiento teórico y de la intuición del investigador.
3. Seleccionar los indicadores observables de cada una de esas
dimensiones. O lo que es lo mismo, concretar los aspectos medibles
para cada una de las dimensiones a partir de nuestras fuentes de datos y
de los métodos empleados. En el caso de la calidad del empleo, parece
bastante obvio, por ejemplo, que el principal indicador de las
características económicas de un trabajo es el salario percibido, que es
ya sí un indicador medible. Pero, ¿qué indicadores utilizar, por ejemplo,
para medir la conciliación familiar: días de permiso, posibilidad de
jornadas flexibles, teletrabajo?
4. Por último, combinar esos indicadores en índices. No siempre resulta
oportuna esta cuarta operación, pero en numerosas ocasiones resulta
beneficioso combinar todos esos indicadores, pudiéndoles otorgar
diferentes pesos, en un solo índice que mida de forma precisa y
manejable el concepto. En el ejemplo seguido, ¿qué peso final otorgo a
cada una de esas dimensiones y cada uno de sus indicadores para medir
más fielmente mi concepto de calidad de empleo?
En suma, el proceso de operacionalización consiste en, una primera fase,
desagregar dimensiones o propiedades de los conceptos teóricos; en una
segunda fase, seleccionar los mejores indicadores o variables para medir
cada una de las distintas dimensiones; y finalmente si se requiere, construir
un índice que sintetice toda la información en una escala de medición
común. Este proceso se resume de forma visual en el siguiente esquema
(Figura 1).

Figura 1. Proceso de operacionalización


Conceptos teóricos Dimensiones o propiedades Indicadores o variables Índices

Fuente: elaboración propia

Evidentemente, el investigador se encontrará conceptos sencillos que


pueden ser directamente medidos mediante una variable concreta y otros
conceptos más complejos en los que es necesario tomar decisiones en base
a la perspectiva de análisis adoptada y a cierta imaginación a la hora de
acercarse empíricamente a la realidad social. En cualquier caso, al menos
hay que definir una dimensión para cada concepto teórico y encontrar al
menos un indicador para cada dimensión. A continuación, se presentan
unos sencillos ejemplos.
Ejemplos
Recurriendo a la investigación de Rafael Muñoz de Bustillo y colegas,
publicada en el libro Measuring More than Money. The Social Economics
of Job Quality (2011), se trata de ilustrar a continuación la práctica de la
operacionalización y medición a través del ejemplo del concepto de
“calidad de empleo”. Sin duda, este es un término muy recurrido en las
investigaciones en Ciencias Sociales —tanto desde la economía laboral, la
sociología del trabajo, las relaciones laborales, etc.— pero que, a priori, es
difícil concretarlo en un indicador medible.
Este trabajo tiene como objetivo analizar la calidad del empleo a nivel
europeo proponiendo y probando un nuevo índice de calidad de trabajo
que se adapte a las características del trabajo en la actualidad. Tras una
intensa revisión de literatura el equipo de investigación operacionaliza el
concepto de “calidad de empleo”, buscando —como indica el propio título
de la obra— abarcar en dicho concepto también los aspectos que van más
allá de la remuneración económica que se obtiene por el trabajo y que
definen de igual manera su mayor o menor calidad. Para ello utilizan la
información disponible en las diferentes oleadas de la Encuesta europea
sobre las condiciones de trabajo (EWCS-European Working Conditions
Survey). Los investigadores seleccionan 5 dimensiones o propiedades que
consideran fundamentales para medir la calidad de empleo (véase la Figura
2).
1) Remuneración económica
2) Condiciones del propio puesto de trabajo, que incluye una
subdimensión objetiva de las condiciones de trabajo y una subjetiva que
se centra en la opinión del propio trabajador.
3) Condiciones del empleo. Desagregada, por un lado, en términos de
estabilidad y, por otro lado, en relación con el desarrollo profesional
futuro.
4) Salud y seguridad, en relación tanto a riesgos físicos como a riesgos
psicosociales que supone el empleo.
5) Conciliación de la vida laboral y personal, abordando el tiempo
dedicado al trabajo y la intensidad del mismo.
La elección de estas 5 dimensiones parte de una definición teórica y una
forma de comprender el concepto de “calidad de empleo”. De hecho, hay
otros muchos autores que han utilizado otras dimensiones y otros
indicadores obteniendo diferentes aproximaciones a la calidad de empleo.
Al ser este un concepto complejo los investigadores agregan múltiples
dimensiones con uno o dos niveles de especificidad, aunque no siempre
tiene porque ser necesario ese nivel de desagregación cuando se trabaja con
conceptos más sencillos. Para cada una de esas dimensiones se establecen
diferentes indicadores, correspondientes a variables de la EWCS. Nótese
que mientras la dimensión de remuneración económica queda cubierta,
lógicamente, con un solo indicador que es la variable salario, para otras los
investigadores deciden utilizar múltiples variables presentes en la fuente de
datos.
Finalmente, los investigadores a partir de toda la información recogida en
los distintos indicadores otorgan diferentes pesos para obtener un valor
numérico que vaya del 0 al 100 en cada uno de esas dimensiones, siendo el
0 la peor calidad del empleo y el 100 la mayor. Posteriormente, a través de
una ponderación donde cada dimensión equivale al 20% del índice final, se
obtiene el Índice de Calidad de Empleo que igualmente varía del 0 al 100.
Así, por ejemplo, ahora los investigadores pueden obtener puntuaciones
medias de calidad de empleo para cada uno de los países europeos, para
cada sector de actividad, para hombres y mujeres, etc. y realizar un sinfín
de análisis estadísticos a nivel individual y agregado.

Figura 2. Proceso de operacionalización y construcción del índice de calidad de


empleo. Basado en Muñoz de Bustillo et al. (2011)
Concepto Dimensiones Indicadores Índice
1. Condiciones económicas – Salario 20%

– Ocupación (clasificación ISCO)

– Trabajo implica tareas monótonas, tareas repetitivas y


Objetivas aprender cosas nuevas.
2. Condiciones
– Posibilidad de elegir o cambiar horarios, orden de las
del propio 20%
tareas, ritmo de trabajo, etc.
puesto de
trabajo – Frecuencia con la sensación de realizar un trabajo útil, con
la sensación de trabajo bien hecho y con la que obtiene
Subjetivas ayuda de compañeros si la pide.

– Escala de acuerdo: “tengo buenos amigos en el trabajo”

– Tipo de contrato
Estabilidad
– Grado de acuerdo: “puedo perder mi trabajo en los
3. Condiciones próximos 6 meses”
20%
del empleo – Formación pagada o proporcionada por la empresa Índice
Oportunidades Europeo
Calidad de desarrollo – Grado de acuerdo: “mi empleo me ofrece buenas de Calidad
de posibilidades de ascenso profesional” de Empleo
empleo (European
– Frecuencia en la que trabajo implica: posiciones job quality
dolorosas, levantar peso, estar de pie, movimientos index)
Física repetitivos
4. Salud y – Frecuencia exposición en trabajo a vibraciones, ruidos, 20%
seguridad temperaturas extremas, etc.
Psicosociales – Ha sido objeto en su trabajo de amenazas, violencia,
acoso, discriminación sexual, etc.
– Horas trabajadas a la semana
Tiempo de – Veces al mes que trabaja por la noche, por la tarde-noche,
trabajo los sábados y los domingos
– Flexibilidad de horarios y elección de horarios
5. Conciliación 20%
– Frecuencia trabajar a gran velocidad

Intensidad – Frecuencia trabajar con plazos estrictos y cortos


– Grado de acuerdo: “tiene tiempo suficiente para hacer su
trabajo”

Fuente: elaboración propia a partir de Muñoz de Bustillo et al. (2011)

El ejemplo anterior mostraba un proceso de operacionalización bastante


complejo; sin embargo, la mayoría de conceptos pueden ser
operacionalizados y medidos de forma más sencilla. En muchas ocasiones
el investigador podrá operacionalizar el concepto con solo una o varias
dimensiones medidas a través de un solo indicador. También se debe
precisar que no solo se operacionalizan los conceptos dependientes de la
investigación, también los independientes deben ser operacionalizados. Por
ejemplo, en Ciencias Sociales es común manejar con frecuencia el concepto
“posición socioeconómica” de los individuos y, aunque suele ser medido
con relativa facilidad, es necesario operacionalizarlo correctamente como
ejercicio que ayuda siempre a reflexionar sobre en qué aspectos se quiere
poner el foco, mejorando así el diseño de la investigación. La figura 3
muestra dos posibles formas de operacionalizar dicho concepto,
seleccionado diferentes dimensiones e indicadores.

Figura 3. Dos procesos de operacionalización del concepto “posición socioeconómica”


Proceso 1 Proceso 2
Concepto Dimensiones Indicadores Concepto Dimensiones Indicadores

– Nivel de estudios de los


– Renta del hogar
progenitores Ingresos y
Estatus bienes
– Régimen de tenencia
adscrito – Lugar de nacimiento
de vivienda

– Fenotipo étnico – Situación laboral


Posición Posición
socioeconómica – Renta del hogar sociodemográfica Empleo – Ocupación

– Situación laboral – Sector de actividad


Estatus
adquirido – Ocupación
Estudios
– Nivel de estudios
– Nivel de estudios

Fuente: elaboración propia.


3. CARACTERÍSTICAS E IMPORTANCIA DE LOS
INDICADORES EN LA INVESTIGACIÓN
Antes de continuar es necesario profundizar en la utilidad de los
indicadores en la investigación social. Como ya se ha mencionado, los
indicadores son propiedades manifiestas y observables de las distintas
dimensiones o propiedades latentes de un concepto teórico. Su función es
cuantificar e inferir los conceptos reduciendo el error de medición; es decir,
reflejar lo más fielmente posible la realidad social que se quiere.
Un primer aspecto a tener presente es que los indicadores representan
aproximaciones al concepto que miden. Como apunta Corbetta (2007), la
relación entre concepto e indicador es solo parcial, porque un concepto
admite más de un indicador y un mismo indicador puede emplearse para
medir diferentes conceptos. Dicho de otro modo, la relación concepto-
indicador es supuesta, pero no cierta. Así pues, el investigador debe tener
presente que al llevar a cabo la tarea de operacionalización asume un
margen de incertidumbre. De ahí la importancia de que entre los
indicadores y el concepto a medir haya un plan de correspondencia.
Debido a esa incertidumbre, un segundo aspecto a subrayar es la
necesidad de buscar la mayor fiabilidad y validez científica de los
indicadores seleccionados. La capacidad de un indicador radica en su
contribución a la medida específica que queremos hacer. Dado que en las
Ciencias Sociales no se dispone de la exactitud de las Ciencias Naturales, la
validez del proceso de operacionalización y de los indicadores finales debe
estar siempre presente durante el proyecto de investigación con la finalidad
de retroalimentar el diseño. Esta tarea debe ser considerada como un
proceso circular, en donde una vez seleccionados los indicadores (y en su
caso construidos los índices), se debe revisar su relación con el concepto
teórico que se quiere estudiar y volver a iniciar, a partir de esa nueva
evidencia empírica, la selección de dimensiones e indicadores.
Un tercer aspecto importante a la hora de seleccionar los indicadores es
optar, siempre que sea posible, por una operacionalización sencilla. No
obstante, debido a que en ocasiones se manejan conceptos generales y
abstractos suele ser recomendable acudir a la medición de un mismo
concepto o dimensión utilizando diferentes indicadores, lo que aumenta la
precisión y validez de constructo de la medición. Cea D’Ancona (1998)
recomienda la elaboración de una lista con el mayor número de
indicadores posibles, para después eliminar aquellos indicadores que no se
consideren tan significativos para la medición de esa dimensión concreta de
un concepto.
Finalmente, una cuarta consideración es barajar siempre como primera
opción la posibilidad de utilizar o adaptar instrumentos de medida
empleados en investigaciones precedentes consultadas en la fase de revisión
bibliográfica. Con esto se gana validez, garantías de su funcionamiento y
posibilidad de realizar comparaciones. Aun así, la elección de un indicador
es arbitraria, dependiendo de las técnicas empleadas, los objetivos de la
investigación y, en último término, el criterio del científico social.
Recordando que siempre se debe argumentar y justificar esta elección en la
presentación final de la investigación.
A modo de recapitulación las principales ventajas del uso de indicadores
en la investigación social son:
– Permite al investigador trabajar con conceptos generales y abstractos.
– Proporciona variables que se pueden manipular y que ayudan a
contrastar las hipótesis de la investigación.
– Hace posible una mayor precisión y validez de la medición
– Abarcar diferentes aspectos o dimensiones de interés dentro de un
mismo concepto.
Y los principales inconvenientes o cautelas al emplear los indicadores
son:
– Frecuentemente surge la tentación de considerar el indicador o el índice
como si fuera el concepto mismo, obviando que es una aproximación
metodológica al mismo.
– En el caso de usar fuentes secundarias el investigador tiene que
adaptarse a la información disponible, que no siempre es el mejor
indicador para los objetivos planteados.
– Un mismo indicador o variable puede ser utilizado para medir
conceptos diferentes.
– Arbitrariedad de los investigadores en la elección de los indicadores,
que debe suplirse con la conveniente justificación.
En los trabajos de Ciencias Sociales se trabaja con diversos tipos de
indicadores. Los indicadores se pueden clasificar según el número de
variables que se utilizan en la medición:
– Indicadores Univariables: sólo es necesaria una variable para medir esa
dimensión que según su nivel de medición pueden ser variables
nominales, ordinales, de intervalo o de razón. Por ejemplo, en el caso de
la operacionalización de la calidad del empleo, la variable salario era el
único indicador para la dimensión condiciones económicas.
– Indicadores Multivariables: se emplea más de una variable para su
construcción. En numerosas ocasiones es necesario recurrir a
indicadores más complejos que, a través de sencillas operaciones
matemáticas, otorgan una enorme capacidad de análisis. Entre estos
hay tres tipos principales de indicadores, que se abordarán con detalle a
continuación: escalas de medición, cocientes (proporciones, tasas…) e
índices.
4. ESCALAS
Las escalas de medición son herramientas que permiten medir
gradualmente conductas, conocimientos, opiniones y actitudes mediante la
combinación de diferentes variables o ítems convenientemente formulados
para ello. Cuando se quieren estudiar conceptos como, por ejemplo, la
actitud hacia el medio ambiente o la intensidad de participación política
resulta demasiado reduccionista apoyarse en una sola variable, como
puede ser si reciclan los residuos del hogar o si se acude a votar en las
diferentes citas electorales. Las escalas de medición resultan de gran
utilidad al concertar una batería de ítems relacionados que dan mayor
precisión al concepto o dimensión que se quiere abordar. Entre los
diferentes tipos de escalas las más utilizadas en las Ciencias Sociales son la
escala Likert y la escala Thurstone.

4.1. Escala Likert


La escala Likert, muy utilizada en el análisis mediante encuesta, es una
escala psicométrica utilizada para medir actitudes; se construye a partir de
una batería de afirmaciones o ítems sobre los cuales se obtiene una
respuesta ordinal por parte del encuestado.
Para su elaboración es necesario disponer un conjunto de ítems que
pregunten sobre el grado de acuerdo con una serie de oraciones, la
frecuencia con la que se lleva a cabo determinada actividad, el nivel de
satisfacción con una política pública específica, la probabilidad de realizar
acciones futuras, etc. Es preciso diferenciar entre los diferentes ítems
Likert, que por sí mismos pueden ser una variable, y la escala Likert, en sí
misma, que es el resultado de la combinación de un conjunto de estos
ítems.
La escala Likert parte del supuesto de que, pese a utilizar preguntas
discretas y ordinales, existe una suerte de continuidad lineal que va, por
ejemplo, desde el “totalmente en desacuerdo” al “totalmente de acuerdo”
o del “muy frecuentemente” al “nunca”. Se pueden presentar diferentes
niveles de medición en las posibles respuestas, aunque lo más común es
utilizar 5 categorías, también se encuentran escalas de 7, 9 u 11. Es
importante tener en cuenta que la escala siempre debe ser simétrica; es
decir, tener el mismo número de opciones de respuesta positivas que
negativas. Además, es muy recomendable que haya un número impar de
categorías de respuesta, para que haya un punto central que permita a los
encuestados posicionarse de forma neutral. La Figura 4 muestra un
ejemplo de batería de preguntas con ítems Likert tomado de uno de los
cuestionarios del Centro de Investigaciones Sociológicas (CIS).

Figura 4. Ejemplo de ítems Likert sobre habilidad en el uso de tecnologías de la comunicación

Fuente: Barómetro del CIS nº 3128 de febrero de 2016.

Tras disponer de los datos recogidos en la encuesta, donde a cada sujeto


se le pide el nivel de acuerdo o, como en el ejemplo anterior, el grado de
habilidad con cada ítem, se suman las diferentes puntuaciones de cada
individuo y se divide por el número de ítems utilizados. A la hora de
asignar los valores finales se debe pensar cómo se quiere tratar
posteriormente la variable resultante. Por ejemplo, en una escala sobre la
frecuencia de diferentes acciones tendrá más sentido interpretar los valores
elevados como más positivos, aunque en el cuestionario fueran codificados
de otra forma. Así se obtienen una puntuación total para cada individuo
que ya puede ser analizada estadísticamente para contrastar las hipótesis
de la investigación.
Siguiendo con el ejemplo que proporciona la pregunta tomada del
barómetro del CIS sobre la habilidad de manejo de las tecnologías de la
comunicación, si un individuo hubiera respondido ser muy habilidoso en el
uso del teléfono móvil (1), bastante habilidoso en el uso del correo
electrónico (2) y de WhatsApp (2), y poco habilidoso en el uso de las redes
sociales (4), obtendría una puntuación media en la escala Likert de 2,5 [=
(1+2+2+4)/4)]. En este ejemplo, parece más lógico interpretar los valores
más elevados como mayor habilidad. Tomando los datos del barómetro
del CIS, e invirtiendo la escala, se obtiene que el conjunto de la población
española mayor de 18 años en 2016 tenía una habilidad autoevaluada
media de manejo de las tecnologías de la comunicación de 3,99 sobre 5,
siendo 1 “nada habilidoso” y 5 “muy habilidoso”. Y fácilmente se pueden
comparar diferentes grupos: los menores de 30 años tienen una mayor
habilidad en el uso de tecnologías de la comunicación, una media de 4,34,
frente a las personas mayores de 50 años se quedan de media en un 3,63 en
la escala.
Las principales ventajas de usar la escala Likert en la medición son:
– Es una escala de fácil elaboración que no requiere de complejas
operaciones matemáticas.
– El diseño de una escala Likert es muy sencillo. Además, encuestas de
temáticas diversas suelen incorporar baterías de preguntas que utilizan
ítems Likert, en gran medida porque son fáciles de contestar y, a la vez,
recogen una gran cantidad de información.
– Permite utilizar ítems de diversas preguntas y que miden diferentes
aspectos de la dimensión o el concepto que se quiere medir.
– Al obtener un indicador numérico, aunque su naturaleza es ordinal,
podemos operar en el análisis como si fuera una variable numérica,
permitiendo elaboración de medias, varianza, dispersión, etc.
Aunque, lógicamente, también el uso de la escala Likert presenta algunas
desventajas que deben ser consideradas por los investigadores:
– Existe un debate sobre los posibles sesgos de respuesta que pueden
provocar los ítems Likert. Las opciones de signo positivo suelen ser más
respondidas que las de signo negativo. Una posible solución es variar la
dirección con la que se formulan las preguntas en los cuestionarios y,
posteriormente, unificar cada ítem al criterio de la dirección en la que se
desea medir la escala final.
– Otro sesgo frecuente es la tendencia a situarse en la posición neutral de
la escala para evitar posicionarse. Ante esto en ocasiones el diseño de la
encuesta predispone no leer esa opción al encuestado. En otras
ocasiones se opta por utilizar categorías pares para que no exista esa
posición neutral forzando al posicionamiento hacia un lado o hacia el
otro de la escala. Esto último, por ejemplo, es lo que se hace cuando se
formula la pregunta de auto-ubicación ideológica usando una escala del
1 al 10.
– Al poder analizar la variable resultante como si fuera de carácter
numérico, pese a ser originalmente ordinal, el investigador puede
encontrar que individuos con respuestas diferentes en cada uno de los
ítems obtienen la misma puntuación en la escala Likert.

4.2. Escala Thurstone


La escala Thurstone es otro tipo de escala psicométrica centrada en el
estudio de las actitudes de los individuos. A diferencia de la escala Likert,
la escala Thurstone se construye a partir de una serie de ítems con los que
el individuo está de acuerdo o no, en lugar de requerir una respuesta
ordinal sobre su grado de acuerdo.
El primer paso en la elaboración de una escala Thurstone es la
preparación de los ítems y la evaluación de los mismos por una serie de
“jueces”. Así se construyen, por ejemplo, unos cuarenta ítems que
representan diferentes posiciones en la escala de la actitud que se quiere
medir. Posteriormente se pide a los “jueces” que le den un valor, por
ejemplo, del 0 a 10, según representen un extremo u otro de la actitud que
se quiere medir. Es necesario aclarar que, en ocasiones, el propio equipo
investigador ejerce como juez en función de los objetivos del trabajo y su
planteamiento teórico. Una vez se obtiene el dictamen se seleccionan
aquellos ítems cuyas medianas representen distintas posiciones de la escala,
por ejemplo: 2, 4, 6, 8. Es decir, se seleccionan algunos ítems positivos
respecto de la actitud que se quiere medir, otros negativos y otros neutros.
En un segundo paso se presentan los ítems a los individuos objeto de
estudio, mediante la técnica de la encuesta, preguntando con cuál de ellos
está de acuerdo. Es importante a la hora de aplicar esta escala presentar
unas instrucciones claras, procurando siempre que el individuo responda a
todos los ítems.
En un tercer paso se elabora la escala propiamente dicha. Para ello se
recuenta aquellos ítems del total de la batería con los que el individuo está
de acuerdo y se promedia el valor escalar obtenido. Cada uno de los ítems
seleccionados tienen asignada una puntuación diferente en la escala según
el criterio de los jueces. La puntuación final es la media de la puntuación
otorgada por los jueces a cada uno de los ítems con los que se está de
acuerdo.
En su famoso trabajo Modernización y posmodernización, Ronald
Inglehart (2000), construyó una escala de valores materialistas-
posmaterialistas empleando los datos de la Encuesta Mundial de Valores.
Utilizó para ello 12 ítems o indicadores presentes en dicha encuesta que
agrupó en cuatro dimensiones: subsistencia, seguridad, sentimiento de
pertenencia y autorrealización. Inglehart, haciendo de juez, considera que,
si el individuo prioriza aspectos como “libertad de expresión” o “defensa
del medio ambiente” es un indicador de valores posmaterialistas, frente a
otros ítems como por ejemplo “mantener el orden de la nación” o “la
estabilidad de la economía” que representan valores materialistas. Para
construir su escala, Inglehart suma el número total de ítems a los que se da
prioridad, variando las puntuaciones de la escala de 0 (no se da prioridad a
ningún ítem posmaterialista) a 5 (se da prioridad a los 5 ítems
posmaterialistas).
Las principales ventajas de la escala Thurstone son:
– Permite medir actitudes de los individuos basándose en estímulos,
obteniendo como resultado una escala gradual. Hace posible comparar
las puntuaciones finales respecto a la actitud medida, por lo que se
pueden estudiar fácilmente cambios actitudinales y diferencias entre
colectivos.
– Al partir de una prueba de cierto carácter objetivo (valoración de los
jueces) de los que se obtiene una puntuación mediana para cada ítem, la
utilización de este indicador supone una suerte de refinamiento en la
medida.
Como desventajas o precauciones a la hora de usar la escala Thurstone:
– El proceso de creación, implementación y elaboración de esta escala es
largo y costo. Aunque en ocasiones el investigador puede construir su
propia escala Thurstone adaptando la información disponible en
encuestas elaboradas para otros fines.
– Se debe tener en cuenta la influencia que ejercen los jueces o el
investigador que otorga la puntuación a cada ítem, debido a que se
pueden cometer determinados sesgos y prejuicios.
5. PROPORCIONES, RAZONES Y TASAS
En ocasiones disponemos de datos aparentemente útiles pero difíciles de
analizar por sí solos. Por ejemplo, saber que se han producido 400.000
accidentes laborales no dice nada si no se pone en relación con la
población y el periodo de tiempo en los que estos han ocurrido. Por ello es
muy útil en la investigación social, especialmente desde las perspectivas
demográficas y económica, utilizar como indicador la relación entre dos
magnitudes, es decir, usar un “cociente” que sirve para expresar cuántas
veces está contenido el divisor en el dividendo. En función de la naturaleza
de esos dos datos o magnitudes que se relacionan, como indica Pérez Díaz
(2010), existen diferentes tipos de cocientes que se usan frecuentemente
como indicadores.

5.1. Proporciones
La proporción es un cociente entre un subconjunto y el conjunto total en
que este está incluido. En otras palabras, los elementos del numerador
están incluidos en el denominador y, por tanto, ambos datos son el mismo
tipo de magnitud. Por ejemplo, el 51,1% de los inmigrantes en España son
mujeres según los datos del Padrón Municipal de 2016 del Instituto
Nacional de Estadística (INE). Para obtener esta proporción se realiza la
sencilla división entre el número total de mujeres nacidas en el extranjero
residiendo en España y el total de inmigrantes en España.
3.128.501
Proporción de mujeres = *100 =51,1% de los inmigrantes son mujeres
6.123.769

Una de las proporciones más usadas en las ciencias sociales y más


conocidas popularmente es el índice de desempleo o tasa de paro. La tasa
de paro en realidad no es una tasa sino una proporción de los
desempleados entre el total de activos. De forma similar se pueden calcular
proporciones similares como la tasa de ocupación o tasa de actividad.
Número de desempleados
Índice o tasa de desempleo =
Población Activa

5.2. Razones
Igual que en la proporción, en la razón se utilizan datos con el mismo
tipo de magnitud, pero se dividen dos conjuntos o subconjuntos distintos
que no tienen elementos comunes. Uno de los ejemplos más frecuentes es la
razón de masculinidad (o índice de masculinidad), que expresa el número
de hombres respecto al de mujeres. En el caso anterior, de la población
inmigrante en España en 2016, la razón de masculinidad se obtiene
dividiendo el número de hombres inmigrantes entre el de mujeres
inmigrantes, y multiplicando el resultado por cien.
2.995.268
Razón de masculinidad = *100 = 95,7 hombres por cada 100 mujeres
3.128.501

5.3. Tasas
Una tasa es el cociente que resulta al dividir un número de
acontecimientos sucedidos durante un periodo de tiempo entre la
población media existente durante ese periodo. Las tasas resultan de un
gran interés para la investigación porque ponen en relación flujos
(numerador) con stocks (denominador) o, lo que es lo mismo, dan una
medida de la incidencia de los acontecimientos ocurridos en un periodo de
tiempo (flujo) sobre el total de la población en el que han ocurrido (stock).
Con este indicador se puede analizar el número de nacimientos en una
población (tasa de natalidad), el número de personas fallecidas en una
población (tasa de mortalidad) o el número de accidentes laborales sobre el
total de trabajadores (tasa de siniestralidad laboral).
La elaboración de las tasas es igual de sencilla que la de las proporciones
o las razones. La tasa se obtiene dividiendo el acontecimiento durante un
periodo de tiempo (lo más frecuente es usar un año para obtener tasas
anuales) entre la población que los podría experimentar (cuando no se
dispone del dato preciso, dado que la población está constantemente
cambiando, es habitual utilizar la población a mitad de periodo o
población media). Las tasas se suelen expresar en tantos por mil, aunque
dependiendo del tipo de acontecimiento que se estudie es posible
presentarla en tantos por cien o tantos por cien mil.
Por ejemplo, la conocida como Tasa Global de Fecundidad (TFG) o,
simplemente Tasa de Fecundidad, mide los nacimientos por mujer en edad
fértil durante un año en una sociedad determinada. Se calcula dividiendo el
número de nacimientos durante un año entre el total de mujeres entre 15 y
49 años.
Número de nacimientos
TGF = *1.000
Número de mujeres de 15 a 49 años

Aplicando dicha fórmula para el caso de España en 2016, se obtiene que


durante ese año nacieron 38 niños por cada mil mujeres en edad fértil. El
uso de las tasas nos permite realizar con mucha facilidad comparaciones y
analizar series temporales. Por ejemplo, la Tasa Global de Fecundidad en
España en 2008 era muy superior a la mencionada de 2016, con 44,7
nacimientos por cada mil mujeres.
Número de nacimientos 2016
TGF España 2016 =
(Mujeres de 15 a 492016 + Mujeres de 15 a 492017)/2

408.384
= *1.000=38,2
(10.753.208+10.630.498)/2

Otra de las ventajas del uso de tasas es la posibilidad de elaborar tasas


específicas. Se conoce como tasas brutas cuando se construyen en
referencia al conjunto de la población objeto de estudio. Pero también se
pueden utilizar tasas específicas cuando se refieren a un intervalo de edad
determinado, por lo que es muy utilizado en fenómenos demográficos
como la fecundidad y la mortalidad.
6. ÍNDICES
Como ya se abordó en el primer apartado de este capítulo, el proceso de
operacionalización de conceptos complejos, aquellos que requieren más de
un indicador para su estudio, finaliza con la construcción de un índice. Un
índice es una expresión numérica que sintetiza diversos indicadores y
dimensiones de un concepto. Disponer de una variable numérica con la
cual se pueden realizar operaciones estadísticas y aglutina las diversas
dimensiones de un concepto, es una potente herramienta en la
investigación social. Aunque la utilidad de los índices en las Ciencias
Sociales es indudable, conviene recordar que en muchas ocasiones el
investigador no hallará necesaria su construcción, al estar utilizando
conceptos sencillos perfectamente traducibles en una variable o usando un
cociente.
La construcción de un índice conlleva una serie de pasos:
1) El primer paso es recopilar y medir todos los indicadores que lo van a
componer.
2) Un segundo paso es transformarlo en una escala de medición común
que permita agregar los distintos indicadores. Esta transformación
puede ser diversa, consistiendo en sumar puntuaciones, en ponderar
valores numéricos a una escala, etc. En el trabajo sobre calidad del
empleo de Muñoz de Bustillo y colegas (2011) para escalar el indicador
salario, los investigadores dieron un valor de 100 al salario mayor y a
partir de ahí calcularon el resto de salarios en esa escala. Es importante
mantener en todos los indicadores la misma dirección de la escala. En el
ejemplo anterior, los valores más altos siempre deben corresponder con
mayor calidad del empleo.
3) Un tercer paso consiste en ponderar los diferentes indicadores que
componen el índice. Es decir, otorgar un determinado peso a los valores
obtenidos en cada uno de los indicadores, buscando que el índice final
refleje la importancia relativa que el investigador otorga a cada
indicador. Volviendo sobre el ejemplo del Índice de Calidad de Empleo,
el indicador salario tiene un peso del 20% sobre el total del índice final,
muy por encima del peso de cualquiera de los otros indicadores
individualmente (véase Figura 2).
4) Por último, un cuarto paso consiste en la construcción de un índice, se
realiza la operación matemática que da lugar al índice.
Ejemplos
Uno de los índices más conocidos en Ciencias Sociales es el Índice de
Desarrollo Humano (IDH) elaborado por el PNUD y creado por Naciones
Unidas en 1990. El concepto de “desarrollo” es, evidentemente, muy
complejo, y en numerosas ocasiones se tiende a reducir a aspectos
meramente económicos. Para operacionalizar este concepto el PNUD
propuso tres dimensiones que considera claves del desarrollo: salud,
educación y bienestar material (Figura 5). Para cada una de estas
dimensiones se seleccionan variables asociadas que miden esos aspectos.
Así la dimensión de salud se mide a través de la esperanza de vida al nacer;
la educación mediante la tasa o proporción de alfabetización de personas
de 25 años o más y la tasa bruta de matriculación de niños en edad escolar;
y el bienestar económico mediante el PIB per cápita en paridad de poder
adquisitivo.

Figura 5. Cálculo del Índice de Desarrollo Humano del PUND

Fuente: PNUD, 2005: 366.

El resultado al obtener cada uno de estos indicadores es la construcción


de tres índices para cada una de las dimensiones fijadas: índice de salud o
de esperanza de vida, índice de educación e índice de renta o del PIB. Estos
tres índices se construyen transformando sus indicadores en una misma
escala de medición que permita posteriormente agruparlos. Para ello se
tomarían los valores relativos con respecto a los valores máximos y
mínimos. En esta transformación de la escala se emplea la siguiente
fórmula:
Valor xi - valor mínimo
Índice (xi ) =
Valor máximo - valor mínimo

Donde el valor máximo se define conceptualmente como logros fijados


por el PNUD y los mínimos como fases superadas a las que no se debe
retornar. Así el valor máximo en esperanza de vida se fija en 85 años y el
mínimo en 25; en educación, en ambos indicadores el máximo se sitúa en
el 100% y el mínimo en el 0%; y respecto al PIB el máximo está fijado en
40.000$ PPA y el mínimo en 100$ PPA. El resultado es un valor entre 0 y
1, con independencia de las unidades en las que originalmente se medía
cada una de esas variables, por lo que tras esta operación los diferentes
indicadores son comparables y se pasan a enunciar en distancias relativas.
Por ejemplo, en el IDH de 2015 España tenía una esperanza de vida al
nacer de 82,8 años, por lo que su índice de salud fue: 0,963.
82,8-25
Índice SaludEspaña 2015 = = 0,963
85-25

Una vez que los tres índices están expresados en las mismas unidades, se
calcula el Índice de Desarrollo Humano como una media de las tres
dimensiones consideradas. En este caso el PNUD no aplica ninguna
ponderación especial, otorgando igual peso a las tres dimensiones (un
tercio cada una de ellas). El índice final oscila entre 0 y 1, donde cuanto
más cercano a 1 mayor es el desarrollo humano de ese país o región.
Índice Salud + Índice Educación + Índice PIB
IHD =
3

Antes de finalizar este capítulo, conviene detenerse en la construcción de


otro índice muy utilizado en las Ciencias Sociales: el Índice de Gini de
desigualdad. Más que un índice como los que se acaban de explicar el
índice de Gini es un coeficiente que permite interpretar el grado de
desigualdad de los ingresos que hay en una sociedad determinada. Por
tanto, se centra en una sola dimensión de la desigualdad, los ingresos, y
toma un único indicador, la distribución de la renta en un país o región.
Para su elaboración, en primer lugar, se ordena al total de los individuos
en función de su renta y se calcula el porcentaje acumulado de población y
de renta correspondiente a cada individuo. La Figura 6 muestra un ejemplo
muy sencillo de este proceso. Se observa que el 0% de la población se lleva
obviamente el 0% de renta; el 33,3% de población más pobre se lleva el
5% de la renta total; el 66,6% de población más pobre se lleva el 25% de
renta, y el 100% de la población se lleva obviamente el 100% de la renta.
En la realidad es imposible representar el conjunto de todos los individuos,
por eso es habitual utilizar los deciles o quintiles de renta.
Con esta información se construye la conocida como curva de Lorenz. La
curva de Lorenz es una representación gráfica de la distribución de los
ingresos que en el eje de la x sitúa la población acumulada y en el eje de la
y la renta acumulada por la población. Siguiendo con los datos del
ejemplo, la Figura 7 presenta una curva de Lorenz. Cuando la curva de
Lorenz coincide con la diagonal entonces se está ante la total igualdad. Y
cuando la curva de Lorenz está sobre el eje horizontal hasta el punto 100
donde sube hasta el 100% de renta se está ante una total desigualdad.

Figura 6. Tratamiento de los datos para la construcción del índice de Gini y la curva de Lorenz
Renta
Población Población (%) Población acumulada (%) Renta Renta (%) acumulada
(%)
Individuo 2 1 33,3 33,3 1 5 5
Individuo 3 1 33,3 66,6 4 20 25
Individuo 1 1 33,3 100 15 75 100
Total 3 100 20

Fuente: elaboración propia.

Figura 7. Curva de Lorenz


Fuente: elaboración propia.

El índice de Gini se calcula entonces siguiendo la siguiente fórmula:


Área entre la Curva de Lorenz y la Diagonal
Índice de GINI =
Área bajo la diagonal

El valor resultante del índice oscila entre 0 y 1. Siendo 0 la igualdad total


(la curva de Lorenz se sitúa sobre la diagonal y el área es 0) y 1 la
desigualdad total (el área entre la curva de Lorenz y la diagonal es igual al
área bajo la diagonal).
La principal ventaja de usar el índice de Gini es que en un solo valor se
obtiene una medida representativa de la desigualdad de ingresos que
permite fácilmente realizar comparaciones entre países (al no considerar el
tamaño del país o de su economía) y examinar su evolución temporal. Por
ejemplo, en España a raíz de la crisis económica se pasó de un índice de
Gini de 0,324 en 2008 a un índice de Gini de 0,345 en 2015; o lo que es lo
mismo, la desigualdad de la renta aumentó ligeramente.
7. BIBLIOGRAFÍA
Cea D’Ancona, M. A. (1998). Metodología cuantitativa. Estrategias y técnicas de investigación
social. Madrid: Síntesis.
Corbetta, P. (2007). Metodología y técnicas de investigación social. Madrid: MacGraw-Hill.
González Blasco, P. (1989). “Medir en las Ciencias Sociales”. En El análisis de la realidad social,
editado por M. García-Ferrrando. Madrid: Alianza, pp. 227-286.
Inglehart, R. (2000). Modernización y posmodernización. El cambio cultural, económico y político
en 43 sociedades. Madrid: Centro de Investigaciones Sociológicas.
Lazarsfeld, P. F. (1973). “De los conceptos a los índices empíricos”. En Metodología de las Ciencias
Sociales. Conceptos e índices, editado por R. Boudon y P. F. Lazarsfeld, Barcelona: Laia, vol. I,
pp. 35-46.
Muñoz de Bustillo. R., Fernández-Macías. E., Antón. J. I. y Esteve. F. (2011). Measuring more than
money. The social economics of job quality. Chelthenham: Edward Elgar.
Pérez Díaz, J. (2010). Cocientes demográficos: tasas, probabilidades, razones y proporciones.
apuntesdedemografía.com, 15 de junio, Madrid: Centro de Ciencias Humanas y Sociales del
CSIC.
PNUD (2005). Informe sobre Desarrollo Humano 2005. La cooperación internacional ante la
encrucijada. Nueva York: Mundi-Prensa.
% de la renta de la población

% de la población
Capítulo 11
EL DISEÑO DE GRÁFICOS Y TABLAS
Juan Ignacio Martínez Pastor
Universidad Nacional de Educación a Distancia

1. REPRESENTACIÓN GRÁFICA DE DATOS


El propósito de este capítulo es ofrecer las claves de lo que es un buen
gráfico. El asunto podría resumirse en que un buen gráfico vale más que
mil palabras (Firebaugh, 2008: 51). Un gráfico es una representación de
números. La diferencia entre uno bueno y uno malo es que el bueno los
representa de manera clara, precisa y eficiente. Este capítulo no trata de
explicar paso a paso cómo hacer un gráfico. Todos los gráficos que aquí se
representan se han realizado con Excel y la manera de hacerlos es muy
sencilla. De hecho, muchos de los lectores ya sabrán cómo realizar un
gráfico de líneas, de barras, de sectores o de burbujas. El que no esté
familiarizado con la forma de hacerlos, no debe asustarse. Basta con
probar diferentes opciones en el propio Excel para dar con la clave sin
mucho esfuerzo. Si de todos modos no se sabe cómo realizar un gráfico
concreto, en la era de la información basta una búsqueda en internet para
solucionarlo fácilmente. Lo mismo sucede con los gráficos hechos con los
programas estadísticos más usados en las Ciencias Sociales, como el SPSS o
el STATA. Este capítulo trata, en cambio, de que el que maneja datos se
cuestione cuál es la mejor forma de expresarlos, si merece la pena
representarlos gráficamente o no, y cómo.
Cualquiera puede llegar a ser (casi) un experto en gráficos sin muchas
dificultades. Tan solo hay que aplicar el sentido común, estar algo
familiarizado con los gráficos más habituales, observar el que hemos
construido y compararlo con otras formas de expresar los datos, como las
tablas o las palabras. Si el gráfico nos convence más que las formas
alternativas, es un buen gráfico. Este texto se estructura alrededor de una
serie de puntos que definen lo que es un gráfico excelente. Una vez
expuestos someramente, se presentarán y comentarán ejemplos reales a
partir de dichos puntos. Como se verá, el recorrido a lo largo de los
ejemplos nos llevará por los gráficos más utilizados.
Sin duda, Tufte (1983, 1997) es el autor que mejor ha explicado lo que
debe ser un buen gráfico. Siguiendo su obra, los aspectos que más resalta y
sobre los que más consenso hay son los siguientes. Los buenos gráficos:
– Revelan lo que dicen los datos.
– Y son fieles a ellos, no los distorsionan.
– Inducen a pensar en lo sustantivo.
– Son eficientes: representan muchos números en poco espacio.
– Dan sentido visualmente a grandes conjuntos de datos.
– Son coherentes y están integrados en las descripciones estadísticas y
verbales.
– Y son multivariables.
2. ¿ES NECESARIO HACER UN GRÁFICO?
La primera pregunta que uno ha de hacerse cuando se plantea representar
unos datos no es qué tipo de gráfico utilizar, sino si conviene hacerlo. Por
ejemplo, los gráficos de sectores, también conocidos como gráficos de
pastel, suelen representar una sola variable. El gráfico 1 representa los
niveles de estudio de las mujeres nacidas en España entre 1976-80 en tanto
por ciento. ¿Es útil este tipo de gráficos? En los trabajos académicos no se
suele representar gráficamente una sola variable, puesto que no es eficiente.
Esos mismos datos pueden expresarse mediante palabras en la misma
redacción del trabajo: el 32% de las nacidas entre 1976-80 posee un título
universitario; el 37% de ellas tiene educación secundaria; el 21% FP, el
7% no fue más allá de la primaria y el 2% no tiene estudios. Esa es una
forma más eficiente de contar lo que dicen los datos, por lo que no se suele
gastar espacio ni tinta con este tipo de gráficos (o en sus equivalentes de
barras cuando reflejan una estadística univariada muy simple). Otra
cuestión son las presentaciones públicas o los informes no académicos. En
esos casos es más habitual representar gráficamente una variable clave
mediante el gráfico de sectores o de barras para hacer más ágil la lectura o
acompañar visualmente lo que se está diciendo.
Más allá de este ejemplo, en todos los gráficos hay varias cuestiones que
han de resaltarse. La primera, que deben llevar un título, algo que parece
evidente pero que en ocasiones se olvida. La segunda, que justo debajo del
gráfico se debe indicar la fuente de donde han salido los datos y el autor
del gráfico. La tercera, que si utilizamos repetidamente las mismas
categorías de alguna variable a lo largo de la investigación, su
representación gráfica debe mantener los mismos colores. En el ejemplo se
ve cómo los niveles de estudio comunes en ambos gráficos (1 y 2) tienen el
mismo color.
Además de estas reglas elementales y válidas para todos los gráficos, en
caso de utilizar el de sectores en algún informe o presentación, conviene
poner numéricamente los datos que representa cada porción, ya que de lo
contrario se pierde precisión, puesto que a simple vista es muy difícil saber
cuánto representa un área con exactitud. Es más, tal y como se ve en el
gráfico 2, además de representar numéricamente el porcentaje de mujeres
con los distintos niveles de estudio, también se indica dentro de cada sector
la categoría a la que corresponde. De este modo, de un solo vistazo vemos
la proporción de mujeres de esa generación en función del nivel de
estudios. Además, el gráfico 2 desglosa qué proporción de universitarias
son medias (diplomadas) y superiores (licenciadas). Estas opciones también
existen en los gráficos de barras. De todos modos, hay que subrayar que en
los trabajos académicos en Ciencias Sociales no se suelen representar
gráficamente los datos de una sola variable: no es eficiente.

Gráficos 1 y 2. Niveles de estudio de las mujeres nacidas entre 1976-80 (%)

Fuente: EPA, IV trimestre de 2007


Elaboración propia.
3. COMPARAR, RESALTAR DIFERENCIAS Y
DESTACAR TENDENCIAS
El siguiente gráfico representa los niveles de estudio para las mujeres
nacidas en España entre 1936-40 y 1976-80, divididas en cinco cohortes
quinquenales. Se trata de un gráfico de barras apiladas, una de las opciones
del gráfico de barras. Este gráfico representa un conjunto mayor de datos y
relaciona dos variables: la cohorte de nacimiento y los niveles de estudio.
Además, facilita la comparación de datos, destaca las tendencias y resalta
las diferencias, una de las cualidades que debe tener un buen gráfico. En él
se aprecia claramente cómo a medida que la cohorte es más reciente,
disminuye la proporción de mujeres con bajos niveles de estudio. En este
tipo de gráfico las barras también pueden ser representadas
horizontalmente. Por otra parte, y aunque de esto hablaremos más
adelante, obsérvese que el fondo del gráfico es blanco, no gris ni de otro
color. A diferencia de los gráficos 1 y 2, en el gráfico 3 entran en juego más
de una variable, sirve para comparar y destaca visualmente tendencias.

Gráfico 3. Nivel de estudios de las mujeres nacidas entre 1936-40 y 1976-80

Fuente: EPA, IV trimestre de 2007.


Elaboración propia.
4. SER EFICIENTE, CONTAR UNA HISTORIA
Otras de las virtudes de un buen gráfico es que represente muchos datos
en poco espacio y que cuente una historia. El siguiente ejemplo cuenta una
gran historia: la incorporación de las mujeres al mercado laboral en
España. ¿Cuál es la mejor forma de que el lector la vea? Una posible es
mediante una tabla. La tabla 1 presenta una gran cantidad de datos. En
concreto, se trata de la tasa de empleo para las mujeres nacidas entre 1941-
45 y 1986-90 en un rango de edad que va desde los 16 hasta los 65-69
años. En este caso es más útil su representación gráfica. Se trata de tres
variables: la tasa de empleo, la edad y la cohorte de nacimiento.
Básicamente, estos datos nos muestran la evolución de la tasa de empleo
para 10 cohortes quinquenales a medida que cumplen años. Los datos
provienen de las EPAs realizadas entre 1976 y 2015. Para algunas cohortes
no se tienen las trayectorias completas, ya que no existen datos en formato
digital antes de 1976. De este modo, por ejemplo, el primer dato
disponible para las nacidas entre 1941-45 se corresponde con los 31-35
años (1976), y así para el resto de edades y cohortes.

Tabla 1. Tasa de empleo de las mujeres nacidas entre 1941-45 y 1986-90 por edades
Fuente: EPA, todos los trimestres desde el tercero de 1976 hasta el IV de 2015.

El gráfico de líneas es ideal para representar este tipo de datos en el que


están involucradas tres variables e implica describir la evolución a lo largo
del tiempo de la variable clave. Como se aprecia en el gráfico 4, el gráfico
de líneas es un buen ejemplo de eficiencia, puesto que representa muchos
números en poco espacio, y además da sentido visual a un gran conjunto
de datos. En él se ve la progresiva incorporación de las mujeres al mercado
laboral e incluso los efectos de los ciclos económicos en las trayectorias de
las diferentes cohortes de nacimiento. La brecha en la tasa de empleo de las
mujeres nacidas en los años 40 y las nacidas en los 70 cuando están en su
treintena cuenta la historia de uno de los cambios sociales más importantes
de España. Como regla general, en los gráficos de líneas conviene poner el
título en los ejes para facilitar la lectura. En resumen, este gráfico organiza
un gran conjunto de números, compara datos, es eficiente y cuenta una
historia.

Gráfico 4. Tasa de empleo de las mujeres nacidas entre 1941-45 y 1981-85 por edades

Fuente: EPA, todos los trimestres desde el tercero de 1979 hasta el IV de 2015.
Elaboración propia.
El siguiente gráfico, también de líneas, es otro ejemplo de cómo un buen
gráfico puede ser muy útil para exponer un hecho, en este caso el retraso
de la edad de entrada en el mercado laboral; e incluso para exponer o
razonar una política, como la posibilidad de variar la edad de jubilación en
función de los años cotizados a la Seguridad Social. En el gráfico se aprecia
que el 25% de los nacidos entre 1971-75 ya había sido alguna vez
laboralmente activo a los 16 años. La proporción para los nacidos en la
primera mitad de los años 30 es del 77%.

Gráfico 5. Proporción de varones alguna vez activos por cohortes de nacimiento y edades

Fuente: Encuesta Sociodemográfica de 1991


Elaboración propia.
5. DESVELAR LO QUE DICEN LOS DATOS: LAS
RELACIONES ENTRE VARIABLES
Algunos tipos de gráficos son muy apropiados para desvelar lo que dicen
los datos. En este sentido, conviene reproducir un ejemplo expuesto por
Tufte (1983:13-14) sobre la utilidad de la representación gráfica. Las dos
tablas siguientes muestran una serie de valores para dos variables, X e Y.
Las medias, las ecuaciones de las rectas de regresión, los errores estándares
de las pendientes estimadas, el coeficiente de correlación y el r2 son los
mismos. Sin embargo, como se aprecia en el gráfico 6, la representación
gráfica de ambas tablas difiere notablemente.
Tabla 3 Tabla 4
X Y X Y
10 7,46 10 9,14
8 6,77 8 8,14 n=11
13 12,74 13 8,74 Media de X=9,0
9 7,11 9 8,77 Media de Y=7,5
11 7,81 11 9,26 Recta de regresión Y=3+0,5X
14 8,84 14 8,1 Error estándar de la pendiente estimada=0,118
6 6,08 6 6,13 t=4,24
4 5,39 4 3,1 coeficiente de correlación=0,82

12 8,15 12 9,13 r2 =0,67


7 6,42 7 7,26
5 5,73 5 4,74

Fuente: Tufte (1983:14-15)

Gráficos 6 y 7, correspondientes a las tablas 3 y 4


Fuente: Tufte (1983:14-15)

En este caso se ha empleado un simple gráfico de dispersión. Se trata de


un ejemplo paradigmático del primer punto de lo que es un buen gráfico:
desvela lo que dicen los datos. Este ejemplo también es muy ilustrativo
sobre el hecho de que un gráfico puede ser la mejor manera de descubrir
cuál es la relación entre variables y de que, en ocasiones, su representación
gráfica no sólo es aconsejable, sino también imprescindible. En este
ejemplo el gráfico es muy útil para formular hipótesis sobre la relación
entre las variables y para guiar el análisis estadístico de los datos, algo muy
difícil de determinar viendo los números de las tablas (Zinovyev, 2010).
Un ejemplo típico en el que los gráficos desvelan las relaciones entre
variables proviene de los análisis multivariables como los de regresión.
Esto suele suceder cuando se tiene alguna variable continua y se quiere ver
la variación de la variable dependiente en función de la continua y de otras
incluidas en el modelo. La tabla 5 presenta las salidas de una regresión
logística sobre la probabilidad de haberse casado para las mujeres en
España. El modelo incluye los niveles de estudio, introducidos como
variables dicotómicas, y la edad, introducida como variable continua para
este ejemplo. Si quisiéramos comparar las probabilidades de haberse
casado en diferentes edades para las mujeres con diferentes niveles
educativos, un gráfico de líneas es la mejor opción. Como se aprecia en la
figura, la comparación entre las bachilleres elementales (secundaria
inferior) y las universitarias, queda muy clara para cada edad, cosa
imposible de ver con la tabla de regresión.

Tabla 5. Coeficientes de regresión logística sobre la probabilidad de haberse casado. Mujeres


B S.E. Wald df Sig. Exp(B)
Analfabeta -0,86 0,01 21601 1 0,00 0,42
Sin estudios -0,46 0,00 16956 1 0,00 0,63
Primaria -0,14 0,00 3921 1 0,00 0,87
Bach.elem (ref)
FP1 o equiv. -0,24 0,00 8152 1 0,00 0,79
Bach. superior -0,27 0,00 14828 1 0,00 0,76
FP2 o equiv. -0,27 0,00 10583 1 0,00 0,76
Univ. Med. -0,64 0,00 71046 1 0,00 0,53
Univ. Sup. -0,75 0,00 110284 1 0,00 0,47
Edad 0,09 0,00 2257828 1 0,00 1,10
Constante -2,29 0,00 856599 1 0,00 0,10

Fuente: EPA, tercer trimestre de 2005.


Cálculos propios.

Gráfico 8. Probabilidad de haberse casado. Mujeres con secundaria inferior y universitarias superiores

Fuente: EPA, IV trimestre de 2005


Elaboración propia.
6. SER FIEL A LOS DATOS, NO DISTORSIONARLOS
Como hemos visto, los gráficos son una herramienta muy potente para
descubrir tendencias, comparar datos y guiar los análisis; pero también
pueden ser muy útiles para la manipulación. En efecto, los gráficos son un
terreno abonado para presentar los datos de manera sesgada. Tal y como
advierte Firebaugh (2008: 1), el científico social debe estar abierto a la
sorpresa. Eso implica que muchas veces los datos no confirman nuestras
hipótesis. Una buena investigación no tiene por qué confirmar las hipótesis
de partida, sino que también puede ser brillante rechazándolas. En este
sentido, hay que tener claro que las Ciencias Sociales no operan como la
abogacía, que presenta evidencias sesgadas al tener que defender intereses
determinados. Por el contrario, el investigador académico debe ser honesto
a la hora de presentar los datos, incluso cuando vayan contra sus hipótesis,
sus intereses o su ideología.
Los siguientes gráficos representan un mismo conjunto de datos: la
evolución del número de ocupados en España entre 2007 y 2013, años de
crisis económica. En esos años el número de ocupados descendió algo más
de 3,5 millones de individuos. La manera de representar ese descenso
influye en la percepción del fenómeno. Así, en el gráfico 9 se observa una
línea con una gran inclinación, dando la sensación de una fuerte pérdida de
empleo. En cambio, en el siguiente gráfico, que representa los mismos
datos, la línea tiene una pendiente muchísimo menor, lo que da una
sensación de menor pérdida. Se trata de un ejemplo real de cómo en
función de la escala que se utilice, en este caso en el eje vertical, cambia
radicalmente la representación de datos y, por lo tanto, su percepción
(Huff, 1954: capítulo 5).

Gráficos 9 y 10. Número de ocupados en España entre 2007 y 2013


Fuente: EPA, todos los trimestres desde el primero de 2007 hasta el cuarto de 2013.
Elaboración propia.
En este ejemplo, para ser honestos y no distorsionar los datos, habría que
representar una serie temporal lo más larga posible para contextualizar
mejor la caída del empleo durante la crisis de 2007-2013. El gráfico 11
representa la evolución del número de ocupados entre 1976 (primer año en
el que existe la EPA en formato digital) y 2013. En dicho gráfico se aprecia
que, en efecto, en números absolutos, la pérdida de empleo fue la mayor de
la serie histórica; pero también que incluso en 2013, tras haber perdido 3,5
millones de ocupados, el número total de individuos ocupados en España
era de los mayores de la misma serie, muy por encima de las mejores
épocas de los anteriores ciclos económicos.

Gráfico 11. Número de ocupados en España entre 1976 y 2013

Fuente: EPA, todos los trimestres desde el tercero de 2007 hasta el cuarto de 2013.
Elaboración propia.

Este tipo de gráficos también permite combinar varias series de datos


correspondientes a distintos indicadores utilizando los dos ejes verticales.
El gráfico 12 representa el número de ocupados y la tasa de paro en
España entre 1976 y 2016. El eje vertical derecho sirve para las referencias
de la tasa de paro, mientras que el izquierdo, para el número de ocupados.
Este gráfico expresa visualmente dos series largas de datos, refleja
tendencias de manera clara y sirve además para contrastar la variación
conjunta de ambas series: la del paro y la de los ocupados. Para preservar
la sencillez del gráfico y facilitar su lectura, se indica explícitamente dentro
del gráfico cuáles son los ejes de referencia para cada serie, el derecho o el
izquierdo.

Gráfico 12. Número de ocupados y tasa de paro en España (1976-2016)

Fuente: EPA, todos los trimestres desde el primero de 1976 hasta el cuarto de 2016.
Elaboración propia.
7. EL RATIO ENTRE LOS DATOS Y LA TINTA: EL
ORNATO ES PECADO
Dentro del sentido común, conviene representar los gráficos de manera
sencilla y eliminar los elementos prescindibles. Los buenos gráficos en
Ciencias Sociales son ligeros, se ven muchas ideas y necesitan poca tinta.
Por ello, y pese a que las posibilidades de tramas, rejillas, rayas y colores
de fondo que nos ofrecen los programas de gráficos son casi infinitas,
conviene no usarlas a no ser que sean imprescindibles para diferenciar o
resaltar algún elemento. Los siguientes gráficos son una prueba de que se
pueden evitar. Se trata de gráficos de barras horizontales que representan
las puntuaciones medias de la prueba de matemáticas PISA de 2012 para
34 países. En el primer gráfico aparecen explícitamente las barras. El
gráfico es muy ilustrativo y aporta mucha información, ya que no solo nos
da las medias, sino también los intervalos de confianza al 95%. Gracias a
ello se observa que, por ejemplo, la media que obtuvieron en la prueba de
matemáticas los alumnos en España no difiere significativamente de la que
obtuvieron los alumnos en el Reino Unido, Luxemburgo, Noruega,
Portugal, Italia, Eslovaquia, Estados Unidos, Suecia y Hungría.

Gráfico 13. Puntuaciones medias en matemáticas. PISA 2012


Fuente: PISA 2012. Programa para la Evaluación Internacional de los Alumnos. Informe español.
Elaboración propia.

El mismo gráfico se puede representar eliminando las barras y dejando


solo las medias y los intervalos de confianza. Se trata de un diseño más
minimalista que facilita la visión y comprensión de los datos (gráfico 14).
No obstante, el lector observará que las puntuaciones medias aparecen
entre paréntesis junto al nombre de los países, y que se mantienen los
marcadores del eje horizontal para facilitar la lectura. En este sentido,
Inbar et al. (2007) demostraron que un exceso de minimalismo (por
ejemplo, eliminando los marcadores) dificulta la lectura de los datos.
Asimismo, en el gráfico las puntuaciones van entre 400 y 580 con una
separación de 10 en 10 puntos. Poner separaciones más amplias
dificultaría la lectura1. Estos gráficos de barras con sus intervalos de
confianza también son muy útiles para representar los resultados de un
análisis de regresión. Al representar gráficamente los intervalos de
confianza de los coeficientes o de otras estimaciones de los modelos, se
logra una gran transparencia acerca del grado de precisión de nuestras
estimaciones (Bernardi et al., 2017).
Gráfico 14. Puntuaciones medias en matemáticas. PISA 2012
Fuente: PISA 2012. Programa para la Evaluación Internacional de los Alumnos. Informe español.
Elaboración propia.
1
Este mismo gráfico puede representarse con uno de barras verticales en lugar de horizontales.
8. MEJOR LOS GRÁFICOS MULTIVARIABLES
En su libro sobre representación gráfica de datos, Tufte (1983:51) señala
que para que un gráfico sea excelente debe ser multivariable. Salvo en el
gráfico de sectores, cuyo uso no suele ser recomendable en artículos o
libros de carácter académico por poco eficiente, los gráficos presentados a
lo largo de este capítulo han sido multivariables; es decir, han estado
implicadas al menos dos o tres variables. Pese a que los gráficos de líneas y
de barras son los más habituales en las ciencias sociales, existen otros
gráficos que son de gran ayuda a la hora de representar varias variables al
mismo tiempo.
Uno de ellos es el radial. Este gráfico es útil cuando se quiere comparar
una magnitud entre distintas categorías. El gráfico 15 representa el grado
de rigidez en el mercado laboral para 11 países en dos momentos: 1985 y
2013. Se trata de un indicador elaborado por la OCDE. En el gráfico están
representadas tres variables: la rigidez de los mercados laborales, los países
y los años. Además, establece dos comparaciones claras de un vistazo: la de
los países entre sí y de la de los propios países consigo mismos en dos
momentos del tiempo.
Gráfico 15. Grado de rigidez de la legislación laboral

Fuente: OCDE database.


Este gráfico es muy valioso ya que por sí solo comprueba una hipótesis
muy extendida en la Sociología del Trabajo: que los mercados laborales se
han vuelto menos rígidos (más flexibles) a lo largo de las últimas décadas.
El gráfico demuestra, en primer lugar, que hay grandes diferencias en la
rigidez de los mercados laborales dependiendo de los países, siendo los que
tienen un régimen liberal de Estado del Bienestar los menos rígidos. En
segundo lugar, la diferencia en las áreas demuestra que, según el indicador
de la OCDE, los mercados laborales se han vuelto menos rígidos; pero
fundamentalmente en España y no tanto en los otros países. Este hecho se
ve claramente gracias a este gráfico comparando las áreas demarcadas por
las líneas con círculos (1985) y con triángulos (2013). Cabe destacar que
España era en 1985 el país con una legislación más rígida de los 11
representados.
Otro tipo de gráfico muy útil a la hora de representar relaciones
multivariables es el de burbujas2. El gráfico 16 representa la relación entre
el índice sintético de fecundidad (ISF), la esperanza de vida al nacer y el
tamaño de la población en España en 1900, 1950 y el año 2000. El índice
sintético de fecundidad (ISF) está representado en el eje vertical, mientras
que la esperanza de vida al nacer, en el horizontal. El tamaño de la
población está representado por las burbujas. Este gráfico expresa
visualmente la relación entre las 3 variables, que revela una tendencia bien
conocida en la demografía. En 1900, el número medio de hijos por mujer
(el ISF) era muy alto, 4,71; la esperanza de vida al nacer, muy baja, de 34,8
años; mientras que el tamaño de la población llegaba a los 18,8 millones.
En el año 2000 se observa que el ISF era de 1,2 hijos, la esperanza de vida
de 79 años y el tamaño de la población, de casi 41 millones. El gráfico
expresa el hecho aparentemente paradójico de que un gran descenso en el
número medio de hijos por mujer no ha conllevado una reducción del
tamaño de la población, sino un aumento debido a que en paralelo la
esperanza de vida al nacer se ha más que duplicado a lo largo del siglo XX.
El gráfico representa bien la transición demográfica en España y cuenta
una historia interesante.
Dado que el tamaño de las burbujas por sí solo no permite saber con
precisión los datos, en el ejemplo se ha optado por indicarlos dentro de y
junto a las burbujas. Si bien este gráfico sacrifica en parte una exposición
precisa de los datos, visualmente es poderoso y aclara la relación entre las
variables.
Gráfico 16. Relación entre el índice sintético de fecundidad, la esperanza de vida al nacer y el tamaño de
la población. España: 1900, 1950 y 2000

Fuente: INE.
Elaboración propia.

Un ejemplo excelente de los gráficos de burbujas sobre la evolución de la


relación entre los ingresos y la esperanza de vida en 200 países entre 1810
y 2009 fue realizada por Hans Rosling con la colaboración de la BBC y
puede verse en Youtube. Se encuentra en Google tecleando simplemente
“Hans Rosling 200 countries” (https://www.youtube.com/watch?
v=jbkSRLYSojo). Es un ejemplo magistral, ya que es un gráfico animado e
interactivo que refleja más de 120.000 números y resume la historia de la
humanidad durante los siglos XIX y XX en menos de 4 minutos.
Por último, cabe mencionar que cuando un documento contiene varios
gráficos separados que representan elementos comparables, es necesario
utilizar la misma escala en todos ellos, puesto que de lo contrario
estaríamos sesgando las comparaciones. Además, para facilitar la
comparación, si a lo largo de un texto utilizamos gráficos que representan
las mismas categorías de una o varias variables, es recomendable utilizar
los mismos colores para facilitar las comparaciones y la lectura.
2
El cartograma es otro tipo de gráfico bastante utilizado para representar gráficamente una gran
cantidad de datos en función de varias variables. Para una buena explicación sobre cómo hacer
distintos tipos de mapa y obtener buenas representaciones visuales, ver Rodrígues-Silveira
(2013).
9. BIBLIOGRAFÍA
Bernardi, F.; Chakhaia, L. y Leopold, L. (2017). ‘Sing Me a Song with Social Significance’: The
(Mis)Use of Statistical Significance Testing in European Sociological Research. European
Sociological Review, 33(1): 1-15.
Firebaugh, G. (2008). Seven Rules for Social Research. Princeton and Oxford: Princeton University
Press.
Huff, D. (1954). How to Lie with Statistics. Nueva York: W.W. Norton & Company Inc.
Inbar, I.; Tractinsky, N. y Meyer, J. (2007). Minimalism in information visualization: attitudes
towards maximizing the data-ink ratio. En http://portal.acm.org/citation.cfm?id=1362587 (último
acceso el 15 de mayo de 2017).
Tufte, E. R. (1983). The Visual Display of Quantitative Information. Cheshire, Conn.: Graphics
Press.
Tufte, E. R. (1997). Visual Explanations: images and quantities, evidence and narrative. Cheshire,
Conn.: Graphics Press.
Rodrígues-Silveira, R. (2013). Representación espacial y mapas. Madrid: Centro de Investigaciones
Sociológicas.
Zinovyev, A. (2010). Data visualization in political and social sciences. En http://arxiv.org/abs/1008
(último acceso 15 de mayo de 2017).
1985

2013
Capítulo 12
HACER QUE HABLEN LOS DATOS: CÓMO
ESCRIBIR LOS RESULTADOS NUMÉRICOS
Juan Sebastián Fernández Prados
Universidad de Almería

1. INTRODUCCIÓN: EL RELATO ESTADÍSTICO


Los datos numéricos pueden ser fascinantes o tediosos, atractivos o
repulsivos; una retahíla de porcentajes, frecuencias o cifras pueden hacer
que lo importante se pierda en esa maraña o que el lector u oyente cierre el
informe para siempre o desconecte pensando en la próxima declaración de
la renta. De este preámbulo se obtiene la conclusión de que es preciso
reflexionar previamente sobre cómo debemos presentar los resultados
numéricos y cómo vamos a redactar el informe de los mismos en nuestro
trabajo final de estudios. Se trata, como indica Naciones Unidas (2009a),
de crear un relato estadístico que no sólo enumera datos en forma de
palabras, sino que debe contarnos algo sobre ellos.
Existen distintas formas de mostrar los mismos datos: desde las
presentaciones escritas o comentarios sociológicos hasta las más modernas
presentaciones multimedia, pasando por las clásicas tablas y gráficas. La
decisión de optar por uno u otro camino va a depender de multitud de
variables, tales como, el público al que está destinado, el medio que se vaya
a utilizar, los recursos disponibles, el tiempo, material de investigación, etc.
Con respecto al público, un excesivo número de coeficientes estadísticos y
análisis complejos o estadística avanzada puede llegar a confundir a
personas no especializadas, mientras que los detalles y reflexiones que
pueden aportar éstos serán imprescindibles para el experto. Con relación al
medio oral o escrito es obvio que la exposición oral requerirá de mayor
número de elementos visuales gráficos que en el texto escrito. Y por
último, el tiempo y el material de investigación, resultado del trabajo de
campo, condicionará la extensión y otros aspectos del informe (Fink,
2003). En nuestro caso nos centraremos en la redacción de informes
técnicos de los resultados numéricos para el ámbito académico, por escrito
y con una extensión media.
Antes de nada, hay que recordar la importancia de conocer previamente,
leer atentamente y aplicar las orientaciones, protocolos o instrucciones que
nos ofrezca la institución académica que nos solicita el informe o trabajo
final de estudio. En este sentido, cada universidad ha desarrollado un
reglamento o normativa que viene a concretarse en las guías docentes
elaboradas por las facultades o centros responsables de las asignaturas
trabajo final de estudio, ya sean grados o másteres. Así, tanto las
orientaciones prácticas y formales como los criterios de evaluación o
rúbricas, pueden sernos útiles a la hora de redactar nuestro trabajo para
que se ajuste a lo que nos demandan.
2. OBJETIVOS EN LA REDACCIÓN DE UN INFORME
TÉCNICO: RELEVANCIA, EVIDENCIA Y CLARIDAD
Existen multitud de manuales, guías y libros de estilo que aportan
orientaciones y ejemplos prácticos no solo para realizar una presentación
formal adecuada sino también para el buen hacer en el campo de la
redacción y comentarios de los resultados (Rodríguez, 1997; Velilla, 2002;
Beins, 2012; Marín 2015). Los objetivos primordiales de un buen informe
responden a las cuestiones sobre qué informar, para qué y cómo hacerlo.
Dicho de otra manera, debe mostrarnos los resultados más relevantes de
nuestro estudio, las pruebas o evidencias de las hipótesis y una
presentación clara, concisa y sencilla:
a) En primer lugar, hay que extraer los resultados más significativos
hallados, aquellos que por su relevancia merezcan la pena ser resaltados
y expuestos, esto quiere decir que no todos los hallazgos son dignos de
ser comentados. Lo relevante puede estar definido por el interés social
que hayamos justificado inicialmente, por los criterios de la comunidad
científica que encontremos en la revisión bibliográfica y finalmente por
el propio investigador y estudio.
En función de estos criterios de relevancia extraemos argumentaciones o
afirmaciones de los resultados con tres tipos de estrategias analíticas:
descriptivas, correlacionales o explicativas. En el primer caso lo
apoyaremos con tablas porcentuales, en el segundo apuntaremos las
covariaciones de un conjunto de variables en una matriz de doble
entrada, y en el tercero elaboraremos análisis más sofisticados y
exigentes donde se presentan relaciones causales entre variables
independientes, las que explican, y la dependiente, la explicada. Cada
cuadro, tabla o gráfica bien construida, nos ofrece la oportunidad de
redactar dos o tres comentarios destacables (Fernández y Rojas, 1998).
b) Nuestro objetivo tiene que ser recopilar evidencias y muestras certeras
que hagan aceptar o rechazar nuestra hipótesis inicial (Hernández,
Fernández y Baptista, 2015). Aunque la certeza absoluta no existe nada
más que en la mente de los ingenuos. La realidad social como objeto
complejo y las limitaciones del sujeto, que pretende comprenderla,
hacen prácticamente imposible afirmar, de un modo taxativo, verdades
con rango universal. Esto quiere decir que el tono que debe predominar
en los informes de investigaciones sociales es el de la cautela y la
prudencia sin caer en la más pura vaciedad e inanidad de contenidos
(De Miguel, 1997).
c) Los juicios de orden valorativo, moral o prescriptivo deben ser
desterrados de los informes sociológicos. También hay que añadir, en el
plano más estrictamente estilístico, que es conveniente evitar las
redundancias, digresiones, explicaciones innecesarias,
sobrevaloraciones, calificativos, frases colgantes. El objetivo de la
redacción es conseguir la mayor claridad, concisión y sencillez posible
(Naciones Unidas, 2009b). Un lenguaje sencillo es más rápido de leer,
consigue transmitir el mensaje a mayor velocidad, con mayor facilidad
y de una manera más cercana.
Aunque se pueda dar por sobreentendido en el ámbito universitario, no
es extraño encontrar textos con errores ortográficos o gramaticales. Para
resolver nuestras dudas y escribir con corrección, disponemos de dos
recursos inestimables, ambos fáciles de consultar a través de internet:
– En primer lugar, la Fundéu BBVA, una fundación patrocinada por la
Agencia Efe y BBVA, asesorada por la RAE, cuyo objetivo es
colaborar con el buen uso del español (URL: http://www.fundeu.es).
– Y en segundo lugar, “Español al día” de la RAE, creado en 1998, que
se encarga de resolver las dudas lingüísticas de los hispanohablantes.
Desde 2012, también se presta este servicio a través de la red social
Twitter, bajo la etiqueta #RAEConsultas (URL:
http://www.rae.es/consultas-linguisticas).
3. ERRORES A EVITAR CUANDO ESCRIBIMOS SOBRE
RESULTADOS NUMÉRICOS (DECÁLOGO)
A continuación presentamos una relación de errores habituales en los
trabajos final de estudios cuando se tratan resultados numéricos. El
decálogo consta de dos partes, la primera mitad centrada en las
equivocaciones que se comenten cuando se utilizan resultados numéricos,
mientras la segunda parte señala los errores más comunes cuando se
redacta el texto.

3.1. Confusión entre cifras y letras


En el uso y la presentación de números y cantidades, la regla general
según la American Psychological Association, APA por sus siglas en ingles
(2010) establece que se usarán cifras o dígitos para aquellas cantidades o
números iguales o superiores a 10 y palabras para las cantidades inferiores
(por ejemplo: “La opinión más común sostenida por el 33%…”; “solo en
tres casos nos encontramos…”).
Esta regla general tiene las siguientes excepciones:
– Cuando comparamos con cifras superiores a 10 (por ejemplo: “4 de las
12 personas entrevistadas”.
– Cuando nos referimos a cifras de unidades de medida o de tiempo (por
ejemplo: “El tamaño promedio es de 3 cm”; “El tiempo máximo
establecido fue de 2 semanas”.
– Cuando indicamos una parte de un libro, capítulo, página, tabla… (por
ejemplo: “El capítulo 7 del libro…” “En la tabla 2 que aparece en la
página 8…”).
La “Ortografía básica de la lengua española” de la Real Academia de la
Lengua (RAE, 2010) recomienda el uso de letras para los números que
pueden expresarse en una sola palabra como las decenas (por ejemplo:
“cincuenta, sesenta, etc”.) y las centenas (por ejemplo: “setecientos,
ochocientos, etc”.); los redondos que puedan expresarse en dos palabras
(por ejemplo: “doscientos mil, tres millones, etc”.); las fracciones, fuera de
contextos matemáticos (por ejemplo: “Dos tercios de los encuestados”),
etc. En cualquier caso, todo lo anterior es una recomendación dado que lo
verdaderamente importante es mantener siempre el mismo criterio en
nuestro texto.
Finalmente, se considera incorrecto la combinación de cifras y palabras
en la escritura de un numeral compuesto: (por ejemplo: “el 40 y ocho”). Es
decir, los números deben escribirse enteramente en cifras o enteramente en
palabras, excepto las cantidades que tienen como base un sustantivo
numeral, como millar, millón, millardo, billón, trillón y cuatrillón, que
admiten mezclar cifras y palabras (por ejemplo: “30 millares; 200 millones;
20,4 billones de dólares, etc”).

3.2. Abuso de números decimales y errores al redondear


Si bien los organismos internacionales de normalización indican que se
puede utilizar tanto el punto como la coma para separar la parte entera de
la decimal de las cifras, la Real Academia Española (2010) nos recuerda
que en el ámbito hispánico el uso del punto se emplea en países del Caribe,
Centroamérica y México mientras que la coma se utiliza en Sudamérica y
España.
El uso excesivo de decimales puede provocar una lectura farragosa y
confusa del texto o incluso de la propia tabla o gráfica que estemos
comentando, motivado en ocasiones por pretender ser excesivamente
preciso y aprovechando las tecnologías actuales (por ejemplo: “Solo el
11,178% de las mujeres frente al 14,492% de los hombres opina que…”).
Así, en el contexto de los resultados de una encuesta, emplear un decimal
como máximo debería ser suficiente teniendo en cuenta que nos movemos
en el ámbito de la probabilidad y la inferencia. El “n” o tamaño de la
muestra queda lejos de la población total y el error muestral suele
encontrarse entre el ±2% al ±5% con lo que ofrecer más información o
precisión a través de un número mayor de decimales carece de valor (por
ejemplo sería más correcto escribir: “Solo el 11,2% de las mujeres frente al
14,5% de los hombres opina que…”).
Por último, el método básico de redondeo con mayor precisión estadística
consiste en el redondeo a par. Las reglas del redondeo a par son las
siguientes:
– Si el primer dígito a eliminar es mayor o igual que 6, se redondea hacia
arriba (por ejemplo: “8,66 se redondea en 8,7 ó 9”).
– Si el primer dígito a eliminar es menor o igual que 4, se redondea hacia
abajo (por ejemplo: “8,44 se redondea en 8,4 ó 8”).
– Si ese dígito es un 5 seguido de algo (ver indicaciones más abajo), se
redondea hacia arriba (por ejemplo: “8,53 se redondea en 8,5 ó 9”).
– Si es un 5 justo (es decir, seguido de ceros), se redondea hacia el par
superior o igual. Es decir, si es un par se queda como está, si es un
impar, se redondea hacia arriba (por ejemplo “8,5 se redondea en 8;
mientras que 9,5 se redondea en 10”).

3.3. Mal uso de los porcentajes


La primera regla sencilla para el buen uso de los porcentajes se refiere al
símbolo “%”, que solo se usará cuando se acompañe con un número y la
palabra “porcentaje” cuando no aparezca un número (por ejemplo: “Los
resultados obtenidos muestran un porcentaje superior al 30%…”).
También la guía de estilo de la APA recomienda al inicio de una frase
emplear los porcentajes escritos con letra mientras que en el medio con
número (por ejemplo: “El sesenta por ciento de los hombre está de acuerdo
con la afirmación frente al 40% de las mujeres”).
Blalock (1986) nos recuerda que los porcentajes son el resultado de
calcular el número de individuos que habría en una categoría determinada
si los casos fueran 100. Por esa razón, hay que evitar el uso de los
decimales cuando tenemos menos de 100 casos (por ejemplo, no es
correcto si hemos entrevistado a 80 personas y 42 son mujeres y 38
hombres afirmar: “Nuestra muestra está compuesta por un 52,5% de
mujeres”, bastaría con decir un 52%). De esta manera, el autor del clásico
Estadística social (1986) nos propone dos reglas generales:
– Indíquese siempre el número de casos juntamente con los porcentajes o
proporciones (por ejemplo, al menos en alguna ocasión citar el “n” o el
tamaño de la muestra junto a los porcentajes: “De las 250 personas
entrevistadas, el 23% afirmar estar de acuerdo con…”).
– No se calcule nunca un porcentaje, a menos que el número de casos en
que está basado se halle a proximidad de los 50 o más, y si es menor
utilícese proporciones (por ejemplo, si tenemos 30 entrevistas nunca
escribiremos “el 33%”, sino más bien “uno de cada tres” o “en 10
entrevistados de los 30…”).

3.4. Ni exhaustivas ni excluyentes y ausencia de variabilidad


Toda investigación debe ser coherente desde el principio hasta el final,
desde la redacción del proyecto al informe final. Esta interrelación provoca
que los errores en el planteamiento inicial o en el diseño de la muestra y de
los instrumentos se vuelvan contra nosotros cuando redactamos el informe
de los resultados. Un ejemplo de esta situación nos la encontramos en
aquellas preguntas contenidas en los cuestionarios que definen
defectuosamente las opciones de respuesta.
El problema más habitual se percibe cuando las opciones de respuesta ni
son exhaustivas ni excluyentes. Exhaustivo significa que todas la posibles
contestaciones estén recogidas en las alternativas de respuesta o intervalos,
mientras excluyente indica que todos los entrevistados puedan responder
una sola y única opción cuando así se solicita.
En la tabla 1 observamos un ejemplo de pregunta que no es exhaustiva ni
excluyente con una redacción correcta en la siguiente columna. La
pregunta trata de los ingresos y en su versión incorrecta no cubre, por una
parte, las opciones de los que ganan menos de 1.000 euros ni más de un
millón (no es exhaustiva), y por otra, la persona que gane 20.000 euros no
sabrá si escoger la opción “a” o la “b” (no es excluyente).

Tabla 1. Preguntas sin y con opciones de respuesta exhaustivas y excluyente


A. No exhaustivas ni excluyentes B. Exhaustivas y excluyentes
% %
(INCORRECTA) (CORRECTA)
¿Cuáles son sus ingresos…?
24%
a) No tiene ingresos
¿Cuáles son sus ingresos…? 25%
31% b) Menos o igual a 1.000 euros
a) Entre 1.000 y 20.000 euros 21%
14% d) Entre 1.001 a 10.000 euros
b) Entre 20.000 y 50.000 euros 15%
3% e) Entre 10.001 a 30.000 euros
c) Entre 50.001 y 100.000 euros 9%
- f) Entre 30.001 a 50.000 euros
d) Entre 100.001 y 1.000.000 euros 3%
g) Más de 50.000 euros
3%
h) N.S./N.C.

Fuente: Elaboración propia

Un mal diseño de investigación provoca la redacción de informes


sesgados con difícil solución “a posteriori”. Algunas estrategias para
intentar subsanar los problemas de diseño del cuestionario serían tratar los
valores perdidos como “N.S./N.C.”, por no ser exhaustivos, y agrupar
respuestas, al no ser excluyentes (por ejemplo, siguiendo la pregunta de la
columna A: “En relación a los ingresos, los jóvenes entrevistados no saben
o no contestan el 52%, mientras que el 45% declaran ingresos entre 1.000
y 50.000 euros…”).
Así, un mal informe con malos resultados solo refleja un diseño de
investigación, de instrumentos, cuestionarios o preguntas deficientes. Esto
nos lo encontramos, como veíamos en el ejemplo anterior, cuando los
valores perdidos representan un porcentaje alto (por ejemplo: “no sabe o
no contestan el 52%”) o cuando una opción de respuesta concentra la
mayor de los entrevistados (por ejemplo: “El 94% de las respuestas válidas
declararon ingresos entre 1.000 y 50.000…”).
En resumen, la pregunta o la variable ha dejado de recoger la variabilidad
que la define para convertirse prácticamente en una constante que no
aporta información o argumentación a nuestra investigación.
Tanto la escasa como la excesiva variabilidad pueden ser indicativo de
falta de relevancia en nuestros resultados que exigiría revisar las hipótesis y
la metodología de nuestro trabajo (por ejemplo: “El 98% de los
encuestados afirmó que se encontraba actualmente bien”; “A la pregunta
abierta sobre cómo perciben el futuro, hubo 125 respuestas diferentes,
todas con una frecuencia menor de cinco”).

3.5. Estadísticos sin sentido ni significación


Los datos numéricos se suelen presentar de una manera distinta a los
cualitativos. Normalmente se recurre a una serie de medidas que los
resuma y a los que llamamos estadísticos. Estos pueden ser estadísticos
descriptivos o inferenciales dependiendo de la técnica de análisis utilizada.
A la hora de presentar cualquier estadístico podemos destacar un par de
reglas que resultan no sólo útiles sino necesarias para darles sentido y
comprenderlos mejor. La primera se refiere a la necesidad de no ofrecer
solo un estadístico sin más, todos necesitan acompañarlo con una
explicación y con otros datos que ayudan a precisarlo. La segunda nos
aconseja recurrir solo a texto cuando tengamos tres números o estadísticos,
nos apoyemos en una tabla en caso de referirnos entre cuatro y 20
números, y en una gráfica en caso de más de 20.
En el análisis descriptivo, tras las frecuencias y los porcentajes, los
estadísticos más empleados son las medidas de tendencia central (media,
moda y mediana). De todos ellos destaca la media (M), que se recomienda
acompañarla con una medida de dispersión o variabilidad como la
desviación típica o estándar (DT) (por ejemplo si la M = 27 y la DT = 5,24:
“Nuestros resultados mostraron una media es de 27 (DT = 5,24) para los
hombres…”).
En la estadística inferencial se considera primordial comprobar si
nuestros resultados son significativos. Un resultado se denomina
estadísticamente significativo cuando no es probable que haya sido debido
al azar. Una “diferencia estadísticamente significativa” solamente significa
que hay evidencias estadísticas de que hay una diferencia entre las variables
estudiadas. En el contexto de los informes técnicos y los trabajos
académicos no debemos utilizar la palabra “significativo” si no ha sido
confirmado por nuestros resultados y análisis estadísticos.
El formato genérico de presentación de los estadísticos inferenciales en
toda su extensión sería: Estadístico (grados de libertad) = valor del
estadístico p = nivel de significación, tamaño del efecto, intervalos de
confianza % [límites del intervalo entre corchetes]. En la tabla 2 vemos
ejemplos de este formato genérico aplicado a los estadísticos inferenciales
más habituales.

Tabla 2. Formato de presentación comúnmente utilizado en estadísticos inferenciales


Estadístico Ejemplo
t-test t(186) = 3,51; p < 0,001; d = 0,52; IC=95% [0,30-1,06]
F-test (ANOVA) F(2, 33) = 5,25: p = 0,01: MSE = 2,95, η2

Correlation r(107) = 0,13; p = 0,18


Chi-square X2 (1, n = 46) = 1,39; p = 0,24

Fuente: Elaboración propia a partir de Beins (2012: 75)

La guía de estilo de la APA (2010) señala que normalmente se debería


informar de los estadísticos con dos decimales y del nivel de significación
con dos o tres decimales (cuando el valor de p sea menor que 0,001 se debe
escribir como p < 0,001). También se debe insertar un espacio entre cada
elemento del estadístico para facilitar la lectura. Cuando presentemos el
valor de Chi-cuadrado (X2) indicaremos no solo los grados de libertad en
el paréntesis si no también el tamaño de la muestra.

3.6. No se citan fuentes, tablas o gráficas


Como regla general, cualquier resultado numérico o dato debe de estar
perfectamente referenciado y conocer con precisión su origen, localización
y contexto. Dicho de otro modo, cuando escribamos un número o cifra, el
lector va a poder conocer quién es el autor, dónde encontrar esa
información, y cuál es la fecha y lugar o ámbito del mismo.
Según el criterio de la autoría de los datos nos encontramos con tres
posibilidades: aquellos que son obtenidos por otros investigadores (datos
secundarios), otros que elaboramos a partir de esos datos secundarios, y
por último, los resultados numéricos que hemos conseguido en nuestro
propio estudio o investigación (datos primarios).
En el primer caso, será suficiente citar la referencia del estudio o informe
del que hemos obtenido el dato añadiendo las precisiones contextuales
necesarias (por ejemplo: “Según el último informe de desarrollo humano
(PNUD, 2016) con datos de 2015, España obtuvo un IDH de 0,884…”).
En el segundo caso, además de citar la fuente de datos secundaria,
tendremos que dar las explicaciones pertinentes para que cualquiera pueda
replicar y obtener los mismos resultados (por ejemplo: “Durante la crisis
desde 2007 a 2015, España ha perdido 12 puestos en el ranking del IDH
(ver tabla X elaborada a partir del PNUD, 2009 y PNUD, 2016”).
Por último, si los resultados numéricos y datos son de elaboración
propia, en el apartado de metodología habremos explicado con detalle
sobre quién, cómo, cuándo y dónde se obtuvieron los mismos. Para evitar
la reiteración de toda la explicación metodológica o el título completo de
nuestro estudio cada vez que comentamos o escribimos algún resultado,
podría ser oportuno citarlo con alguna abreviatura o siglas (por ejemplo, si
nuestro trabajo se titula “Estudio sobre la Percepción y Opinión sobre la
Salida de la Crisis en España” en el que hemos elaborado una encuesta,
podríamos escribir: “Según los resultados de EPOSCE-2017, los españoles
consideran…”).
Otro principio semejante a tener en cuenta en nuestro informe de
investigación y trabajo final de estudios consiste en citar siempre las tablas
y las gráficas en nuestro texto. Esto es, no puede haber ninguna tabla o
gráfica que no haya sido explicada y citada en los comentarios previamente
(por ejemplo: “En la tabla X, que aparece a continuación, se puede
apreciar que el porcentaje de hombres…”).
En algunas ocasiones, si el número de tablas y gráficas resulta excesivo y
de ellas solo vamos a comentar algunas, el criterio más oportuno sería
colocar todas las tablas y gráficas en un anexo al final de trabajo y en el
cuerpo del texto solo las que vayamos a citar.

3.7. Redacción confusa y farragosa


Nuestro objetivo debe ser comunicar unos resultados numéricos en un
relato coherente y para lograrlo tenemos que redactar con claridad,
concisión y sencillez. Algunos consejos de carácter general para lograr una
escritura clara son: utilizar frases cortas; tratar una idea en cada frase;
dividir las frases largas; iniciar cada párrafo con lo principal del mensaje;
realizar párrafos cortos; mantener una escritura concisa y breve (Naciones
Unidas, 2009b).
La APA (2010) ofrece criterios para escribir con precisión y claridad
acompañados de ejemplos muy prácticos:
– Continuidad de las ideas. Para ayudar a conseguir enlace entre las ideas
podemos hacer uso de las siguientes frases de transición o nexos: De
tiempo: “entonces, después, luego, posteriormente, seguidamente, antes,
mientras, desde, etc”.; de causa-efecto: “por tanto, consecuentemente,
como resultado de”; de adición: “además, también, cierto, asimismo, en
efecto, etc”.; de contraste: “pero, no obstante, sin embargo, aunque,
contrariamente, a pesar de”.
– Fluidez en la expresión. Para conseguir un texto fácil de leer evitaremos
todo tipo de artificios y recursos estilísticos que dilaten la exposición
clara del tema. Como es el caso de: la ambigüedad, la ironía, el
encubrimiento de una idea, los cambios de tiempo y de persona (por
ejemplo: “nuestros datos arrojan unos resultados exitosamente
catastróficos”). También se recomienda pedir una segunda lectura a un
colega y en su defecto leeremos en voz alta nuestro trabajo.
Otros aspectos a evitar es, por un lado, el recurso a la jerga, expresiones
chabacanas, lenguaje excesivamente coloquial o en primera personal de
singular (como por ejemplo: “tras revisar los datos a base de bien”; “para
coscarse de los resultados, te digo que…”; “en este análisis metí la pata
hasta el corvejón”; “no sé si me explico”…). Y, por otro, debemos de huir
de las frases pasivas y subordinadas que pueden provocar estructuras
complejas de difícil lectura (por ejemplo: “Como todo el mundo conoce, es
sabido que la mayoría de los atletas se decanta por afirmar que las pruebas
son realizadas mejor por las mujeres que son entrenadas por hombres”).

3.8. Falta de ética, lenguaje discriminatorio o inapropiado


Existen una serie de principios éticos que afectan a todo tipo de trabajo
intelectual y de investigación para evitar el engaño, el daño y el plagio,
abordados en otros capítulos. Para una escritura ética de nuestros
resultados debemos considerar previamente las políticas y normas que
tenga nuestra universidad o institución. Así como respetar los principios de
precisión del conocimiento científico y protección de los derechos de los
participantes y de la propiedad intelectual (APA, 2010).
En lo referente a los análisis de datos, la International Chamber of
Commerce y ESOMAR en su código ético (ICC/ESOMAR, 2016) nos
recuerdan una serie de principios: deber de cuidado, transparencia,
responsabilidad profesional y protección de datos y privacidad. Este
último, lo desarrolla en el artículo 6, donde afirma sobre los
investigadores: “deben asegurarse de que los datos personales no puedan
ser trazables ni pueda ser identificable una persona por procesos de
deducción” (ICC/ESOMAR, 2016: 8), (por ejemplo, no sería correcto: “El
único anciano mayor de 85 años que vive en el barrio X, opinaba que…”).
Un lenguaje discriminatorio o inapropiado consiste en aquella manera de
escribir que excluye o separa innecesariamente a grupos de personas y en
utilizar expresiones que podrían ser ofensivas para los que participaron o
los lectores (Beins, 2012) (por ejemplo, no sería apropiado: “Los niños
extranjeros y autóctonos afirman en el 80% de los casos…”; “El 45% de
las niñatas que salen los fines de semana…”, etc.)
El reto de escribir éticamente de forma inclusiva y apropiada requiere un
aprendizaje y cierta empatía. Si nuestro ámbito de estudio se refiere a algún
colectivo vulnerable debemos conocer la terminología más adecuada para
tratarlo en nuestro texto. En este sentido, podemos encontrar bastantes
guías de estilo, manuales de comunicación, etc. inicialmente dirigidas a los
profesionales de los medios pero que resultan útiles también a los
investigadores (ver tabla 3). Estas guías suelen estar escritas por entidades
que trabajan con vulnerables, más sensibilizadas sobre las connotaciones
discriminatorias e inapropiadas del lenguaje.

Tabla 3. Manuales y guías para un lenguaje inclusivo y apropiado por ámbitos


Temas o
Manuales y guías
ámbitos
– Fernández Iglesias, J. L. (2006). Guía de estilo sobre discapacidad para profesionales de los medios de
comunicación. Madrid: Real Patronato sobre Discapacidad.
Discapacidad
– Junta de Andalucía (2013). Guía de Buenas Prácticas sobre Personas con Discapacidad para Profesionales
de la Comunicación. Sevilla: Consejería de Salud y Bienestar Social.
Mujeres Instituto Cervantes (2011). Guía de comunicación no sexista. Madrid: Instituto Cervantes, Aguilar.
Pobreza EAPN (2013). Guía de estilo: Pobreza, vulnerabilidad y voluntariado. Madrid: EAPN.
IISMAS (2014). Guía práctica dirigida a los profesionales de los medios de comunicación para prevenir la
Minorías
discriminación contra la Comunidad Gitana. Madrid: FSG.
LGBT ABGLT (2010). Manual de comunicación LGBT. Nueva York: UNAIDS.
Sendín Gutiérrez, J. C. e Izquierdo Iranzo, P. (2008).Guía práctica para los profesionales de los Medios de
Inmigración
Comunicación: Tratamiento Informativo de la Inmigración. Madrid: Ministerio de Trabajo y Asuntos Sociales.
Enfermedad FEDEAFES (2012). Guía de estilo Cómo abordar la salud mental en los medios de comunicación. Bilbao:
mental FEDEAFES.
Colectivos Belda, L. M., et al. (2008). Periodismo social. El compromiso de la información. Libro de estilo. Madrid:
sociales Servimedia.

Fuente: Elaboración propia

Dada la amplitud y la evolución del lenguaje, sugerimos la consulta de


este portal, a pesar de estar escrito en inglés, promovido por la Universidad
Estatal de San Francisco: “The Diversity Style Guide” (URL:
http://www.diversitystyleguide.com/). Esta guía incorpora términos y frases
relacionados con la etnia, religión, orientación sexual, identidad de género,
edad, drogas y alcohol, y todo tipo de discapacidad, con el objetivo de
construir un lenguaje inclusivo desde la perspectiva de los colectivos
implicados.

3.9. Desorden, incoherente y poca transparencia


Aunque resulta complicado establecer criterios, reglas o recomendaciones
para ordenar nuestro informe de resultados numéricos, podemos señalar
como principio primordial: pensar y planificar previamente y con sentido
común. A partir de ahí, sería aconsejable seguir tres orientaciones de
carácter general: a) Ir de lo general a lo particular; b) Anteponer lo
importante a lo secundario; c) Presentar la descripción y después la
explicación.
El orden tiene que verse reflejado tanto en el texto del informe completo
como en cada apartado y párrafo. De esta manera, iríamos aplicando tanto
el principio general como las orientaciones citadas en el párrafo anterior
(por ejemplo: “Las mujeres españolas se definen mayoritariamente como…
Aunque encontramos diferencias entre las mujeres casadas y solteras…
Mención aparte merecen las mujeres solteras mayores de 60 años que se
consideran…”).
Otra estrategia global que facilita la presentación de los resultados
numéricos es seguir la misma estructura del cuestionario o instrumento
utilizado que aparecerá en un anexo. Sin olvidar, tanto las orientaciones
dadas en este epígrafe como la indicación donde se decía que no todo ha de
ser comentando, solo lo relevante.
Uno de los problemas más graves al que se enfrenta un trabajo viene de la
mano de la incoherencia. Cuando los objetivos y sus hipótesis de trabajo
no se ven contestados ni en los resultados ni en las conclusiones.
Recordemos de nuevo en este momento que nuestros resultados numéricos
están para mostrar evidencias y respuestas certeras a nuestros objetivos e
hipótesis.
En algunos casos puede resultar oportuno presentar los resultados
numéricos siguiendo el orden de los objetivos o hipótesis planteadas
inicialmente en el trabajo. Así, combinaremos orden y coherencia en
nuestro informe final, buscando en nuestros resultados argumentos para ir
confirmando y rechazando cada una de nuestras hipótesis.
Finalmente, para la búsqueda de la coherencia y la transparencia, los
resultados deben presentar todos los detalles necesarios para informar
adecuadamente al lector. Del mismo modo, el lector debe poder replicar
cada uno de los pasos y análisis para obtener los mismos resultados en
caso de disponer de la matriz de datos.
En este sentido, adjuntar la matriz de datos en formato digital u ofrecerla
en un enlace para descargarla, resulta aconsejable. Al igual que indicar
cómo se obtenido cada resultado sin caer en lo obvio o en explicar
procesos estadísticos conocidos (por ejemplo: “El índice de satisfacción se
obtuvo de la suma y media aritmética de los indicadores A, B y C…”).

3.10. Combinación de resultados e interpretación


Cuando analizamos nuestros datos, los resultados nos proporcionan una
descripción de lo que ha sucedido. Hemos calculado los porcentajes de
todas las variables, hemos concluido que los grupos que comparamos son
significativamente diferentes o no; o el número de observaciones en
diferentes categorías coincide con nuestras expectativas o no, etc.
Si los resultados estadísticos dicen lo que sucedió, ahora depende de
nosotros averiguar por qué las cosas ocurrieron como lo hicieron. Es el
momento de la interpretación, donde estableceremos un diálogo entre
nuestros resultados y los de otros estudios anteriores. También
retomaremos nuestro marco teórico para sostener la interpretación que
hagamos de los resultados.
Siguiendo las orientaciones de la APA (Beins, 2012), es recomendable
separar en dos apartados diferenciados los resultados, donde aparecerán la
presentación y descripción de tablas y gráficas, de la discusión, donde se
aplicarán los conocimientos del área y la interpretación de los resultados.
Una estrategia diferente es la que nos plantea Fink (2003) a la hora de
explicar los resultados de una tabla donde propone cinco pasos:
Explicación del título; de los encabezamientos; de otra información
necesaria, de los contenidos de la tabla y finalmente una interpretación:
– Explicación del título, donde se presenta la tabla y su temática (por
ejemplo: “En la tabla X se muestran los diferentes modelos de regresión
lineal entre las variables sociodemográficas y el índice de xenofobia”).
– Explicación del encabezamiento, donde se tratan los títulos de las filas y
columnas (por ejemplo: “Se presentan cuatro modelos con los valores
del R2 o explicación que aportan las 11 variables sociodemográficas o
independientes”.
– Explicación de otra información necesaria (por ejemplo: “La variable
dependiente, índice xenofobia, se ha construido siguiendo los trabajos
de Díez Nicolás…”).
– Explicación de los contenidos (por ejemplo: “El modelo IV de regresión
múltiple con el mayor R2 está constituido por cuatro variables
sociodemográficas…”).
– Interpretación de los resultados (por ejemplo: “Ya se apuntaba en otros
trabajos la importancia del nivel de estudios como una de las variables
más importantes…”).
En cualquier caso, ya sea en un apartado de discusión o al final de la
explicación de una tabla o gráfica, la clave ha de ser separar claramente la
presentación de los resultados con la interpretación de los mismos.
4. CONCLUSIONES: PARA SEGUIR APRENDIENDO
La intención de este capítulo ha sido establecer unos objetivos para la
construcción de un relato estadístico y un decálogo con los errores más
habituales. Aprender de nuestros errores es una estrategia para mejorar.
Esto será posible cuando veamos con ejemplos y con reglas u orientaciones
cómo hacerlo correctamente. Invitamos a comprobar si nuestro trabajo
final de estudios supera los diez puntos de control, y en caso contrario,
pongamos las recomendaciones en práctica.
El aprendizaje para ser investigadores acaba de empezar. Los aspectos y
orientaciones para la redacción de un informe académico de los resultados
numéricos no se han agotado con los epígrafes anteriores. Al menos
tenemos tres tareas para seguir avanzando como científicos en lo que
concierne a la redacción de datos estadísticos:
– Consultar y conocer los criterios y las normas de presentación que la
comunidad científica va estableciendo.
– Leer y comprender cómo otros investigadores aplican en sus estudios y
trabajo estas normas y presentan sus resultados.
– Aplicar y poner en práctica en nuestros futuros trabajos todo lo
aprendido con la precisión y las garantías necesarias.
Para la primera tarea, la American Psychological Association ha diseñado
una página web muy completa (URL: http://www.apastyle.org). En ella, se
pretende ayudar a los usuarios a desarrollar sus habilidades de escritura y
de investigación profesional. Combina sofisticadas herramientas y
tecnología avanzada de redacción y gestión de contenidos donde integra su
“Manual de Publicaciones” y actualizaciones (APA, 2010).
Para la segunda, los textos y ejemplos de donde aprender es ingente y
prácticamente inagotable. Si cabe destacar alguna colección por su
disponibilidad y profesionalidad, sería “Opiniones y Actitudes” que nos
ofrece el Centro de Investigaciones Sociológicas (CIS). Esta colección
publica análisis empíricos de datos enfatizando la presentación y
descripción de los resultados. Más de 70 publicaciones con un tamaño
máximo de 125 páginas, descargables en varios formatos (URL:
http://www.cis.es/cis/opencm/ES/3_publicaciones/colecciones/opiniones.jsp).
Finalmente, aprender a construir un relato estadístico se consigue con la
práctica, escribiendo y reescribiendo los textos, consultando y
contrastando los resultados, errando y corrigiendo. Una tarea que no
parece acabar nunca, hasta que se termina el plazo.
5. BIBLIOGRAFÍA
APA (2010). Manual de publicaciones de la American Psychological Association. México: El
Manual Moderno.
Beins, B. C. (2012). APA Style Simplified Writing in Psychology, Education, Nursing, and
Sociology. Boston: Wiley-Blackwell.
Blalock, H. M. (1986). Estadística social. México: Fondo de Cultura Económica.
Fernández Prados, J. S. y Rojas, A. J. (1998). “El informe de investigación”. En: Rojas Tejada, A. J.;
Fernández Prados, J. S. y Pérez Meléndez, C. (coord). Investigar Mediante Encuesta. Madrid:
Síntesis.
Fink, A. (2003). How to report on surveys. Londres: SAGE.
Hernández Sampieri, R.; Fernández Collado, C.; Baptista Lucio, P. (2015). Metodología de la
investigación. México: McGraw-Hill Interamericana.
ICC/ESOMAR (2016). ICC/ESOMAR International Code on Market, Opinion and Social Research
and Data Analytics. París: ICC/ESOMAR. [Trad. por ANEIMO y AEDEMO (2017). Código
Internacional ICC/ESOMAR para la práctica de la Investigación de Mercados, Opinión y Social y
del Análisis de Datos].
Marín, M. (2015). Escribir textos científicos y académicos. Buenos Aires: Fondo de Cultura
Económica.
Miguel, A. de (1997). Manual del perfecto sociólogo. Madrid: Espasa.
Naciones Unidas (2009a). Cómo hacer comprensibles los datos. Parte 1: Una guía para escribir
sobre números. Ginebra: Naciones Unidas.
Naciones Unidas (2009b). Cómo hacer comprensibles los datos. Parte 2: Una guía para presentar
estadísticas. Ginebra: Naciones Unidas.
RAE, Real Academia Española y Asociación de Academias de la Lengua Española (2010).
Ortografía de la lengua española. Madrid: Espasa.
Rodríguez, E. (1997). Cómo redactar bien informes económicos y financieros. Madrid: Inversor
ediciones.
Velilla Barquero, R. (2002). Guía práctica para elaborar trabajos monográficos. Barcelona: Almon.
Capítulo 13
CÓMO SACAR PARTIDO A LOS NÚMEROS: EL
ANÁLISIS CUANTITATIVO
Antonio M. Jaime Castillo
Universidad de Málaga

1. INTRODUCCIÓN AL ANÁLISIS CUANTITATIVO EN


CIENCIAS SOCIALES
A través del análisis cuantitativo en Ciencias Sociales se pretende
interpretar y dar sentido a los datos obtenidos en la investigación. De este
modo, la labor del investigador social es similar a la del detective que trata
de dar respuesta a una pregunta. En contra de un equívoco habitual, los
datos nunca hablan por sí mismos. Es necesario hacerles las preguntas
adecuadas para obtener la información que buscamos. Imaginemos, por
ejemplo, que la variación de los ingresos (medida por su varianza) en una
ciudad A con una alta renta per cápita es mayor que la variación de los
ingresos en una ciudad B más pobre. De ahí se podría concluir
ingenuamente que la desigualdad en la distribución de la renta es mayor en
la ciudad rica que en la ciudad pobre. No obstante, dado que la media de
renta es superior en A que en B, ambas varianzas no son comparables. Por
ejemplo, la diferencia en términos absolutos entre 100 y 110 es la misma
que entre 10 y 20, pero en términos relativos, la segunda diferencia es
mucho mayor. Es por este motivo que en el estudio de la desigualdad
económica se utilizan índices como el índice de Gini en lugar de la
varianza. El buen analista, por tanto, es aquel que, conociendo bien el
fenómeno que investiga, hace las preguntas adecuadas a los datos.
Siguiendo con el símil del detective, tampoco se puede torturar a los datos
para obtener una confesión forzada, porque corremos el riesgo de que los
resultados obtenidos sean producto del artificio estadístico y no una
descripción plausible de la realidad.
Es igualmente importante tener en cuenta otras dos consideraciones. En
primer lugar, la calidad de los resultados obtenidos del análisis depende de
la calidad de los datos que se analizan. En este punto hay que destacar que
la investigación social es un proceso complejo, en el que todas sus fases de
desarrollo deben estar interrelacionadas y estar sometidas asimismo a un
control de calidad riguroso. Si tenemos un mal diseño muestral o las
variables analizadas no miden lo que realmente pretendemos medir, los
resultados del análisis, a pesar de ser formalmente correctos, no tendrán
validez. Aquí se aplica un viejo principio de las ciencias de la computación:
GIGO (garbage in-garbage out). Particularmente, cuando se analizan
fuentes secundarias, sobre las que no se tiene un control en las fases previas
de la investigación, se deberá prestar especial atención a la forma en la que
se han obtenido los datos. Ser conscientes de las limitaciones de los datos
con los que se trabaja también ayudará a plantear preguntas de
investigación que sean viables.
En segundo lugar, pero no menos importante, los resultados del análisis
serán únicamente relevantes si el fundamento teórico de la investigación es
sólido. El análisis cuantitativo tiene un carácter esencialmente deductivo y,
por ello, debe estar siempre orientado por la teoría (Anduiza, Méndez y
Crespo, 2009). Los resultados serán útiles en la medida en que sirvan al fin
de contrastar teorías e hipótesis, como se explica más adelante. Un
resultado contradictorio con una teoría previamente establecida debería
llevar a revisar con detalle el procedimiento de análisis antes de cuestionar
la teoría. Dicho de otra forma, el análisis cuantitativo nunca es un fin en sí
mismo sino una herramienta para conseguir los objetivos de la
investigación.
A pesar de que existen muchas clasificaciones diferentes en la literatura
(Cea D’Ancona, 2012) en el análisis cuantitativo se puede distinguir
básicamente entre el análisis descriptivo y el análisis multivariante. El
primero hace referencia al análisis de la distribución de una variable
(univariante) o de la distribución conjunta de dos variables (bivariante),
mientras que el análisis multivariante hace referencia al análisis de la
relación entre múltiples variables. Este capítulo se centra
fundamentalmente en el análisis descriptivo. La exposición evitará las
cuestiones formales más complejas, pero se recomienda al lector usar un
texto introductorio de estadística como complemento en todas las fases del
análisis cuantitativo. En la última sección se abordará el análisis
multivariante y se darán algunas orientaciones de carácter general para la
utilización de este tipo de técnicas.
2. EL SOFTWARE ESTADÍSTICO EN CIENCIAS SOCIALES
La mayor parte de las operaciones que se describen en este capítulo
implican cálculos que resultan tediosos cuando el número de unidades de
análisis es amplio, como resulta habitual en el análisis cuantitativo.
Afortunadamente, existe una gran variedad de software estadístico que
realiza estas operaciones de forma rápida y sencilla. Generalmente, la
elección del software concreto dependerá de las necesidades concretas del
análisis, pero también hay que tener en cuenta otros factores, como las
diferentes tradiciones en cada disciplina o la disponibilidad del software en
la institución (las licencias de algunos programas estadísticos tienen precios
elevados, aunque también hay opciones de libre distribución y código
abierto). Se recomienda además tener como referencia algún manual sobre
el programa, además de un texto básico de estadística. Los programas
estadísticos han supuesto un gran avance para la investigación cuantitativa
porque ponen a disposición de los usuarios una gran cantidad de
herramientas analíticas sin necesidad de dominar los detalles
computacionales o los fundamentos estadísticos. Pero ahí está también su
mayor riesgo. Los resultados del análisis no se podrán interpretar
correctamente sin entender cómo han sido obtenidos. De la misma forma
que el software tampoco soluciona la pregunta sobre el tipo de análisis
estadísticos que son adecuados para el problema de investigación que
tenemos planteado y los datos de los que disponemos. Entre las múltiples
opciones disponibles, el texto de Agresti y Finaly (2009) destaca por su
claridad expositiva y la variedad de temas tratados, al igual que el de Peña
(1997). Para quienes prefieran un enfoque con menor carga matemática, el
texto de Weiss (2017), o el de Moore, McCabe y Craig (2009), pueden ser
una buena alternativa.
Existen muchos programas estadísticos y resultaría imposible tratarlos
todos aquí. No obstante, puede decirse que en el ámbito de las Ciencias
Sociales hay tres programas que cuentan con un mayor grado de
implantación. El primero de ellos es SPSS (acrónimo de Statistical Package
for the Social Sciences). Fue creado originariamente para grandes
computadores a finales de la década de 1960 y durante la década de 1970
su uso se popularizó ampliamente en los departamentos de Ciencias
Sociales en Estados Unidos. Ha sido, tradicionalmente, el programa de
elección en los campos de la sociología o la psicología porque cuenta con
un gran número de módulos dedicados al análisis multivariable. Su
popularidad también se explica por su relativa facilidad de uso. Existen
una infinidad de manuales sobre el programa, entre los que quizá cabe
destacar el texto de Morgan, Leech, Gloeckner y Barrett (2004) por ser
accesible sin olvidar los fundamentos estadísticos o el texto de Pardo
(2005).
El segundo programa es Stata, desarrollado a mitad de la década de 1980
por la empresa Stata Corp. Este programa se ha ido abriendo paso
especialmente en el campo de la Economía, pero también más
recientemente en Ciencia Política y Sociología. A diferencia de SPSS, está
más orientado a los modelos de carácter explicativo sin prestar tanta
atención a otras técnicas de análisis multivariable. Es muy versátil en
cuanto a los modelos que permite estimar y dispone de un lenguaje de
programación relativamente sencillo en comparación con otras opciones.
Cuenta además con una comunidad de usuarios muy activa, lo que ha
hecho posible que aparezcan rutinas especializadas que dotan al programa
de nuevas funcionalidades. También son numerosos los manuales sobre
Stata, si bien tanto el texto de Acock (2016) como el de Escobar,
Fernández Macías y Bernardi (2012) son una excelente guía de referencia a
nivel introductorio.
Finalmente, el paquete R se desarrolló durante la década de 1990,
aunque su uso no se generalizó hasta la década siguiente. Tiene como
característica destacada que es software de libre distribución y código
abierto. Si bien puede ser de uso más difícil inicialmente, el programa ha
ido ganando aceptación en los últimos años en diferentes áreas de las
Ciencias Sociales. Esto se debe, entre otras cosas, a su gran versatilidad y es
especialmente recomendable para representaciones gráficas. Cuenta con su
propio lenguaje de programación y al igual que Stata existe una
comunidad de usuarios muy activa que hacen posible el desarrollo del
programa. El texto de Dalgaar (2002) continúa siendo una primera
referencia obligada.
A pesar de las especificidades de cada programa, generalmente el usuario
interactúa con el software estadístico a través de tres tipos de archivos: a)
archivos de datos que contienen la información que va a ser analizada; b)
archivos de instrucciones que son archivos (generalmente de texto plano)
en los que el usuario escribe las instrucciones de análisis que van a ser
ejecutadas por el programa; y c) archivos de resultados en los que se
guardan los resultados del análisis. La utilización de archivos de
instrucciones es opcional, ya que los análisis se pueden ejecutar
generalmente a través de la interfaz del programa (a través de ventanas o
comandos). No obstante, su utilización es muy recomendable en todos los
casos porque permite conservar las instrucciones necesarias para llevar a
cabo los análisis y que estas puedan ser reutilizadas o modificadas en el
futuro. De la misma forma, se recomienda guardar siempre los resultados
en ficheros de resultados que estén disponibles para ser consultados en
cualquier momento de la investigación. Respecto de los archivos de datos,
es recomendable siempre guardar una copia de los datos originales en lugar
seguro para evitar que los datos originales puedan modificarse por error en
el curso de algún procedimiento de análisis.
3. ESTADÍSTICA DESCRIPTIVA ELEMENTAL
Un buen análisis descriptivo es la base indispensable para dar sentido a
los resultados de una investigación. Buena parte de los TFG/TFM, de
hecho, no va más allá de esta fase descriptiva. Pero un análisis descriptivo
no es una mera sucesión de datos sino que tiene que proporcionar una
interpretación que dé sentido a los mismos, a partir del estudio de las
variables seleccionadas. Se puede definir una variable como la medición de
una característica (p. e. género) que toma valores diferentes (p. e. hombre y
mujer) en las unidades de análisis que intervienen en el estudio. Para los
propósitos del análisis conviene distinguir entre variables discretas y
variables continuas. Las variables discretas (de carácter ordinal o nominal)
son aquellas que miden la pertenencia a un grupo o categoría. Las
variables continuas (medidas a nivel de intervalo o de razón) permiten
hacer operaciones aritméticas y, por tanto, podemos calcular su media y
otras características de la distribución de tales variables. Para la
descripción de variables discretas se usan las tablas de frecuencias o
representaciones gráficas. La tabla 1 presenta un ejemplo real del grado de
interés por la política en España. La primera columna recoge las
frecuencias absolutas de cada una de las categorías de la variable. La
segunda recoge el porcentaje sobre el total de casos (o frecuencia relativa) y
la tercera columna el porcentaje acumulado. Las frecuencias absolutas no
son comparables entre diferentes tablas, dado que dependen del tamaño de
la muestra por lo que el análisis debe centrarse en la distribución de los
porcentajes.

Tabla 1. Grado de interés por la política en España


Frecuencia Porcentaje Porcentaje acumulado
Ningún interés 437 22,77 22,77
Poco interés 695 36,22 58,99
Bastante interés 570 29,70 88,69
Mucho interés 217 11,31 100
Total 1.919 100

Fuente: Encuesta Social Europea (2014).


Para la descripción de variables continuas, se utilizan dos tipos de
estadísticos, las medidas de tendencia central y las medidas de dispersión.
Las medidas de tendencia central tratan de dar una medida sintética del
valor central de una distribución. Esta información es útil dado que, en
muchos fenómenos sociales, la mayor parte de los valores de una variable
están concentrados alrededor del centro de la distribución. Así pues,
conocer el valor central de una distribución da una idea aproximada de
cuáles son los valores más habituales de una variable. Son medidas de
tendencia central la media, la moda y la mediana.
La media se corresponde con el valor esperado de una variable. Por
ejemplo, si sabemos que la edad media de un grupo de personas es de 18
años, podemos esperar que se trate de un grupo de personas jóvenes.
Formalmente, la media se obtiene sumando todos los valores de una
variable y dividiendo entre el tamaño de la muestra:

donde xi es el valor de la variable para el individuo i y n es el tamaño de


la muestra. La moda es el valor que más se repite en una distribución y la
mediana es el valor central de la distribución. Cuando el número de valores
de una variable es impar la mediana se corresponde con el valor que toma
la variable en el caso que deja tantos casos con valores por encima como
casos con valores por debajo. Cuando el número de valores es par no
existe un punto central propiamente dicho por lo que la mediana se calcula
como la media de los valores que se encuentran alrededor del punto central
de la distribución.

Tabla 2. Distribución de edades y estadísticos descriptivos


Caso A Caso B
Edades 17, 17, 17, 17, 18, 18, 19, 19, 20 3, 3, 4, 4, 4, 4, 5, 5, 92
Media 18 13,8
Moda 17 4
Mediana 18 4
Varianza 1,2 860,9
Desviación típica 1,1 29,3
CV 0,6 2,1
Fuente: Elaboración propia.

A pesar de la popularidad de la media como medida de resumen de una


variable y su interpretación intuitiva, conviene tener en cuenta que es un
estadístico sensible a los valores extremos de la distribución (aquellos que
son anormalmente altos o bajos en relación al resto). Se puede ilustrar este
problema con los dos ejemplos ficticios de distribución de edades que se
presentan en la tabla 2. En el primer caso, media, moda y mediana toman
valores similares indicando que se trata de un grupo de personas en sus
primeros años de juventud. No obstante, en el segundo ejemplo la media es
menos informativa porque nos está indicando que se trata de un grupo de
adolescentes y si miramos a la distribución de valores vemos que en
realidad se trata de un grupo de preescolares al que se ha incorporado una
persona anciana (con una edad anormalmente elevada para el grupo). En
este caso, la moda y la mediana resultan más informativas acerca
composición del grupo.
Las medidas de dispersión son estadísticos esenciales en el análisis
descriptivo de una variable continua porque nos dan una idea de lo
concentrados o dispersos que están los valores. Son muchas las medidas de
dispersión disponibles, pero las más habituales son la varianza, la
desviación típica y el coeficiente de variación. La varianza se define como
la media de las distancias a la media al cuadrado:

La desviación típica es la media de las distancias a la media y se obtiene


como la raíz cuadrada de la varianza. Un problema que presenta la
varianza (y, por derivación, la desviación típica) es que es sensible a la
escala de medida de las variables por lo que, en términos generales, no es
adecuado usarla con propósitos comparativos. En su lugar se puede usar el
coeficiente de variación (CV) que se obtiene dividiendo la desviación típica
por la media. Así, por ejemplo, en los datos de la tabla 2 se observa que las
diferencias entre el caso A y B se reducen notablemente al comparar el CV
en lugar de la desviación típica.
4. CONTRASTE DE HIPÓTESIS Y ASOCIACIÓN ENTRE
VARIABLES
Una vez que hemos presentado una descripción de los datos a partir de la
distribución de las variables individuales surgen habitualmente otro tipo de
preguntas sobre las relaciones entre variables. Podemos preguntarnos, por
ejemplo, si votan más las personas de más edad, si el fracaso escolar afecta
más a los chicos o a las chicas o si las personas más conservadoras son
también más religiosas. En cada uno de estos ejemplos, hay dos variables
implicadas entre las que se supone que existe algún tipo de relación. Ese
supuesto a priori es lo que llamamos hipótesis. Formalmente, una hipótesis
es un enunciado que contiene una explicación plausible de la realidad que
puede ser aceptada o refutada empíricamente (Santana, 2013). Al proceso
por el que decidimos si una hipótesis se ajusta a la realidad empírica se le
llama contraste de hipótesis. Un contraste de hipótesis implica una
hipótesis nula y otra alternativa. La hipótesis nula (H0) es
convencionalmente la hipótesis de no diferencia y la hipótesis alternativa
(H1) es la hipótesis que postula la existencia de diferencias. En el ejemplo
anterior del fracaso escolar, la hipótesis nula sería que no hay diferencias
en las tasas de fracaso escolar entre chicos y chicas, mientras que una
hipótesis alternativa podría ser que el fracaso escolar es más elevado entre
los chicos que entre las chicas.
El parámetro al que se refiere el contraste de hipótesis (en el ejemplo
anterior, la diferencia en la proporción de fracaso escolar entre chicos y
chicas) tiene un estimador (o valor esperado) en el caso de que la hipótesis
nula sea cierta (es 0 en el ejemplo, dado que la hipótesis nula es que la tasa
de fracaso escolar de los chicos no se diferencia de la de las chicas).
Intuitivamente, cuando más lejos esté el estimador de la muestra de su
valor esperado cuando H0 es cierta, más probable es que H0 sea falsa.
Típicamente, el estimador sigue una distribución de probabilidad conocida.
Es decir, los valores del estimador siguen una pauta que puede ser descrita
por una fórmula matemática, lo cual implica que podemos calcular la
probabilidad de encontrar un valor superior a un determinado punto
crítico1. Esa probabilidad es lo que se llama p-value y se puede interpretar
como la probabilidad de que el estimador tome el valor observado (o
superior) siendo cierta H0. Como es fácil imaginar, deberíamos rechazar H0
(y aceptar, por tanto, H1) cuando esta probabilidad (p-value) sea lo
bastante pequeña. ¿Cómo de pequeña? No hay una respuesta objetiva a
esta pregunta pero, convencionalmente, se acepta el criterio de rechazar H0
si p < 0,05. Esto significa que podemos confiar en que el 95% de las veces
que observemos un valor como el de la muestra H0 sería falsa (por eso a 1
– p se le llama nivel de confianza). Otro criterio convencionalmente
aceptado y más exigente es fijar el umbral en p < 0,01 (nivel de confianza
del 99%) y otro aún más exigente en p < 0,001 (nivel de confianza del
99.9%), aunque las convenciones varían de unas áreas científicas a otras.
De la discusión anterior se deduce que una hipótesis no puede ser
aceptada o rechazada con certeza absoluta. A la hora de tomar una
decisión nos encontramos con una situación como la descrita en la tabla 3.
Si H0 es cierta y la aceptamos, estamos tomando la decisión correcta, al
igual que si es falsa y la rechazamos. Pero también se puede dar el caso de
que H0 sea cierta y la rechacemos, lo cual se conoce como error de tipo I
(el más grave desde el punto de vista científico), o que sea falsa y la
aceptemos, lo cual se conoce como error de tipo II. En un contraste de
hipótesis, la probabilidad de cometer el error de tipo I es igual al p-value
(cuanto más bajo lo fijemos a priori, menor será la probabilidad de
cometer el error de tipo I). La probabilidad de cometer el error de tipo II
tiene un cálculo más complejo (vid. Agresti y Finlay, 2009: 166-173). En
todo caso, es fácil deducir que las probabilidades de cometer ambos tipos
de errores están relacionadas, de forma que el error de tipo II será más
probable si la probabilidad del error de tipo I es más baja. Generalmente,
además, la probabilidad del error de tipo II se reduce cuando se incrementa
el tamaño de la muestra que se usa para el contraste.

Tabla 3. Decisiones en un contraste de hipótesis


Rechazar H0 Aceptar H0
H0 es cierta Error Tipo I Correcta
H0 es falsa Correcta Error Tipo II

Fuente: Elaboración propia.

Una vez introducida la idea del contraste de hipótesis, estamos en


disposición de presentar los contrastes de hipótesis para testar la
asociación entre variables. Para examinar el grado de asociación entre dos
variables discretas se usan generalmente tablas de contingencia que son
tablas de doble entrada en las que filas y columnas representan,
respectivamente, las categorías de cada una de las variables. La tabla 4
presenta un ejemplo real con datos de España, en el que las filas
representan las categorías de la variable nivel de ingresos (los quintiles
clasifican aquí a la población en grupos del mismo tamaño ordenados de
menor a mayor nivel de ingresos) y las columnas representan las categorías
de participación electoral. Las casillas representan el porcentaje de fila, es
decir el porcentaje de individuos que votaron en las últimas elecciones, se
abstuvieron o no tenían derecho a voto, con respecto al total de individuos
en un determinado nivel de ingresos. Nótese que por ello el total de fila es
siempre 100, mientras que el total de columna representa el porcentaje de
individuos que votan/se abstienen/no tienen derecho en el total de la
muestra. Los datos se presentan habitualmente en porcentajes (o
frecuencias relativas) porque facilitan la comparación entre grupos (en este
caso, niveles de ingresos).

Tabla 4. Participación electoral y nivel de renta en España


Votantes Abstencionistas Sin derecho de voto Total
Primer quintil (más pobre) 66,15 17,23 16,62 100
Segundo quintil 70,09 18,93 10,98 100
Tercer quintil 72,43 17,01 10,56 100
Cuarto quintil 74,76 15,71 9,52 100
Quinto quintil (más rico) 82,30 13,40 4,31 100
Total 72,11 16,92 10,97 100

Fuente: Encuesta Social Europea (2014).

Los datos de la tabla 4 sugieren que los individuos de más ingresos (en
los quintiles superiores) tienden a votar más que los individuos con menos
ingresos, lo cual se corresponden con la literatura comparada (Anderson y
Beramendi, 2012; Lijphart, 1997). Por ejemplo, la probabilidad de que un
individuo que pertenece a la quinta parte más rica de la sociedad vote
(82%) es alrededor de 16 puntos porcentuales superior que para alguien
que pertenece a la quinta parte más pobre (66%). ¿Podemos concluir,
entonces, que existen diferencias de participación electoral en función de la
renta en España? Sería una conclusión precipitada porque no se puede
descartar sin más que las diferencias observadas en la tabla se deban al
puro azar. En este ejemplo, el contraste de hipótesis se plantearía de la
siguiente forma:
H0: No existen diferencias en la participación electoral entre niveles de
renta.
H1: Existen diferencias en la participación electoral entre niveles de renta.
Para el caso de variables discretas como las del ejemplo, el estadístico de
contraste habitualmente utilizado es chi-cuadrado. El valor de chi-
cuadrado para una tabla de contingencia se obtiene a partir de las
diferencias entre los valores observados en las casillas de la tabla y los
valores que esperaríamos encontrar en caso de que no existiera relación
entre ambas variables:

donde Of representa la frecuencia observada en la casilla f y Ef representa


el valor esperado para esa misma casilla. Los valores esperados son
aquellos que se darían en el caso de que los individuos de la muestra se
distribuyeran al azar entre las casillas de tabla2. El valor de chi-cuadrado
sigue una distribución con df grados de libertad, donde el número de
grados de libertad se calcula multiplicando el número de filas (j) menos
uno por el número de columnas (k) menos uno (df = (j – 1)*(k – 1)).
Intuitivamente, si la diferencia entre lo observado y lo esperado en caso de
independencia entre las variables es grande, entonces debería existir una
asociación estadísticamente significativa. En efecto, si el valor de chi-
cuadrado excede el valor crítico para un determinado nivel de confianza
fijado a priori (como se explica más arriba) se rechaza la hipótesis nula de
independencia entre variables (o de no diferencia entre valores observados
y esperados) y se acepta, por tanto, la hipótesis alternativa de asociación.
En el ejemplo, el valor de chi-cuadrado es 26,16 con 8 grados de libertad
(al ser una tabla 5 x 3, df = 4*2 = 8). La probabilidad de encontrar un
valor como este (o superior) si H0 fuera cierta es de 0,001, por lo que el
valor de chi-cuadrado de la tabla es superior al valor crítico para p = 0,05
y también para p = 0,01. Podemos, ahora sí, rechazar la hipótesis nula de
no diferencias y concluir que existen diferencias significativas entre las
tasas de participación electoral de los diferentes niveles de renta para un
nivel de confianza del 99%.
Este análisis se puede generalizar a cualquier tabla de contingencia como
la del ejemplo. No obstante, conviene tener en cuenta una serie de
precauciones. En primer lugar, el test es solamente válido si todas las
casillas de la tabla tienen una frecuencia esperada igual o superior a 1 y al
menos el 80% de las casillas tienen una frecuencia esperada igual o
superior a 5, aunque en tablas 2 x 2 todas las casillas deberían tener una
frecuencia esperada igual o superior a 10. En segundo lugar, hay que
precisar que el test de chi-cuadrado dice si existe (o no) asociación entre
dos variables discretas pero no dice nada sobre la intensidad de la
asociación. Es decir, se puede saber que existe relación significativa entre
renta y participación electoral pero no se puede decir si es mucha o poca.
Esto es una consecuencia de que el valor de chi-cuadrado depende del
tamaño de la muestra y del número de casillas de la tabla (el valor máximo
que puede alcanzar es el resultado de multiplicar el tamaño de la muestra
por el número menor de filas o columnas), lo cual implica que no se puede
comparar entre tablas diferentes. Así pues, a partir del análisis precedente
no podemos responder a preguntas del tipo ¿está la participación electoral
más relacionada con el nivel de renta o con la edad?3
Cuando tenemos variables continuas, la medida de asociación entre
variables que se usa es la correlación, que puede ser positiva o negativa. Se
dice que existe correlación positiva entre dos variables cuando valores altos
de una variable se corresponden con valores altos de la otra. Y se dice que
existe correlación negativa cuando valores altos en una variable se
corresponden con valores bajos en la otra. Esta situación se puede
representar gráficamente a través de la figura 1. En el panel A se representa
un ejemplo (ficticio) en el que existe una estrecha correspondencia entre
valores de las variables X e Y, dando lugar a una elevada correlación
positiva. En el panel B se representa otro ejemplo en el que los valores de Y
son inversamente proporcionales a los valores de X, dando lugar a una
correlación altamente negativa. Lo que resulta visible en el gráfico es que,
tanto en un caso como en el otro, ambas variables están relacionadas.

Figura 1. Ejemplos de correlación positiva y negativa


Fuente: Elaboración propia.

El coeficiente de correlación lineal R de Pearson (o simplemente R) entre


dos variables x e y se define como la ratio de la covarianza4 entre x e y
sobre el producto de las desviaciones típicas de ambas variables:

Así definido, R oscila entre –1 y 1. Valores negativos indican correlación


negativa y valores positivos indican correlación positiva. Adicionalmente, a
diferencia del estadístico chi-cuadrado para tablas de contingencia, R sí
mide la intensidad de asociación entre variables continuas, de forma que
valores absolutos más elevados indican mayor intensidad de la asociación.
En consecuencia, R toma valor 0 cuando existe independencia entre ambas
variables. No obstante, ha de tenerse en cuenta que R solo capta relaciones
lineales entre variables, por lo que un valor 0 indica ausencia de relación
lineal pero no descarta la posibilidad de otras formas de asociación (por
ejemplo, dos variables pueden estar no correlacionadas, y aún así, puede
existir correlación entre el cuadrado de una y otra). El contraste de
hipótesis para testar la asociación entre dos variables continuas x e y se
construye de la siguiente forma:
H0: La correlación entre x e y es igual a 0.
H1: La correlación entre x e y es diferente de 0.
El análisis de correlación es útil, por ejemplo, para medir si existe
asociación entre los años de educación y el nivel de renta de los individuos
o entre el nivel de desigualdad y el desarrollo económico de los países. En
la tabla 5 se presenta una matriz de correlaciones que se utiliza
habitualmente para presentar las correlaciones entre pares de variables. Las
variables seleccionadas miden el nivel de confianza en diferentes
instituciones (sistema legal, policía, parlamento, políticos, partidos
políticos, Parlamento de la Unión Europea y Naciones Unidas) en España.
Todas las correlaciones son positivas y altamente significativas (p < 0,001),
lo cual indica que las personas que confían en una institución tienden a
confiar en otras también. No obstante, también se observa que la
intensidad de las correlaciones varía notablemente. Así, por ejemplo, la
correlación entre confianza en el Parlamento de la UE y confianza en las
Naciones Unidas es notablemente más elevada que la correlación entre
confianza en la policía y confianza en los partidos políticos. Si bien, no
existe un criterio estándar, y varía de unas disciplinas a otras, en Ciencias
Sociales se dice que una correlación es elevada cuando es superior a 0,6.

Tabla 5. Correlación entre confianza en diferentes instituciones en España


Sistema legal Policía Parlamento Políticos Partidos polít. Parlamento UE Naciones Unidas
Sistema legal 1,000
Policía 0,517*** 1,000
***
Parlamento 0,583 0,417*** 1,000
Políticos 0,542*** 0,395*** 0,646*** 1,000
*** *** ***
Partidos polít. 0,504 0,348 0,598 0,843*** 1,000
Parlamento UE 0,514*** 0,410*** 0,668*** 0,593*** 0,606*** 1,000
*** *** *** *** ***
Naciones Unidas 0,470 0,422 0,519 0,443 0,479 0,734*** 1,000

Nota: *** denota un nivel de significación p < 0,001.


Fuente: Encuesta Social Europea (2014).

A modo de cierre de este apartado, conviene hacer una precisión


importante que se pasa por alto en numerosas ocasiones. Asociación
estadística no es lo mismo que causalidad. O dicho de otra forma, el hecho
de que exista asociación entre las variables X e Y no implica
necesariamente que la una sea causa de la otra ni viceversa. El caso más
claro para ilustrar esto es lo que se llama correlación espúrea y se produce
cuando la asociación observada entre X e Y es consecuencia de una tercera
variable Z que, a su vez, está asociada con X e Y. Por ejemplo, es fácil
comprobar que existe una correlación entre el consumo de helados y el
número de ahogamientos en piscinas a lo largo de los días del año.
¿Significa esto que exista algún tipo de relación entre comer helado y el
riesgo de ahogamiento? No. Esta correlación es producto de una tercera
variable que, en este caso, es la temperatura. Los días de más calor se
consumen más helados y también hay más ahogamientos porque más gente
acude a las piscinas. Y hay muchos otros ejemplos llamativos de
correlaciones espúreas (véase: Vigen, 2015).
El ejemplo anterior es intencionadamente disparatado, pero en la
investigación real no siempre es fácil diferenciar las correlaciones espúreas
de las que no lo son. Volvamos al ejemplo de la relación entre renta y
participación electoral de la tabla 3. Algo llamativo (hasta ahora no
comentado) es que en los quintiles más pobres hay una proporción
importante de individuos sin derecho a voto. Esto se debe a que quienes no
tienen derecho a voto son fundamentalmente los jóvenes que no habían
cumplido la mayoría de edad antes de las elecciones previas y las personas
sin nacionalidad española que tampoco pueden votar en las elecciones
generales en España. Y como ambos grupos se caracterizan por bajos
niveles de renta, contribuyen a reducir la proporción de votantes en los
quintiles inferiores. Si hacemos el ejercicio de repetir esta misma tabla,
excluyendo a quienes nacieron fuera de España y a quienes tenían menos
de 22 años en 2014, nos encontramos ahora con que las diferencias en la
proporción de votantes entre el quintil más pobre y el más rico se reducen
de 16 a 7 puntos porcentuales y que el valor de chi-cuadrado deja de ser
significativo para p < 0,05. Más aún, si tenemos en cuenta que quienes
tienen más educación también votan más y que el nivel de renta está
estrechamente correlacionado con la educación, tampoco podemos
descartar que la asociación entre ingresos y participación electoral sea
consecuencia de que la educación está asociada con ambas. Este es un buen
ejemplo de cómo una asociación entre variables en apariencia plausible
puede esconder una relación espúrea. Y corresponde al investigador estar
siempre alerta para detectar posibles fuentes de espuriedad en sus análisis.
1
Existen muchas distribuciones conocidas en estadística. Un ejemplo muy usado es el de la
distribución normal que tiene una forma acampanada porque la mayor parte de los valores se
concentran alrededor de la media. Muchos fenómenos siguen una distribución normal (por
ejemplo, los pesos o las alturas de una población). Vid., por ejemplo, Agresti y Finaly (2009: 73-
106) para una exposición accesible sobre las distribuciones de probabilidad.
2
El valor esperado de cada casilla se obtiene como el resultado de multiplicar el total de la fila por
el total de la columna dividido por el total de la tabla.
3
Existen, no obstante, algunas soluciones para estandarizar el valor de chi-cuadrado como el
coeficiente phi (solo válido para tablas 2 x 2) o la V de Cramer. Sin embargo, su interpretación
no es intuitiva y generalmente será necesario recurrir a otras herramientas para responder a
preguntas de este tipo (ver Agresti y Finlay, 2009: 239).
4
La covarianza entre dos variables tiene una definición similar a la varianza para una sola variable y
mide hasta qué punto dos variables varían conjuntamente. Puede ser negativa o positiva.
5. NOCIONES BÁSICAS DE ANÁLISIS MULTIVARIANTE
El análisis multivariante se diferencia del análisis univariante y bivariante
en que permite el estudio simultáneo de un conjunto amplio de variables.
De esta diferencia deriva la definición ya clásica de Kendall (1975), que
entiende el análisis multivariante como el conjunto de técnicas estadísticas
que analizan simultáneamente más de dos variables en una muestra de
observaciones. La mayoría de los problemas de investigación en Ciencias
Sociales tienen una naturaleza multivariante porque la causalidad de un
fenómeno social raramente puede atribuirse a la acción de una sola
variable. Esto implica, no obstante, un mayor grado de complejidad
analítica, que excede con mucho los límites de un texto como este. Esta
sección se limitará, por ello, a presentar los principales tipos de técnicas
multivariantes y algunas de sus posibles aplicaciones. Para el correcto uso
de este tipo de técnicas, es preceptiva la utilización de uno de los muchos
textos de referencia, de entre los que podrían recomendarse a nivel
introductorio los de Hair, Tatham, Anderson y Black (1998) y Cea
D’Ancona (2004).
A grandes rasgos, se pueden distinguir tres tipos fundamentales de
técnicas multivariantes: las técnicas de dependencia, las técnicas de
interdependencia y las técnicas de clasificación. Las técnicas de
dependencia son aquellas en las que se trata de explicar una variable,
conocida como dependiente o explicada, en función de un conjunto de
variables, conocidas como independientes, explicativas o predictoras. En
otros términos, se analiza cómo afectan los cambios en una variable
independiente al valor de la variable dependiente, pero manteniendo
constantes las demás variables independientes (es lo que se conoce como
caeteris paribus). En las últimas décadas, se ha producido un movimiento
general en la investigación social hacia este tipo de técnicas por su
orientación hacia la explicación de los fenómenos más allá de la
descripción de los mismos. La regresión lineal es el paradigma básico de las
técnicas de dependencia y en ella la variable dependiente es continua,
aunque las independientes pueden ser continuas o discretas. Un ejemplo
típico de aplicación de la regresión en el campo de la economía laboral es
la ecuación de salarios (Mincer, 1958), en la que el salario de los
individuos depende de sus años de educación controlando por una serie de
factores relevantes como la experiencia laboral.
Cuando la variable dependiente es discreta, el modelo de regresión lineal
clásico deja de ser válido y es necesario recurrir a la regresión logística en
alguna de sus versiones: binomial para variables dicotómicas, ordinal para
variables ordinales o multinomial para variables multicategóricas. Un
ejemplo típico de aplicación de la regresión logística sería el de la decisión
de voto con datos como los de la tabla 4. El análisis de regresión logística
permitiría en este caso estimar la probabilidad de que un individuo con
unas determinadas características (definidas a partir de las variables
explicativas) decida votar o abstenerse y cuantificar así cómo influye cada
variable independiente en la probabilidad de voto. Otra extensión de la
regresión es la aplicación a datos de panel en los que tanto la variable
dependiente como las independientes varían en el tiempo y entre diferentes
unidades de análisis. Un ejemplo sería el estudio de la relación entre
gobiernos de izquierda y gasto público en los países industriales avanzados
(Plümper, Troeger y Manow, 2005).
Las técnicas de interdependencia son aquellas en las que se parte de un
conjunto amplio de variables para agruparlas en un número más reducido
de dimensiones (de ahí que también se conozcan como técnicas de baja
dimensionalidad). A diferencia de las técnicas de dependencia, aquí no se
establece la dirección de la causalidad, sino que se establecen relaciones de
similitud entre variables. El objetivo general de estas técnicas suele ser el de
construir espacios de pocas dimensiones, dotados de la métrica adecuada,
para representar en ellos variables o categorías. El ejemplo típico de las
técnicas de interdependencia es el análisis de componentes principales y el
análisis factorial para el caso de variables continuas. En el análisis factorial
las variables se pueden expresar como combinaciones lineales de factores y
el objetivo es que un número reducido de factores pueda dar cuenta de la
varianza compartida por las variables iniciales. Su uso está muy extendido
en psicología para obtener constructos (factores) a partir de los ítems de un
cuestionario, por ejemplo. Cuando las variables son discretas se recurre al
análisis de correspondencias que representa gráficamente las distancias
(disimilaridades) entre las categorías de las variables que intervienen en el
análisis. En sociología, se ha utilizado ampliamente en el estudio de los
estilos de vida (Bourdieu, 1988).
Las técnicas de clasificación se utilizan para realizar taxonomías o
clasificar unidades de análisis. En el análisis de conglomerados se parte de
un conjunto de unidades de análisis caracterizadas por sus puntuaciones en
un conjunto de variables y trata de agruparlas en conjuntos con baja
variabilidad interna y alta variabilidad externa, a partir de una matriz de
distancias apropiada. Se puede utilizar por ejemplo, para realizar una
clasificación de los regímenes de bienestar a partir de las variables
apropiadas (Esping-Andersen, 1993). El análisis de segmentación parte de
una variable dependiente categórica y trata de seleccionar jerárquicamente
las variables que mejor predicen la pertenencia a cada una de las categorías
de la variable dependiente. Se puede utilizar, por ejemplo, para clasificar a
los individuos en función de su decisión de voto.
6. BIBLIOGRAFÍA
Acock, A. C. (2016). A Gentle Introduction to Stata. College Station: Stata Press.
Agresti, A. y Finlay B. (2009). Statistical Methods for the Social Sciences. Upper Saddle River:
Pearson Prentice Hall.
Anderson, C. J. y Beramendi, P. (2012). Left Parties, Poor Voters, and Electoral Participation in
Advanced Industrial Societies. Comparative Political Studies, 45 (6): 714-746.
Anduiza, E.; Crespo, I. y Méndez, M. (2009). Metodología de la Ciencia Política. Madrid: Centro
de Investigaciones Sociológicas.
Bourdieu, P. (1988). La distinción. Criterios y bases sociales del gusto. Madrid: Taurus.
Cea D’Ancona, M. A. (2004). Análisis Multivariable. Teoría y Práctica en la Investigación Social.
Madrid. Síntesis.
Cea D’Ancona, M. A. (2012). Fundamentos y aplicaciones en metodología cuantitativa. Madrid:
Síntesis.
Dalgaar, P. (2002). Introductory Statistics with R. Nueva York: Springer.
Encuesta Social Europea (2014). Encuesta Social Europea. Oleada 7 (Archivo de datos 2.0.).
Bergen: Norwegian Social Science Data Services.
Escobar, M.; Fernández Macías, E. y Bernardi, F. (2012). Análisis de Datos con Stata. Madrid:
Centro de Investigaciones Sociológicas.
Esping-Andersen, G. (1993). Los tres mundos del estado de bienestar. Valencia: Edicions Alfons El
Magnánim.
Hair, J. F.; Tatham, R. L.; Anderson, R. E. y Black W. C. (1999). Análisis multivariante. Madrid:
Pearson Prentice Hall.
Kendall, M. G. (1975). Multivariate Analysis. Londres: Griffin.
Lijphart, A. (1997). Unequal participation: Democracy’s unresolved dilemma. American Political
Science Review, 91 (1): 1-14.
Mincer, J. (1958). Investment in Human Capital and Personal Income Distribution. Journal of
Political Economy, 66 (4): 281-302.
Moore, D. S.; Mccabe, G. P. y Craig, B. A. (2009). Introduction to the Practice of Statistics. Nueva
York: W. H. Freeman.
Morgan, G. A.; Leech, N. L.; Gloeckner, G. W. y Barrett, K. C. (2004). SPSS for Introductory
Statistics. Londres: Lawrence Erlbaum.
Pardo, A. (2005). Análisis de Datos con SPSS 13 Base. Madrid: McGraw Hill.
Peña, D. (1997). Introducción a la estadística para las Ciencias Sociales. Barcelona: Serbal.
Plümper, T.; Troeger, V. E. y Manow, P. (2005). Panel data analysis in comparative politics:
Linking method to theory. European Journal of Political Research, 44 (2): 327-354.
Santana, A. (2013). Fundamentos para la investigación social. Madrid: Alianza Editorial.
Vigen, T. (2015). Spurious Correlations. http://www.tylervigen.com/spurious-correlations.
Weiss, N. A. (2017). Introductory Statistics. Upper Saddle River: Pearson Prentice Hall.
Capítulo 14
ABRIENDO LA CAJA NEGRA: EL ANÁLISIS
CUALITATIVO
Alberto Vallejo Peña
Universidad de Málaga

1. INTRODUCCIÓN
Una vez culminado nuestro trabajo de campo, nos aborda la tentación de
relajarnos al poder reunir todos nuestros materiales en el disco duro y
alcanzar así, cierta sensación de control. Sin embargo, al abordar la
depuración de los datos nos encontramos ante una fase decisiva del
proyecto. Son frecuentes los casos en los que investigadores cualitativistas
reconocen haber dado con nuevos ángulos de visión, perspectivas e ideas
relevantes para el desenlace del estudio, que pasaban desapercibidos en una
primera aproximación al fenómeno analizado. Para alcanzar tal nivel de
depuración resultará esencial ser metódico y ordenado en la preparación,
transcripción, análisis e interpretación de los datos.
Para tal fin, la psicología del investigador al abordar los datos recogidos
debe apostar por un carácter integral. Es importante anotar cualquier
detalle: por ejemplo, si uno de nuestros informantes está mascando chicle
durante la entrevista, debemos anotarlo porque puede ser una información
relevante. No obstante, el calificativo de técnicas discursivas no es casual, y
nos lleva a asumir el protagonismo de los discursos y su análisis dentro del
método cualitativo. Al menos, así se ha escrito la Ciencia Social. Asumido
este principio, la pericia del investigador debe llevarle a completar la faceta
discursiva con los aspectos proxémicos1, gestuales y contextuales que
emergen en su análisis de la realidad social. Recordemos que la
información recogida de los informantes puede estar preparada,
manipulada, teatralizada por razones diversas, que van desde la
deseabilidad social a la defensa de “intereses creados”. Sin embargo, lo que
nuestros informantes difícilmente podrán alterar son los detalles, en los
que frecuentemente permanece la esencia de los problemas.
Supongamos el caso de un informante que afirma estar en una situación
económica precaria y ha dejado las llaves de un vehículo de lujo sobre la
mesa (el dato no es irrelevante). Una actitud observadora, activa y analítica
por nuestra parte, conseguirá exprimir tales detalles, aportando un gran
valor añadido a la investigación. A diferencia de lo que ocurre en la
investigación cuantitativa (muy sistematizada), en la cualitativa cada nuevo
hallazgo nos permite re-diseñar el estudio y, de hecho, su método se basa
en un continuo camino de ida y vuelta hacia los datos recogidos.
Asimismo, resulta de gran importancia la forma de ordenar y explotar las
informaciones obtenidas para su posterior interpretación. Para ello la
informática es un gran apoyo. Hoy en día encontramos aplicaciones
accesibles y adaptadas a nuestras necesidades, si bien, para que el orden
llegue a los archivos que guardamos en nuestro ordenador, deberá
prevalecer primero en nuestras cabezas.
Por lo tanto, abordaremos la fundamentación teórica de los análisis
cualitativos, las fases propias del análisis de discursos, el uso de
aplicaciones informáticas como apoyo al análisis y las recomendaciones
finales para los investigadores noveles.
1
La proxémica hace referencia a la disciplina que estudia la comunicación no verbal. Examina la
forma en la que las personas se mueven, mantienen el acercamiento o la distancia cuando
interactúan, las posturas que adoptan, los gestos, etc.
2. FUNDAMENTACIÓN TEÓRICA
A continuación abordamos las perspectivas teóricas que nos ayudarán a
alcanzar cierta profundidad al analizar e interpretar los datos en nuestras
investigaciones cualitativas. El objetivo es llegar a entender mejor las
pautas que soportan el método cualitativo y su aplicación.

2.1. La Etnometodología
La Etnometodología se desarrolló durante la década de los años 60,
contando con Garfinkel como máximo exponente. Surge en un clima de
cierto reaccionismo frente al funcionalismo-estructural (Parsons). Esta
vertiente mecanizaba el comportamiento humano al analizar su desempeño
en distintos contextos sociales, atribuyendo a los actores un rol irrelevante
como tomadores de decisiones y desconfiando de la posibilidad de que se
comportaran de forma puramente racional.
Frente a ello, emerge la Etnometodología, una perspectiva dentro de las
Ciencias Sociales que aplica la experimentación cotidiana de las personas,
exportando su utilidad a un ámbito más amplio. Preguntar en la calle por
una ubicación o dirección con éxito en la respuesta, conseguir la
colaboración de un funcionario público al que no conocemos o pedir al
vecino la salsa que nos falta para completar nuestra receta sin que se
enfade… Estas son algunas de las situaciones que afrontamos
cotidianamente y que nos suministran conocimiento que vamos
almacenando para aplicarlo a futuras ocasiones. Partiendo de esta
experimentación el científico social puede construir otras nuevas
artificialmente, aumentando así el potencial de estas observaciones
(Garfinkel, 1967). El objetivo, finalmente, es identificar pautas
estructuradas de comportamiento en diferentes grupos sociales.
Su desarrollo experimental llevó a esta metodología a obtener una gran
repercusión en los años 60 y 70. Su reconocimiento y aplicaciones se
mantienen en nuestros días. Sus mayores campos de desarrollo han sido la
sociología del trabajo, la sociología cognitiva y sus múltiples aplicaciones a
la conversación.

2.2. La Sociolingüística
Esta perspectiva se basa en el análisis del discurso de los actores
interesándose por las condiciones socioculturales que conforman sus
características. En este caso no nos interesan tanto las conversaciones y sus
resultados, sino, más bien, el uso de la herramienta en sí —el propio
lenguaje—, ya que su producción refleja los rasgos sociales del entorno.
Hjelmslev se preocupó por el uso del lenguaje desde una óptica
estructuralista. El uso lingüístico se constituye por la mediación de la
cultura y la historia, y tiene su manifestación principal en la lengua:
sistema abstracto colectivo, dentro del que se desarrolla el habla de cada
sujeto (Callejo, 2001). Para los estructuralistas, el lenguaje es una de las
redes simbólicas más ricas y complejas que existen, y su uso es una
plasmación del entorno sociocultural que lo genera.
Os invito a pensar en las conversaciones de aproximación que se dan en
las entrevistas de trabajo, aparentemente intrascendentes. Sin duda,
nuestro uso del lenguaje está siendo analizado por nuestro evaluador que
pretende nivelarlo: identificar rasgos de clase, si hablamos mejor o peor, y
nuestro nivel de expresión en nuestra lengua nativa y en una segunda
alternativa. La entrevista, además, servirá para identificar nuestros rasgos
subculturales (profesionales, generacionales, regionales), permitiendo
también comprobar la coherencia entre lo que contamos y el contexto en el
que supuestamente se desarrolla.
Entre las aplicaciones de la Sociolingüística en las Ciencias Sociales
resultan destacables las que se han dado en el campo de la sociología de la
educación. Para Basil Bernstein (1993), nuestro uso del lenguaje determina
nuestras interacciones sociales y nuestro destino desde los primeros años de
escolarización. Una vez adultos, los sujetos tienden hacia uno de estos dos
polos: el de los códigos compartidos y el de los restringidos. El primero
implica el dominio del lenguaje que todos entienden, con el uso de los
términos adecuados para definir cada concepto. Es el que se difunde en la
escuela y se refuerza a través de los medios de comunicación. El segundo
implica un lenguaje de dominio subcultural en el que prevalecen los
términos con los que un determinado grupo se encuentra cómodo y puede
alcanzar sus máximos niveles de expresión (Trinidad, 2010). Se caracteriza
por generar cierto choque cultural fuera de su ámbito y dificultades de
comprensión (jergas y expresiones locales). Las barreras entre el uso de los
códigos compartidos frente a los restringidos son las propias de la
estratificación social (las clases altas se dan a entender en todas partes, las
bajas encuentran barreras fuera de su círculo).
La tesis bernsteiniana conecta con la sociología de Bourdieu que
manifiesta su abierta crítica al rol social de la escuela. Los niños heredan el
lenguaje de su familia y entorno, y lo utilizan como medio de expresión en
la escuela (Bernstein, 1993). En ella son etiquetados en función de su
capacidad para comunicarse con los docentes, que entrarán en un proceso
de interacción fluido con aquellos que reflejen los valores propios de la
clase media, sin contar con la misma conexión con los niños procedentes
de los estratos más bajos.

2.3. El modelo dialógico


Esta perspectiva resalta que todo discurso grupal implica una
manifestación subcultural frente a los discursos dominantes de la propia
cultura. Nuestro discurso se construye basándonos en una diferenciación
respecto a nuestro entorno. De esta forma, Todorov y Bajtin —durante la
década de los 80— identificaron las relaciones intertextuales o dialógicas.
En ellas nuestro interlocutor no tiene por qué estar presente, lo estará
siempre de forma figurada (Todorov, 1981), pues nuestro discurso delata
que hay unos antecedentes que desafían nuestros argumentos “señalando
hacia fuera, hacia la palabra ajena no pronunciada” (Bajtin y Dovstoievski,
1986: 275). Por lo tanto, en el análisis del lenguaje y de los discursos que
produce debemos tratar de interpretar diversos componentes sociales:
“Cada objeto, cada noción, cada punto de vista, cada apreciación y cada
entonación se encuentran en el punto de intersección de las fronteras de las
lenguas y las concepciones del mundo, se hallan implicados en una lucha
ideológica encarnizada” (Ibid., 1986: 427).

2.4. Hermeneútica
La Hermeneútica tiene sus antecedentes en la Grecia clásica. Entonces
(siglos VI a IV a.c.) fue usada como el arte de interpretar textos complejos
(los oráculos de los dioses, por ejemplo). Se trataba de madurar la
interpretación de lo previamente escrito. Desde entonces, la Hermenútica
experimenta una compleja evolución histórica, y experimentará un notable
aumento de interés intelectual en el siglo XX con autores como Heidegger,
Weber y Beuchot. En su perspectiva contemporánea la hermeneútica gana
sentido cuando se trata de interpretar lo transmitido por culturas que
distan de la nuestra, fundamentalmente, por el factor temporal. La
hermeneútica trabaja básicamente la interpretación de textos pero no
excluye otras fuentes documentales (Heidegger, 1962).
Se debe observar cómo el análisis de un texto de hace siglos debe
incorporar la interpretación de las diferencias históricas y culturales. Esto
nos permitirá compartir mejor las experiencias del autor, ya que nos
acercamos así a su mundo. Incluso, para Heidegger, es la única manera de
acercarnos a ambientes tan ajenos a nosotros: existir es comprender,
apuntaba este filósofo. Esta disciplina exige un gran desarrollo de la
empatía por parte del analista: ver el mundo desde los ojos de los
protagonistas. Para hacernos a la idea la lectura del Nuevo Testamento
exige, por sí sola, un gran esfuerzo hermenéutico: ¿Qué representaba una
cena entre amigos en la época? ¿Y matar un cordero? Estas circunstancias
son aplicables a los esfuerzos que el investigador debe realizar cuando debe
abordar submundos (subculturas) que distan de nuestra procedencia y
socialización (redes internacionales de tráfico de armas, por ejemplo). Se
debe realizar una aproximación interpretativa que nos permita empatizar
con las experiencias allí vividas.

2.5. Teoría fundamentada


La teoría fundamentada o grounded theory es una metodología que nos
ayuda a conocer e interpretar las características y/o problemas de un
entorno social determinado, generando una teoría explicativa a partir de
los datos previamente recogidos. Glaser y Strauss difundieron con éxito
esta metodología en los años 60 y, desde entonces, está en continua
revisión.
¿Qué nos sucede? Esta pregunta era para Glaser un punto de partida
fundamental (Glaser y Strauss, 1967). Este método pasa por la aceptación
del grupo abordado de una actitud escéptica, analítica y participativa
(Vallés, 2016). La recogida de datos se abre tanto por los aspectos
cualitativos como cuantitativos, por lo que debe clasificarse como una
metodología mixta, aún conectando más con la tradición cualitativista
(Carrero, Trinidad y Soriano, 2012). En su método se trabaja partiendo de
los propios datos para acabar generando una teoría explicativa del
escenario objeto de estudio (vía inductiva). Los datos están en el centro y
todo emana de ellos: “all is data” nos decía Glaser (recogido en Vallés,
2007). Un paso clave —para asimilar el cambio cultural que supuso este
método— es la asimilación de que la grounded theory no pretende verificar
o generar teorías, sino que se pretende crear una “descripción densa” de un
ámbito concreto, a modo de microteoría (Glaser, 2001).
Las técnicas de investigación a aplicar dependerán de las observaciones
de los investigadores tras una primera exploración. El trabajo de campo se
caracteriza por un perfil muy participativo, en el que el compromiso de los
actores desempeñará un importante papel. Para realizar el análisis de los
datos con esta metodología, el desarrollo de herramientas informáticas
como NVIVO y ATLAS.ti ha multiplicado las posibilidades de los
investigadores (se abordarán en el apartado 4).
3. EL ANÁLISIS DEL DISCURSO
Para tratar el análisis del discurso, se abordará, en primer lugar, la
recogida de datos como paso previo, para comentar, en segundo lugar, el
proceso de transcripción y, finalmente, el análisis estructural de los textos
generados.

3.1. Pasos previos: la recogida de datos


Un buen análisis del discurso debe partir de una buena recogida de datos,
un paso previo que resulta esencial. En los estudios cualitativos debemos
contar con dos pilares esenciales.
1. Buen registro: poder volver a escuchar a nuestros informantes una y
otra vez es fundamental. Las grabaciones son enormemente útiles, pero
recordemos que no podremos grabar en todos los contextos. Si
contamos con ellas es importante cuidar su calidad, ya que esta es aún
más importante que el formato. Las ventajas de los recursos
audiovisuales son obvias, pero obtener registros de calidad cuando el
investigador ha debido adaptarse a determinadas circunstancias en su
trabajo de campo no siempre es fácil.
2. Observación y anotaciones: durante nuestro trabajo de campo surgen
innumerables circunstancias imprevisibles que deben ser anotadas, así
como infinidad de detalles observados en el proceso. Muchos de ellos
quedan al margen de las grabaciones, y su registro puntual será
determinante para su posterior análisis (las actitudes de los informantes
en la fase de contacto, por ejemplo). En el caso de las investigaciones en
las que la grabación es prohibitiva, la elaboración de un buen diario de
campo2 se convierte en la labor de mayor peso en el estudio.

3.2. La transcripción como etapa


Llegados a este punto abordamos la ardua labor de la transcripción. Se
trata de una labor aparentemente mecánica, aunque, en el desempeño
investigador ha recibido calificativos muy distantes. Bourdieu llegó a decir
que “una transcripción es una traducción” (Bourdieu: 1993: 920; cita
recopilada por Callejo, 2001: 145). Desde entonces las cosas no han
cambiado mucho, ya que la informática ha resultado útil con aplicaciones
que convierten la voz en texto, pero con resultados aún limitados.
A continuación trato de resumir los factores que hacen de la
transcripción una difícil tarea:
– En las situaciones en las que hay más de una persona es difícil delimitar
las intervenciones y que se recoja todo lo que se dice. Frecuentemente
hablan varias personas a la vez y se interrumpen los unos a los otros.
También se suelen dar voces y tonos dominantes. Es importante resaltar
que la labor de la transcripción empieza con la del moderador (el
mismo investigador, a veces), que afronta el desafío de ordenar las
intervenciones.
– Las dificultades propias del registro: aspectos como el sonido
ambiental, la pérdida de voces en una sala de gran tamaño o los
problemas técnicos de la grabación. Ante la posibilidad de elegir entre
el soporte audiovisual y solo de voz, la primera resulta útil para
identificar las voces e intervenciones de los informantes cuando la
conversación toma un ritmo acelerado. Además nos ayudará a registrar
los elementos no verbales de la comunicación (Conde, 2015).
– En caso de tener que recurrir a notas manuales las limitaciones resultan
evidentes: carácter no textual, información incompleta, incapacidad
para distinguir entonaciones, etc…
Para afrontar tales dificultades, expongo a continuación algunos
consejos:
– La preparación de las conversaciones es fundamental: tomar nota de
cualquier detalle que pueda ser útil, así como repetir el nombre de los
informantes varias veces con objeto de facilitar la identificación de cada
testimonio en las grabaciones de voz (Ibid., 2015). Además, una buena
labor de moderación de los grupos siempre será útil.
– Debemos apoyarnos en las nuevas tecnologías, aunque con gran
precaución. En el caso de los conversores de voz a texto, no tardaremos
en apreciar sus dificultades para interpretar acentos, defectos de dicción
o separar palabras.
– Que el propio investigador trabaje la transcripción es un valor añadido:
debemos desconfiar de colaboradores externos, particularmente si estos
no están familiarizados con el estudio. Por otra parte, se da una
inevitable tendencia a sintetizar la información. Esto no será un
problema mientras sea el propio investigador quien indique las
intervenciones de las que se debe prescindir (alguien pregunta por la
ubicación de la máquina de café y recibe indicaciones, por ejemplo).
Asimismo, se admiten diferentes estilos que van desde registros más
textuales (cuadro 1) a trabajos que presentan el discurso tras limpiar las
“impurezas” (cuadro 2).

CUADRO 1: Transcripción de estilo textual (el análisis de la cultura de una multinacional: el caso
Maersk)
– Sí, los americanos son más echaos pa’lante para eso y cuando hay que echar a alguien ¿Cuánto cuesta? ¿Millones?
Venga… A la calle.
– (Réplica de otro informante del grupo) Yo creo que sí… No se echa a nadie ahora (con los daneses), esto genera un
problema de ayuda a los irresponsables que se ven menos presionados a cumplir a rajatabla. ¿Para qué voy a hacer esto o
lo otro si sé que nunca va a pasar nada? GD5-80 (Técnicos en grupo de discusión)

Fuente: Vallejo Peña, A. (2007, cita en página 121).

CUADRO 2: Transcripción con texto depurado (Formación continua y organización del trabajo en la
gestión universitaria)
“Sí, una vez que se han realizado los cursos, se ha notado mejora en los ámbitos” (GT1)
“Creo que la misión justamente, del error formativo en una universidad, ha de ser enseñar a pescar permanentemente, es
decir, garantizar que un individuo tenga una progresión de ahora a 65 años (…). Lo que hemos de buscar es un individuo
que tenga la capacidad de aprender” (GD3)
“No es hacer cursillos por hacer cursillos. Es necesaria la adecuación de los cursos a las personas. Hace falta planificar”
(GD4)

Molina-Luque, F. (2017, cita en página 156).

3.3. La estructuración de la información: análisis estructural del texto


Una vez trabajada esta fase pre-analítica el análisis se convierte en trabajo
continuo de ida y vuelta, de regresos a “lo que se dijo” y al “cómo se
dijo”. Ante la complejidad de la tarea, una de nuestras mejores defensas va
a ser la sistematización (Callejo, 2001). Tras los trabajos de campo los
investigadores pueden hacer balance de las primeras impresiones, que les
permitirán formular las primeras hipótesis. Tales hipótesis serán ahora
proyectadas sobre las transcripciones. Una vez realizadas estas
transcripciones se realiza el primer análisis de carácter estructural: se
seleccionan las líneas discursivas relevantes, se jerarquizan y se observan
los vínculos o relaciones entre ellas.
En este ámbito la perspectiva estructuralista se ha impuesto con claridad
y su método de trabajo se centraliza en los discursos (no todos los datos
emanan de los discursos pero se admite su centralidad). De hecho, desde la
perspectiva socio-hermeneútica (Sarfati, 1997), todo estudio cualitativo
implica el Análisis de un Sistema Social de Discursos (ASSD). Tras una
lectura global de las transcripciones, el analista debe estudiar cada
fragmento y cada detalle con fines interpretativos. Tras ello, volverá a la
lectura conjunta que le permitirá lograr un ensamble general de todas las
piezas.
El ASSD implica realizar unas primeras aproximaciones a los textos para
redactar las primeras hipótesis (conjeturas preanalíticas en algunas fuentes:
véase Conde, 2015). Esta primera lectura trata de abrir la mente del lector,
que realizará un puro ejercicio de “imaginación sociológica”. Este
concepto, acuñado por Wright Mills en 1959 (1986), se refiere a la
cualidad de conectar las observaciones en nuestro entorno social con los
rasgos del conjunto de la estructura social. Tal práctica facilitará la
redacción de estas primeras hipótesis. Para poder contrastarlas debemos
entonces desarrollar nuestro ASSD que cuenta con las tres metodologías
predominantes que se exponen a continuación (basándose en a la
clasificación aportada por Conde, 2015):
1. El análisis de las posiciones discursivas de los informantes. En este
proceso respondemos a preguntas como: ¿Quién habla? ¿Desde qué
posición? ¿En nombre de quién? ¿En qué lugar o conjunto de lugares se
producen estos discursos? En este método resulta determinante fijarnos
en factores como los intereses de clase, edad, género o etnia, que
agrupan y/o diferencian los discursos de nuestros informantes.
2. El análisis de las configuraciones narrativas. Cada discurso refleja unos
determinados intereses sociales, así como la defensa de un sistema de
valores. ¿Qué es lo que está en juego en lo que se habla? ¿Qué campo
de fuerzas confrontadas manifiesta la expresión de unos y otros?
Observemos, por ejemplo, cómo determinados gremios profesionales
tienen argumentos preconcebidos que responden a experiencias e
intereses compartidos. Tales discursos compartidos serán muy palpables
durante nuestro análisis. Este primer ejemplo implicaría una labor fácil.
Nuestro análisis se complicaría si se trata de descubrir determinadas
tendencias en las relaciones familiares que son propias de los
primogénitos respecto al resto de sus hermanos. Esto aparecería en
términos más latentes (camuflados) que manifiestos.
3. El análisis de los espacios semánticos de los discursos. Consiste en
generar una serie de esquemas que reflejan los significados compartidos
(o no) por determinados sujetos o grupos. La redundancia de
determinados hilos argumentales en los discursos nos proporcionará las
pistas para elaborarlos. Asimismo, podremos identificar determinados
conceptos e ideas compartidas con presencia no casual en el imaginario
colectivo que alcanzan un carácter simbólico. Por ejemplo: en los
cualitativos que actualmente se están desarrollando sobre corrupción y
política aparecen continuas alusiones a los “coches oficiales”. Aunque
en la mayoría de los casos el uso de tales coches no es la causa principal
de la desgestión y la malversación de fondos, su peso simbólico permite
expresar una serie de manifestaciones compartidas.
Puesto que la perspectiva estructuralista se ha impuesto con claridad en el
análisis cualitativo presentamos a continuación una aportación propia de
esta línea: el método de Barthes (1990).
Fase 1. Análisis estructural del texto. Básicamente se han de seguir estos
cinco pasos:
– Establecimiento de la unidad mínima: aunque la recomendación de
Barthes para ello es la utilización de la frase por ser la mínima
expresión con algún sentido, no existe una regla fija para la
determinación de la lexia o unidad mínima.
– Segmentación: se deben establecer líneas temáticas que nos permitan
clasificar los discursos, a través de la recogida de las unidades mínimas.
– Creación de códigos que facilitan la clasificación de tales líneas
temáticas.
– Lectura y clasificación: recorremos, de una en una, las unidades
mínimas asignándoles las pertinentes clasificaciones. Como veremos en
el siguiente apartado el apoyo informático facilita mucho esta labor.
– Establecer relaciones: asociar las líneas temáticas, clasificarlas y/o
jerarquizarlas ¿Son todos los discursos presentes igual de importantes
para nuestros objetivos? Seguramente, no, por lo tanto debemos
establecer tal jerarquía, aunque sin perder cierta flexibilidad en nuestros
planteamientos: un nuevo hallazgo en nuestra investigación puede
cambiar el orden previamente establecido.
Fase 2. Análisis por temas. Tras el trabajo anterior quedarán
identificados los principales temas presentes en los discursos, así como las
subtramas a considerar dentro de ellos. Entonces trataremos de analizar el
caso de forma más global considerando el conjunto de las entrevistas y/o
reuniones. Podremos sintetizar las diferencias, distancias o similitudes entre
nuestros informantes y sus discursos.
Fase 3. Contraste de hipótesis y regreso a la teoría. Consiste en retornar a
las hipótesis formuladas en la etapa del pre-análisis para que puedan ser
verificadas o rechazadas. En esta etapa podremos experimentar la
necesidad de formular hipótesis nuevas. Finalmente debemos regresar a los
planteamientos teóricos que sustentaron nuestro estudio, ya sea
reforzándolos o discutiéndolos. Asimismo, para la redacción de nuestro
informe final debemos seleccionar aquellos discursos (citas) en los que
podamos sustentar nuestras hipótesis. Para ello se debe aplicar el viejo
principio del máximo común denominador: la misma idea defendida por
distintos informantes y en situaciones o lugares diversos ayuda a defender
un planteamiento dado.
2
Existe una buena guía para realizar diarios de campo en: García Jorba, J. M. (2000).
4. LAS HERRAMIENTAS INFORMÁTICAS COMO APOYO
AL ANÁLISIS CUALITATIVO
El apoyo informático resulta esencial para analizar e interpretar la
información obtenida en nuestro trabajo de campo. La importancia del
software como herramienta de análisis crecerá en proporción al volumen
de información recogida. El investigador debe hacerse a la idea de que una
entrevista de dos horas de duración puede dejar un registro entre 12000 y
14000 palabras, lo que nos ayuda a entender la facilidad con la que
acumulamos largas transcripciones en los estudios cualitativos y, como
consecuencia, la inevitable complejidad de los análisis.
Existen varios programas que facilitan el tratamiento y el análisis de
datos recogidos con técnicas cualitativas. Actualmente, en las universidades
y centros de investigación se ha impuesto el uso de NVIVO y ATLAS.ti, si
bien el mercado ofrece otras alternativas (AQUAD, WINMAX, MAXQDA
y Etnograph son algunos ejemplos). Su utilidad es determinante en las
transcripciones, si bien ofrecen otras prestaciones complementarias.
NVIVO facilita la realización de las siguientes funciones: ”la división de
los textos en unidades de significado (unidades textuales), la asignación de
códigos y metacódigos, el recuento de unidades de texto codificadas, el
establecimiento de relaciones jerárquicas entre las categorías, la
modificación de los sistemas de categorías, el examen y la investigación de
los documentos. La recuperación de textos a partir de la codificación
realizada o de palabras de interés, la construcción de matrices textuales, el
establecimiento de relaciones entre códigos y la comprobación de hipótesis
en base a la exploración cualitativa” (Valdemoros, Ponce y Sanz, 2011:
14).
La aplicación Atlas.ti permite también desarrollar estas funciones. Una
indagación acerca de las diferencias entre las prestaciones ofrecidas por los
dos software dominantes del análisis cualitativo nos lleva a un reciente
estudio publicado por Mayorga et al. (2014). Estos destacan en sus
conclusiones:
– NVIVO facilita la transcripción de videos y audios con un importante
ahorro de trabajo manual por parte del investigador, cuenta con el
complemento Ncapture que posibilita capturar información de Internet.
Atlas.ti, por su parte, puede grabar mapas de ubicación directamente de
Google Earth y permite trabajar con una gran variedad de formatos, y
visualizar documentos de forma muy ágil (cuatro en pantalla al mismo
tiempo).
– En cuanto a su manejabilidad, es destacable que NVIVO cuenta con la
ventaja de su similitud con el paquete Office, mientras que Atlas.ti
presenta un diseño muy intuitivo para sus usuarios.
Todo estudio cualitativo implica un análisis del sistema de discursos que
exige, a su vez, la creación de un sistema categorial. Entre las pautas que
nos ofrece el marco teórico y las primeras aproximaciones al texto
identificaremos una serie de categorías teóricas que tratan de describir los
aspectos más relevantes del escenario analizado. Por ejemplo, al abordar el
estudio de una compleja fusión de empresas podremos identificar la
categoría desplazamiento de funciones al observar que varios empleados
sufren el cambio y adaptación del puesto de trabajo en función de los
intereses y la estrategia de los nuevos directivos. De esta forma abrimos un
“gran cajón” en el que introducir información durante el resto de la
investigación, ya que hemos constatado su relevancia. Dentro de una
categoría identificaremos distintas propiedades, es decir, rasgos de la
categoría que nos interesa medir o comprobar durante el resto del estudio.
Volviendo al caso del desplazamiento de funciones, imaginemos que
detectamos que una de las consecuencias que deja ver el sistema de
discursos es la repercusión en el horario del trabajador (si pasamos de
funciones técnicas a comerciales, parece lógico que demanden más nuestra
presencia por las tardes). Por lo tanto, procede crear la propiedad afección
horaria. La descomposición de las categorías se podrá hacer en varios
niveles o etapas (obsérvese el cuadro 3). Tanto NVIVO como ATLAS.ti
ofrecen opciones ágiles y eficaces para crear los árboles categoriales.
En el ejemplo aportado sobre la actividad físico-deportiva de los
adolescentes, observamos cómo los investigadores han recurrido a cinco
niveles. Esto sólo será necesario en función de las necesidades que implique
el caso, así como de la subjetividad de los diseñadores. Asimismo, las
diferencias entre una y otra dimensión son significativas: sólo en el caso de
la dimensión 3 ha sido necesario “apurar” los cinco niveles, sin embargo
en los fines 2 y 3 se ha considerado suficiente con alcanzar el tercer nivel
dentro del árbol categorial. Además, en este caso, los investigadores
dividen las categorías en dimensiones y fines, al considerar las primeras
como aspectos que condicionan la actividad física y los segundos como
indicantes de los objetivos que el colectivo persigue con tal actividad (ver
Valdemoro, Ponce y Sanz, 2011).

CUADRO 3: Estructuración de una investigación sobre la actividad física de los adolescentes realizada
con NVIVO 9
SEGUNDO
PRIMER NIVEL (teoría) TERCER NIVEL CUARTO NIVEL QUINTO NIVEL
NIVEL
Estética corporal
Condición física
Categorías Dimensión 1 Dimensión Física
Sedentarismo
Diferencias por sexos
Características psicológicas
Decisiones/motivación
Dimensión Percepción de ineptitud
Dimensión 2
Psicológica Actitud ante la PFD
Función motivadora RFD
PFD y resultados académicos
Familia
Colegio
Agentes
Grupo iguales
Sociales
Responsable físico-deport.
Otros
Vida nocturna
Dimensión 3 Dimensión social Oferta deportiva
Tiempo
Condicionantes Dinero
Sociales Instalaciones
Nuevas tecnologías
Presión de valores sociales
Hábitat
Salud, núcleo PFD
Fin 1 Fin en sí mismo Diversión vs. Competición
Beneficios actividad improvisada
Fin 2 Fin preventivo
Fin 3 Fin rehabilitador
Sentimiento de ineptitud
Competitividad insana
Función desmotivadora del RFD
Fin 4 Fin contraproducente
Valoración familiar de la PFD
Culto al cuerpo obsesivo
Impedimentos diversos

Nota: PFD: práctica físico-deportiva; RFD: responsable físico-deportivo


Fuente: Valdemoro San Emeterio, M. A.; Ponce de León, A. y Sanz Arazuri, E. (2011, p. 21).
Durante el proceso de investigación realizaremos sucesivos regresos a los
datos, buscando en ocasiones la ampliación de los mismos (nuevas
informaciones). Cada vez que descubramos algo relevante para el conjunto
del estudio debemos escribir una anotación o memo. La identificación de la
incidencia que da lugar a la escritura de tales anotaciones responde a la
subjetividad del propio investigador. Puede ser una referencia al marco
teórico, un nuevo matiz que añadir al universo de significados, la apertura
de un nuevo foco de interés para el curso de la investigación, entre otros.
El siguiente paso es la codificación, que podemos definir como “el
proceso en el que asignamos a las unidades analizadas una serie de ejes
temáticos que nos ayudarán, posteriormente, a analizar el contenido de
forma conjunta” (Carrero et al. 2012: 42). Cada aspecto observado en la
investigación puede tener relación con una o varias líneas temáticas, y de
esta forma contemplaremos los sistemas relacionales que se establecen en el
conjunto.
Una vez desarrollada esta estructura, continuaremos nuestra exploración
de los datos, aunque de forma cada vez más selectiva, ya que
identificaremos determinados focos de interés. Esto nos llevará a revisar y
modificar el sistema categorial introduciendo nuevos elementos, o
incluyendo vínculos o agrupaciones entre las distintas partes del esquema
inicial. Asimismo, podremos contrastar las hipótesis o conjeturas
previamente redactadas (apartado 3.3.) además de enunciar hipótesis
alternativas. Por último, regresamos a la teoría, la revisamos y planteamos
nuevas aportaciones que puedan enriquecerla.

Figura 1. Resumen gráfico de un análisis cualitativo tipo


Fuente: elaboración propia.

El diagrama presentado en la figura 1 resume el proceso completo del


análisis cualitativo. El objetivo es proporcionar una visión conjunta al
investigador aplicable a su TFM o TFG, si bien se deben considerar las
diferentes adaptaciones del modelo a la diversidad de metodologías
cualitativas hoy en día aplicadas. Por ejemplo, trabajar desde la perspectiva
de la teoría fundamentada dista de hacerlo de un diseño deductivo
tradicional, por lo que tanto el diseño como los procesos para ejecutarlas
serán diferentes.
Por último, se debe resaltar que la gran utilidad que nos proporcionan las
aplicaciones informáticas descritas nos puede llevar a adoptar un cierto
mecanicismo en nuestro proceso investigador. El académico debe
concienciarse de que el apoyo de las herramientas no llevará per se a un
exitoso análisis de datos. La capacidad y constancia del autor para revisar
detenidamente cada paso y aplicar los resultados de sus propias reflexiones
a todas las fases del proceso serán determinantes para presentar un trabajo
de calidad.
5. RECOMENDACIONES FINALES
En resumen, un trabajo ordenado en el registro, transcripción, análisis
previo y codificación de los datos nos permitirá clasificar los discursos y
alcanzar un buen nivel interpretativo del objeto de estudio abordado en
nuestros estudios cualitativos. Abordamos, a continuación, las
recomendaciones destacadas en este capítulo:
– El análisis cualitativo emana de los propios datos, por lo que
trabajaremos con ellos en un constante proceso de ida y vuelta. El curso
de la investigación generará nuevas ideas e hipótesis que nosotros
contrastaremos con los datos una y otra vez. Recuérdese que en el
método cualitativo la investigación puede ser continuamente
rediseñada. Su naturaleza permite cambios y ciertos márgenes de
improvisación. Esta es precisamente la ventaja que adquiere frente al
método cuantitativo que, como hemos visto en capítulos anteriores,
aporta otras potencialidades.
– Evitar la precipitación tras las primeras notas y observaciones. El
investigador tendrá en determinados momentos la tentación de dar por
buenas interpretaciones aparentemente claras. Callejo (2001) nos habla
de la precipitación propia de algunas empresas de marketing (con prisa
por elaborar un informe tras obtener las notas de un par de grupos de
discusión). Esto ocurre por circunstancias como la seguridad que puede
llegar a mostrar un informante defendiendo argumentos falaces o la
tendencia a generalizar argumentos o ideas que emergen con fuerza en
la primera aproximación. En ello puede también influir cierto
conformismo ante las carencias de tiempo o recursos económicos. La
tenacidad para contrastar una y otra vez las informaciones y valorar su
posible generalización será clave para alcanzar resultados precisos.
– Se recomienda al investigador establecer un guion previo de trabajo, a
modo de itinerario metodológico. Los consejos ofrecidos en el apartado
4 pueden ser una buena referencia, siempre y cuando el investigador los
adapte a su propio contexto de investigación, el marco teórico en el que
se apoya y su propia perspectiva.
– Resulta de gran importancia que el investigador participe en el proceso
de investigación en primera persona. Una participación integral en
nuestro estudio nos hará más valiosos como analistas. No debemos
desaprovechar la oportunidad de intervenir directamente en la
captación de informantes, realización de las entrevistas, elaboración de
cuadernos de campo y/o transcripciones. Todo ello repercutirá en la
calidad de nuestro análisis.
– El dominio de una de las dos aplicaciones de análisis cualitativo que se
han impuesto en el ámbito académico (NVIVO y ATLAS.ti) será
enormemente útil para lograr un buen nivel analítico en nuestro TFG o
TFM. Sin embargo, no debemos caer en la tentación de mecanizar
nuestro estudio en base a las facilidades aportadas por el software. La
continua revisión del proceso, regresando a los datos cuantas veces sea
necesario y con un desempeño casi artesano, nos llevará a un brillante
resultado.
– Se debe considerar la posibilidad de crear diseños mixtos (cualitativos y
cuantitativos). Ambos métodos no están reñidos en absoluto, si bien es
necesario aplicarlos por separado para después contrastar sus
resultados (triangulación). Sin duda nos puede resultar muy útil
explotar el potencial de ambas perspectivas.
6. BIBLIOGRAFÍA
Bajtin, M. y Dovstoievski, F. (1986). Problemas de la poética de Dovstoievski. México: Fondo de
Cultura Económica.
Barthes R.(1990). La aventura semiológica. Barcelona: Paidos
Bernstein, B. (1993). La estructura del discurso pedagógico: clases, códigos y control. Madrid: Ed.
Morata.
Bourdieu, P. (1993). The Field of Cultural Production. Nueva York: Columbia University Press
Callejo, J. (2001). El grupo de discusión: introducción a una práctica de investigación. Barcelona:
Ariel.
Carrero, V.; Trinidad, A. y Soriano, R. M. (2012). Teoría Fundamentada “Grounded Theory”: el
desarrollo de la generalización conceptual (2º ed.). Madrid: Centro de Investigaciones
Sociológicas. Cuadernos Metodológicos, Nº 37,
Conde, F. (2015). “Introducción al análisis sociológico del sistema de discursos”. En García
Ferrando, M.; Alvira, F., Alonso, L. y Escobar, M. (Coords.). El análisis de la realidad social.
Madrid: Alianza, pp. 420-439.
García Jorba, J. M. (2000). Diarios de campo. Madrid: Centro de Investigaciones Sociológicas.
Cuadernos Metodológicos, Nº31.
Garfinkel, H. (1967). Studies in ethnometodology. Nueva York: Prentice-Hall.
Glaser, B. (2001). The grounded theory perspective: conceptualization contrasted with description,
Mill Valley, CA: Sociology Press
Heidegger, M. (1962). Being and time. Oxford: Blackwell Publishers
Mayorga, A.; Pulido, S. y Rodríguez, J. (2014). Comparación técnica entre NVIVO 10 y Atlas.ti 7:
Software para el análisis de datos cualitativo. Facultad de Económicas de la Universidad Nacional
de Colombia.
Mills, C. Wright (1986) [1959]. La imaginación sociológica. México: Fondo de Cultura Económica.
Molina-Luque, F. (2017). “Formación continua y organización del trabajo en la gestión
universitaria: de la eficacia a la eficiencia”. En Vallejo, A. y Herrera, J. (Coords.). Las
organizaciones ante la sociedad de la información. Sevilla: Aconcagua.
Sarfati, G. (1997). Éléments de analyse du discours. PARÍS: Nathan
Todorov, T. (1981). Introduction to poetics. Minneapolis: University of Minessota Press.
Trinidad, A. (2010). “La educación”. En Trinidad, A. e Iglesias, J. (Coords.). Leer la sociedad, una
introducción a la sociología (3ª Ed.). Madrid: Tecnos, pp. 286-307.
Valdemoro San Emeterio, M.A.; Ponce de León, A. y Sanz Arazuri, E. (2011). Fundamentos en el
manejo de NVIVO 9 como herramienta al servicio de estudios cualitativos. Contextos educativos,
14: 11-29.
Vallejo Peña, F.A. (2007). El análisis de la cultura de una multinacional: el caso Maersk. Granada:
Comares.
Valles, M. (2002). Entrevistas cualitativas. Madrid: Centro de Investigaciones Sociológicas.
Cuadernos Metodológicos, Nº32.
Valles, M. (2015). “La teoría fundamentada (grounded theory) y el análisis cualitativo asistido por
ordenador”. En García Ferrando, M.; Alvira, R., Alonso, L. y Escobar, M. (Coords.). El análisis
de la realidad social. Madrid: Alianza, pp. 399-419.
Capítulo 15
LA INTEGRACIÓN DE LOS RESULTADOS Y LA
DISCUSIÓN
Luis Ayuso Sánchez
Universidad de Málaga

“Cuando el trabajo de un investigador contribuye a enriquecer y a profundizar en


las problemáticas y los modelos de análisis, no es simplemente el conocimiento de un
objeto preciso el que progresa; sino que más profundamente, es el campo de lo
concebible el que se modifica”
Quivy (1992: 236)

1. ¿POR QUÉ SON IMPORTANTES LAS CONCLUSIONES?


Todas las fases del proceso de investigación son muy importantes, pues
investigar supone relacionar todos los pasos necesarios para responder una
pregunta de investigación, pero la redacción de la discusión y las
conclusiones constituye una parte esencial de todo este proceso. Con las
conclusiones se da por terminado el trabajo y se deben aportar respuestas a
la pregunta inicial. Existen dos aspectos que hacen especialmente relevante
la redacción de las conclusiones: por un lado, el carácter de resumen de
todo el proceso, y por otro, demostrar que se manejan las herramientas
propias del método científico.
Unas buenas conclusiones deben resumir todo el proceso de investigación
realizado, el planteamiento y la importancia de la pregunta inicial, la
pertinencia de la metodología utilizada, la discusión de los principales
resultados y las limitaciones que pueden ayudar a futuros estudios.
Muchos investigadores suelen comenzar a leer un trabajo de investigación
por las conclusiones, incluso algunos solo leen éstas. Esta práctica habitual
se realiza, sobre todo, porque comenzando la lectura por las conclusiones,
el lector se hace una idea de la importancia del tema abordado y de las
principales aportaciones sin necesidad de leer todo el trabajo. Por ello, las
conclusiones deben estar muy bien escritas aportando toda la información
que el lector espera encontrar.
Además, en las conclusiones es donde el investigador debe demostrar que
conoce y domina todo el proceso de investigación, independientemente de
los resultados obtenidos. En este apartado el investigador recuerda al lector
que conoce el estado de la cuestión sobre la problemática objeto de
estudio, domina las principales teorías que se han realizado para su
explicación, sabe manejar las técnicas para responder a la cuestión inicial y
contribuir con la construcción de “pequeñas verdades” para someterlas a
la crítica por parte de la comunidad científica. La cientificidad de las
Ciencias Sociales no se encuentra tanto en las peculiaridades de su objeto
de estudio sino sobre todo en la aplicación del método científico (Cea
D’Ancona, 2004); por ello, independientemente de los resultados
obtenidos, en las conclusiones hay que demostrar competencia
investigadora.
Aunque las conclusiones siempre se presentan al final del trabajo,
ninguna investigación se puede dar totalmente por concluida. Las
conclusiones deben dar respuesta al problema planteado inicialmente, o al
menos analizar las razones por las que no se han conseguido los resultados
esperados. Sin embargo, la producción de conocimiento científico es
siempre circular, el descubrimiento de un hecho novedoso o la
contrastación de una hipótesis tiene vigencia hasta que no existe otro
descubrimiento con mayor capacidad explicativa, o se valida otra hipótesis
y es aceptada por la comunidad científica. La vigencia de una idea tiene un
recorrido momentáneo y es el primer paso para su nueva contrastación.
Como recuerda Umberto Eco, si la investigación ha sido realmente
interesante y novedosa, habrá despertado el interés y abierto nuevas ideas
con las que profundizar en el futuro (Eco, 2000).
Desde el punto de vista de la ética, las conclusiones también son
importantes, pues reflejan la orientación que suele adoptar el investigador
a la hora de presentar los resultados más importantes de su trabajo. Todo
trabajo científico debe explicar claramente el proceso realizado para llegar
a determinadas conclusiones y exponerlas a la crítica de la comunidad
científica. Se trata de que otros investigadores puedan conocer las
decisiones adoptadas y replicar el trabajo llegando a conclusiones
similares. Sólo a partir de la crítica los resultados serán más importantes y
tendrán más repercusión. Una investigación no criticada puede significar
que no ha despertado el interés de la comunidad investigadora (Guinea,
2012). Las conclusiones deben redactarse de forma que sirvan a los futuros
investigadores, ello supone adoptar una actitud solidaria, tratar de poner
una pequeña piedra en la enorme montaña del conocimiento con la
esperanza de que en el futuro otros investigadores mejoren nuestros
resultados.
Por último, una de las cuestiones que suele ser objeto de confusión es la
diferencia que hay entre las conclusiones, los resultados y la discusión;
estos contenidos están relacionados entre sí, pero deben conocerse sus
diferencias.

Tabla 1. Principales diferencias entre resultados, discusión y conclusiones


Resultados Presentación de los principales resultados de los análisis realizados, cuantitativos (incluyendo tablas y
gráficos) y/o cualitativos (incluyendo esquemas conceptuales y citas)
Discusión Contrastar los principales resultados con los objetivos y las hipótesis planteadas, analizar las razones por las
que se cumplen o por las que no
Conclusiones Presentación de la principal aportación del trabajo y reflexión con la comunidad científica

Fuente: elaboración propia

En muchos trabajos el apartado de conclusiones suele incluir también la


discusión, en otros éstas aparecen en los resultados y no como apartado
propio, pero ¿qué diferencias hay? Los resultados hacen referencia a la
presentación de los datos más importantes obtenidos a través de las
técnicas de análisis. En los estudios cuantitativos suelen presentarse en
tablas o gráficos, y en los cualitativos esquemas conceptuales y citas. La
discusión se refiere a la contrastación de los resultados obtenidos con los
existentes en el marco teórico. Se trata de comprobar si se han cumplido o
no los objetivos y las hipótesis planteadas y las razones por las que se
cumplen o no. Esta fase de análisis es fundamental pues se trata de
establecer una conversación (discusión) entre los datos, el estado de la
cuestión y nuestra propia reflexión. Las conclusiones tienen que ser muy
concisas, precisas y muy bien escritas, poniendo en valor la principal
aportación realizada en el estudio.
En función de la estructura del trabajo de investigación, algunos autores
optan por incluir la discusión cuando presentan los resultados, dejando un
apartado final para las conclusiones. Otros prefieren presentar los
resultados por un lado y unir discusión y conclusiones por otro,
enfatizando los hallazgos realizados y su propia reflexión; y también hay
investigadores que optan por diferenciar estos tres apartados en el texto.
Cualquiera de las tres opciones es correcta, lo importante es que el
contenido de resultados, discusión y conclusiones aparezca en todo trabajo
de investigación.
2. AL FINAL VOLVER AL PRINCIPIO: EL PRINCIPIO
CIRCULAR DEL MÉTODO CIENTÍFICO
Para redactar unas buenas conclusiones se debe tener presente el proceso
de investigación que siguen las Ciencias Sociales. Las conclusiones no son
más que la finalización del proceso de investigación, pero en ellas se debe
demostrar su vinculación con todo el proceso. Por ello, es importante antes
de redactarlas volver al principio de las mismas: la pregunta de
investigación y el marco teórico sobre el que este se asienta. Wallace
(1971) recuerda cómo el proceso de investigación es circular, incluyendo la
inducción y la deducción, y este debe ser un principio guía a lo largo de
todo el estudio que debe hacerse espacialmente explícito en las
conclusiones.
Toda investigación comienza con una pregunta sobre un hecho sobre el
que se quiere obtener contrastación científica. Ese fenómeno se explica por
una o varias teorías que deben ser sometidas al método científico. Para
ello, de cada una de las teorías se deducen unas hipótesis concretas que se
operacionalizan haciéndolas contrastables. A partir de ahí, se planifica un
trabajo de campo en el que recoger información que permita analizar los
postulados teóricos; dicha planificación contempla técnicas de obtención
de datos y técnicas de análisis de datos (tanto cuantitativos como
cualitativos). Los resultados de la información obtenida producen
generalizaciones empíricas que se contrastan con las hipótesis originales.
Ello da lugar a que se acepte la teoría inicial, se modifique ligeramente o se
rechace. Las conclusiones de esta espiral investigadora son el primer paso a
nuevas preguntas de investigación y a que el proceso comience
nuevamente.
A la hora de redactar las conclusiones es fundamental mostrar al lector
que todos los pasos que se han tomado durante el proceso de investigación
estaban relacionados. Todas las decisiones perseguían la misma finalidad,
que era dar respuesta a una pregunta inicial convertida en objetivos e
hipótesis y apoyada en una teoría. La elección de una determinada
propuesta metodológica no se hace de forma aleatoria, o por intereses
particulares del propio investigador, sino que responde a lo que se quiere
conocer. La discusión puede dar lugar a nuevas interpretaciones y teorías
que deben ser sometidas a una nueva contrastación empírica. La redacción
de las conclusiones debe tener presente que se han seguido los pasos del
método científico.
Desde el punto de vista teórico el esquema de Wallace debe ser el
principio guía a la hora de redactar las conclusiones, pero ¿qué contenidos
deben tener éstas? Cada investigador, a partir de su práctica y experiencia
particular, tiene su propia “receta” para redactar las conclusiones, es por
ello por lo que podemos encontrarnos modelos de conclusiones y estilos
diferentes. A nivel particular, la estrategia que suelo seguir se articula en
tres partes: resumen, aportaciones y aplicaciones.

Tabla 2. Contenidos a incluir en las conclusiones


Partes Contenido
Presentación de la principal pregunta de investigación,
objetivos e hipótesis.
Vinculación de la investigación con el estado de la cuestión.
Pequeño resumen del
proceso investigador Proceso metodológico seguido: muestra, técnica de obtención
de datos y de análisis de datos.
Principal aportación, descubrimiento o deducción obtenida en
el proceso de investigación.

Mostrar la vinculación Discusión entre los resultados observados y esperados. La


permanente entre objetivos, integración de la teoría en la discusión de los datos.
metodología Principales Nuevo conocimiento relativo al objeto de análisis: descriptivos
y resultados aportaciones propias o explicativos.
Nuevos conocimientos teóricos: nuevas razones, precisión de
conceptos, propuesta de nuevas explicaciones, etc.

Buscar las relaciones entre los elementos de análisis y las


aplicaciones prácticas
Buscar aplicaciones de
Reflexionar sobre los diferentes actores sociales beneficiarios
los resultados
de los resultados
Sociología básica versus sociología aplicada

Fuente: elaboración propia

Las conclusiones deben comenzar por un breve resumen de todo el


proceso de investigación. No debe ocupar más de uno o dos párrafos. No
se trata de volver a repetir lo que ya se ha escrito en apartados anteriores,
sino recordar la pregunta de investigación inicial, su interés para la
disciplina y las principales dificultades que se han tenido que superar a lo
largo de todo el proceso. Debe diferenciarse entre lo que es un resumen y
una conclusión. El resumen es la presentación sintética de las principales
ideas que se han descubierto, sin aportar nada más; mientras que en las
conclusiones se aporta la perspectiva del investigador basada en evidencias
empíricas; debemos optar por esta segunda acepción.
En estos primeros párrafos es muy importante subrayar la importancia de
la temática elegida, poner en valor las potencialidades de la investigación
realizada y cómo las decisiones metodológicas que se han ido tomando
respondían a los objetivos de la investigación. En el resumen se puede
hacer referencia a la pertinencia del objeto de estudio por el debate teórico
actual alrededor de ese tema, se puede señalar la originalidad metodológica
al haber creado un índice, combinar metodología cuantitativa y cualitativa,
o la relevancia de la muestra o base de datos utilizada. También se puede
enfatizar la importancia de los resultados; en los trabajos cuantitativos,
conseguir una alta correlación entre variables, un R cuadrado muy alto,
etc.; mientras que en estudios cualitativos, nuevas claves discursivas,
razones e interpretaciones novedosas, etc. Se trata, en definitiva, de
presentar nuevamente nuestro estudio pero de forma diferente,
aprovechando la experiencia del trabajo realizado y poniéndolo en valor.
En segundo lugar, y como parte central de las conclusiones, el
investigador debe preguntarse qué ha aportado él con este trabajo a la
comunidad investigadora. Se trata de reflexionar a partir de lo que han
dicho otros autores sobre este mismo tema y subrayar las aportaciones y
descubrimientos propios. En este sentido, no se debe caer en el desaliento si
no se realiza una gran aportación teórica o empírica, no pasa nada por no
hacer un gran descubrimiento, ni poner “patas arriba” el statu quo sobre
esta cuestión, suele ser habitual. Debe tenerse presente que se trata de una
primera aproximación a la investigación a través de un TFG o un TFM,
basta con demostrar que sabemos cómo se investiga en este ámbito y nos
aproximamos a cómo se construyen verdades en Ciencias Sociales.
Según Quivi (1992), al terminar una investigación se pueden hacer
aportaciones en dos niveles: nuevo conocimiento relativo al objeto de
análisis y nuevos conocimientos teóricos. En relación al primero, toda
investigación aporta información nueva sobre la temática analizada.
Aunque dicha investigación sea la repetición de una anterior o sobre el
mismo objeto de estudio, siempre hay matices, pequeñas modificaciones o
la ratificación de los resultados existentes. Las investigaciones descriptivas
a veces se realizan sobre aspectos novedosos de la realidad social, de los
cuales solamente con conocer cuántos son y qué características tienen
constituye una aportación importante.
Por ejemplo, en los años 60, cuando la Sociología científica moderna
nacía en España, la mayoría de las investigaciones que se realizaron eran
descriptivas con el objetivo de conocer mejor los rasgos básicos de la
sociedad española; su importancia fue crucial para medir el desarrollo de
nuestro país, véanse los primeros informes FOESSA. En la actualidad,
abordar fenómenos nuevos como el impacto de las TIC en la sociedad o
cuestiones clásicas pero en contextos regionales o locales donde nunca se
han abordado, constituye de por sí una información importante. Por otro
lado, las investigaciones explicativas buscan relacionar características y
predecir comportamientos, queriendo desentrañar los mecanismos sobre
cómo se producen los procesos sociales. Todas las aportaciones por
pequeñas que sean aportan aspectos para avanzar en el conocimiento de
estos procesos, siendo ya de por sí importantes.
Un trabajo de investigación normalmente no solo es el contraste o la
presentación de unos datos determinados, detrás de esos datos hay una
reflexión previa y una propuesta analítica, buscado responder unos
objetivos o contrastar unas hipótesis. En este sentido, es difícil para el
investigador novel realizar nuevas aportaciones teóricas, pero ello no debe
desmotivarle, “la posibilidad de que una investigación social produzca un
nuevo conocimiento teórico se relaciona con la formación teórica y la
experiencia del investigador. El investigador principiante no debe forjarse
ilusiones al respecto. Sin embargo, no hay que situarse en el plano de los
descubrimientos teóricos inéditos y de gran interés para el conjunto de la
comunidad científica, sino más bien en el del descubrimiento de las
perspectivas teóricas nuevas desde el punto de vista del investigador que ha
efectuado el trabajo, aun en el caso de que dichas teorías se conozcan
ampliamente desde antes. El punto de vista sigue siendo de formación”
(Quivi, 1992: 233-234).
En el apartado de las conclusiones se deben aportar nuevas razones,
matizar algunas interpretaciones o definir conceptos teóricos de forma más
precisa. Se trata de sacar conclusiones a partir de la discusión y
presentarlas de forma clara para que puedan servir de guía a futuros
investigadores. En estos párrafos centrales, se debe poner de manifiesto la
lógica del modelo analítico y sus deducciones, y se deben presentar los
resultados y reflexiones más importantes relacionadas con la ratificación o
el contraste de los objetivos e hipótesis.
En tercer lugar, unas buenas conclusiones deben buscar la orientación
aplicada de sus resultados. Muchos científicos sociales y en especial los
sociólogos no solemos estar acostumbrados a realizar estudios con una
orientación práctica, de ahí el especial esfuerzo que hay que hacer en este
ámbito. Todos los investigadores pretenden que sus estudios tengan
utilidad, algunos trabajos buscan resultados en el plano teórico, avanzando
las fronteras del conocimiento, mientras que otros buscan aplicaciones
prácticas concretas, por ejemplo, informes técnicos, evaluación de
determinadas medidas y/o políticas, estudios sobre consumo y marketing,
etc. La orientación aplicada debe estar presente desde la propia concepción
del estudio. En este sentido, puede haber TFG o TFM que busquen avances
teóricos, nuevos conceptos o explicaciones a los fenómenos estudiados, y
otros cuestiones más prácticas y concretas, por ejemplo, estudios para dar
respuesta a determinadas problemáticas sociales (el fracaso escolar,
marginación y exclusión social, delincuencia, victimización, etc.) u
orientación en la toma de decisiones. La clave se encuentra en poner de
manifiesto la utilidad de nuestra investigación.
Una recomendación importante a la hora de redactar este apartado es
reflexionar sobre cómo se pueden aplicar los conocimientos obtenidos en
la investigación a la mejora de la sociedad. Pensar en la realización de
propuestas para políticas públicas, las posibles aplicaciones para empresas
de mercado, o el aprovechamiento de estos conocimientos para las
organizaciones de la sociedad civil. Muchas veces el investigador no es
consciente de la propia utilidad que tienen sus resultados, no siendo capaz
de dar el salto desde la sociología básica a la aplicada. Por ello, se debe
realizar un especial esfuerzo en poner en valor nuestras aportaciones.
3. ALGUNOS TRUCOS Y CONSEJOS PARA HACER UNAS
BUENAS CONCLUSIONES
La mejor forma de aprender a escribir unas conclusiones e integrar
resultados y discusión de una investigación, es realizar muchas
investigaciones y muchas conclusiones. La experiencia es muy importante
para casi todo, y también para crear el hábito de la escritura científica.
Como afirma Umberto Eco (2000), a escribir se aprende escribiendo, por
lo que no se debe tener miedo a que las conclusiones sean mejorables, es
más, todos los trabajos son mejorables. Sin embargo, hay cuestiones que se
deben cuidar especialmente referidas al formato, estilo de escritura,
contenidos mínimos, etc. No existe un método o un modelo específico para
redactar las conclusiones, pero sí una serie de recomendaciones y consejos
que pueden ayudar a mejorar la redacción final.
En primer lugar, una cuestión muy importante a lo largo de todo el
trabajo pero que es fundamental en las conclusiones, es cuidar el estilo de
escritura. Las conclusiones deben estar muy bien escritas para captar el
interés del lector. No hay que obsesionarse con palabras que suenen bien,
pues no se trata de hacer literatura sino ciencia; la prioridad es transmitir
los conocimientos de la forma más fácil posible y que llegue a las
audiencias a las que se dirige. Se deben utilizar frases cortas, claras, con un
lenguaje fácil y comprensible; y se debe revisar especialmente la ortografía
y la redacción. Se aconseja:
– Releer las conclusiones varias veces para comprobar que están bien
escritas.
– Leer en voz alta para darse cuenta de si están bien escritas o no, y de los
puntos y comas.
– Dejárselas leer a otras personas para comprobar que son comprensibles
por todos.
– Leer los trabajos de los autores clásicos, e incluso sociólogos
contemporáneos como Merton, Golthorpe o Portes que pueden servir
de ejemplo.
Durante la redacción de las conclusiones se debe utilizar un lenguaje
científico. En las Ciencias Sociales es fácil dejarse llevar por el
subjetivismo, el cual es inevitable y muy importante para la creatividad,
pero a la hora de escribir unas conclusiones y transmitir el conocimiento
hay que ser consciente de que se trata de hacer ciencia; ello supone buscar
la neutralidad objetiva y basar siempre las afirmaciones en evidencias
empíricas o en postulados contrastados científicamente.
Una práctica obligatoria antes de ponerse a escribir las conclusiones, y
que a menudo se olvida, es reflexionar sobre los objetivos, resultados y
finalidad del trabajo. En ocasiones el investigador se imbuye en el trabajo
sin parar en la necesaria reflexión y meditación sobre sus resultados. En
este sentido, se recomienda volver a leer todos los apartados anteriores,
sobre todo los análisis, e intentar reflexionar sobre los resultados. Se
aconseja:
– Comentar los resultados más significativos con colegas y compañeros
para incentivar la reflexión
– Hacerse las siguientes preguntas: ¿Por qué se obtienen estos resultados?,
¿qué teoría del marco teórico tiene más capacidad explicativa?, ¿tienen
nuestros datos validez y fiabilidad?, ¿qué repercusiones pueden tener?
Otra cuestión habitual antes de redactar las conclusiones es preguntarse
por cuáles resultados se deben comentar en este apartado, ¿se deben
comentar los mismos resultados presentados en el apartado de análisis? En
la discusión no se deben volver a repetir las mismas ideas que se han
presentado en los análisis, de hecho, no es recomendable aportar muchos
datos. Se trata de presentar solo los más importantes, originales y
novedosos que dan pie a la reflexión. Se aconseja:
– Durante el proceso de análisis y trabajo con los datos es habitual que
hayan surgido ideas, reflexiones y notas, esta información es importante
no perderla, su revisión puede servir de guía para comenzar la
redacción de las conclusiones.
– Las conclusiones deben ser cortas, claras y concisas.
– Los alumnos de Sociología de la Universidad de Princeton suelen seguir
siete principios básicos a la hora de analizar los datos de sus estudios
(sobre todo cuantitativos) (Tabla 3).

Tabla 3. Los siete principios básicos para el análisis de datos


1. Se deben contextualizar los datos objeto de análisis.
2. Usar ejemplos y comparaciones que puedan ser entendidos por el máximo número de audiencias. Usar casos reales.
3. Elegir un vocabulario apropiado para los potenciales lectores.
4. Decidir si presentar en el texto números, tablas o figuras.
5. Presenta e interpreta los datos que aparecen en el texto. Enfatiza los aspectos específicos descubiertos y la relación con la
pregunta de investigación.
6. Especifica la dirección y el grado de asociación entre las variables (estudios cuantitativos).
7. A la hora de explicar un modelo matemático de análisis, no se debe abusar de los números sino más bien presentar las
generalizaciones más importantes.

Fuente: Miller (2004: 32)

Una cuestión que también debe cuidarse es el orden en el que se


presentan las ideas, éstas deben estar muy bien estructuradas, pudiéndose
incluir un párrafo al principio adelantando al lector su contenido. Según
Ander-Egg (2000), a la hora de establecer un orden se deben cumplir
cuatro requisitos fundamentales: “Unidad: cuanto se diga debe estar
relacionado con el estudio, Orden: las ideas deben desarrollarse de modo
que los razonamientos puedan derivarse unos de otros, Progresión: de
modo que el conjunto del discurso avance por aproximaciones sucesivas y
Transición: un informe no puede ser un amontonamiento de ideas, es
necesario que se aprecien con claridad las diferentes partes y las relaciones
de las mismas con el conjunto del trabajo” (136). Se aconseja:
– La presentación de las conclusiones se pueden realizar de dos formas,
bien redactadas en un texto claro y conciso, o bien enumerando las
principales ideas, ambas formas son correctas. La opción por una u otra
en un TGF o TFM depende del formato final elegido. En los informes se
suele optar por la numeración, mientras que en los formatos tipo
artículo por la redacción.
Una recomendación fundamental para redactar las conclusiones es
repasar uno a uno los distintos objetivos e hipótesis presentadas, para
recordar si se han respondido o no en la investigación y las razones y
argumentos en los que se apoyan. Esta parte es clave para iniciar la
discusión. Se debe establecer un diálogo entre lo que afirman las teorías,
los principales resultados de otras investigaciones y lo que se aporta de
nuevo en este trabajo. Se aconseja:
– Presentar las relaciones encontradas en el apartado de los resultados e
interpretar lo que hay detrás de los datos (cuantitativos y cualitativos).
– Contrastar la relación entre los resultados observados y los esperados y
las causas que lo pueden explicar.
– Se deben distinguir entre las ideas que surgen del propio investigador y
las que se vinculan directamente con el trabajo empírico.
Por último, ¿cómo deben terminar las conclusiones? Algunos autores
suelen realizar una reflexión personal, otros presentar las limitaciones que
se han encontrado en el estudio; y los hay también a quienes les gusta
concluir con nuevas hipótesis para contrastar en trabajos futuros. Todas
estas formas son correctas. Destacar las carencias del propio trabajo
supone, por un lado, realizar un ejercicio de sinceridad y honestidad; y por
otro lado, dar pistas a los futuros investigadores sobre cómo mejorar el
propio trabajo que se presenta. No debe olvidarse que las conclusiones son
el primer paso para siguientes estudios: “Cuanto más pensemos más nos
faltará por pensar. Las Ciencias Sociales son dispositivos siempre
provisionales, siempre abiertos” (García Ferrando et al., 2016:13).
4. LA ORIENTACIÓN APLICADA DE LA SOCIOLOGÍA Y
DE LAS CONCLUSIONES DE TODO TRABAJO DE
INVESTIGACIÓN SOCIAL
Todos los trabajos de investigación tienen una orientación aplicada,
aunque muchas veces no se es consciente de ello. Al igual que cuando se
teoriza, al hacer las conclusiones se debe enfatizar en la orientación
aplicada de los resultados. Teoría y conclusiones están muy relacionadas.
La teoría está planteada para resolver problemas prácticos, cuando
generalizamos, cuando hacemos hipótesis e incluso cuando utilizamos el
sentido común estamos utilizando una teoría. “La teoría es pues tan
necesaria como inevitable, pues sin ella no sería posible aprender nada ni
actuar de manera coherente; sin generalizaciones y abstracciones, el mundo
se nos presentaría como un confuso tapiz hecho de retales de experiencias e
impresiones sensoriales inconexas” (Joas y Knöbl, 2016: 14).
La teoría es el principio guía de toda investigación, relacionada con las
hipótesis y con la propuesta metodológica a seguir. Como afirman
Requena y Ayuso (2016: 23), este proceso va de la mano, “datos y teorías
deben estar relacionados. No pueden ir separados. Las teorías no deben ser
inventadas en abstracto, sino que deben adecuarse a las tareas de
explicación fundamentada por los datos. La base empírica para las
explicaciones tiene que probarse y querer encontrarse”. Las conclusiones
deben estar vinculadas con la teoría inicial y, al igual que éstas, subrayar
sus aspectos más aplicados. No debe olvidarse la finalidad última de
nuestro trabajo, que debe plasmarse en la orientación de las conclusiones,
como recuerda Fernández Esquinas (2006: 36), debemos “mejorar el
conocimiento de la realidad social y aumentar el acervo de conocimientos
sociológicos, ofrecer conocimientos útiles para la toma de decisiones y
mantener la legitimidad de la disciplina para que las dos tareas anteriores
puedan seguir realizándose”.
Hace unos años se produjo en Estados Unidos un interesante debate entre
los partidarios de la Sociología analítica y aquellos que defendían la
Sociología pública. Ambas representaban dos corrientes críticas dentro de
la Sociología que reflexionaban sobre el papel que desempeñaba la
disciplina y la reivindicación frente a economistas, periodistas, juristas o
políticos de nuestro saber como Ciencia Social primordial. El mero debate
en sí, ya muestra el interés por una revitalización de la Sociología.
Los sociólogos analíticos parten de una rigurosa crítica de la Sociología
actual, “instalada en un cómodo ‘todo vale’ que no hace ascos a los
géneros más diversos, desde el ensayismo social con vuelo literario o
periodístico hasta la simple palabrería impresionista” (Aguiar et al., 2009).
Frente a ello, se proponen un giro analítico que recuerda a los primeros
postulados positivistas de Comte y Durkheim, al basarse, entre otros, en
principios como: la precisión en las definiciones, la preocupación por la
racionalidad del discurso y el rigor lógico en la argumentación, la opción
metodológica por la explicación causal, o la construcción teórica como
tarea inseparable de la explicación científico social (2009:439).
En paralelo a este debate, la Sociología pública reivindica un mayor
compromiso de la Sociología con la sociedad, aumentando su grado de
influencia sobre la misma y especialmente sobre el poder político. A través
del estudio de temas de actualidad que interesen a la opinión pública y la
constitución de esta corriente como un movimiento intelectual dentro de la
Sociología, Burawoy (2005) propone utilizar el conocimiento sociológico
para cambiar la realidad social. “Lo que se busca es revitalizar la disciplina
utilizando sus teorías y métodos de investigación empírica en asuntos que
se refieren no solo a cómo ha sido y a cómo es la sociedad actual, sino a
cómo debe ser” (Fernández Esquinas, 2006).
Ambas corrientes de este interesante debate se deben tener presentes a la
hora de redactar las conclusiones. Debe recordarse que no están
necesariamente enfrentadas, pues coinciden en el diagnóstico crítico de la
disciplina y en la necesidad de una mayor contribución y presencia de la
misma en la sociedad. En definitiva, una mayor orientación aplicada.
Como recuerda Goldthorpe, la sociología “debe aspirar a ser un modo de
discurso público o ‘conversación’ que ofrezca a los ciudadanos nuevas
perspectivas sobre la sociedad y nuevas posiciones y vocabularios
axiológicos que puedan servir de base tanto a la crítica como a la práctica
social” (2010:32). Para ello, debe integrar los distintos tipos de acepciones
que señaló Fernández Esquinas al referirse a la sociología aplicada (2006);
la investigación sociológica aplicada referida a la adquisición de
conocimientos originales mediante indagación empírica dirigidos a resolver
asuntos prácticos; la ingeniería social, para diseñar políticas e instituciones;
y la sociología clínica, aplicando la perspectiva sociológica para
proporcionar consultoría o asistencia técnica.
El sentido aplicado de las conclusiones debe responder a una orientación
aplicada de todo el TFG y TFM, lo cual supone pensar bien los temas
seleccionados para trabajar, y reflexionar previamente sobre cuál queremos
que sea la finalidad de nuestro trabajo. Los sociólogos sabemos que la
sociedad se construye día a día a través de nuestro quehacer diario, lo
mismo ocurre con la ciencia. Sociología se hace todos los días, está en
nuestra mano superar una Sociología que se mira a sí misma y apostar por
una orientación más aplicada. Esto es trabajo de todos, desde los
profesores en nuestros artículos de investigación a nuestros alumnos en sus
TFG y TFM.
Existen múltiples ejemplos de buena Sociología aplicada que pueden
servirnos de referencia a la hora de buscar la orientación práctica de
nuestros trabajos. Basta con revisar los estudios clásicos de Coleman o
Merton, o más recientemente los trabajos de Goldthorpe o Portes. Por
ejemplo, la propuesta metodológica que sigue Alejandro Portes (2012) a la
hora de abordar un tema de investigación supone, en primer lugar, recoger
todas las explicaciones que se dan sobre un fenómeno determinado,
analizando las aplicaciones que han tenido dichas explicaciones y su
capacidad predictiva. A continuación, realiza una reflexión profunda y
busca una estrategia metodológica con la que poder buscar otras
explicaciones más convincentes. Sus trabajos terminan aportando nuevas
teorías de alcance medio que puedan ponerse en práctica para mejorar
aspectos concretos de la sociedad (la integración de los inmigrantes, la
economía sumergida, el emprendimiento, o la movilidad social).
En nuestro país, y entre las aportaciones más recientes, es recomendable
que los alumnos revisen las aportaciones que ha realizado el profesor
Ramón Flecha alrededor del proyecto IMPACT1. Esta iniciativa europea
busca desarrollar indicadores y criterios con los que evaluar el impacto
científico de la investigación en Ciencias Sociales; estos indicadores pueden
servir de guía en la orientación de nuestras investigaciones. Del mismo
modo, también es interesante revisar las aportaciones del grupo de trabajo
sobre la práctica sociológica, recientemente puesto en marcha por parte de
la Federación Española de Sociología.
No existen fórmulas para hacer aplicadas unas buenas conclusiones, se
trata, como recordaban Lazarsfeld y Greitz (1975), de buscar esta
orientación en todo el proceso. La Sociología aplicada parte de una teoría,
aprovecha la acumulación de conocimiento teórico y experimental
existente hasta la fecha para aportar soluciones, responder preguntas y
sobre todo guiar con predicciones los comportamientos. Un TFG o un
TFM es nuestra primera aproximación a la investigación social, pero
también puede ser nuestra carta de presentación como científicos sociales
para poder desarrollar nuestro trabajo en el ámbito privado o en el
público, por ello hay que buscar siempre esta orientación aplicada que
pueda abrirnos nuevas puertas.
1
Evaluating the impact and outcomes of European SSH Research, investigación seleccionada por el
séptimo Programa Marco de la Comisión Europea.
5. BIBLIOGRAFÍA
Aguiar, F., De Francisco, A., Noguera, J. A. (2009). Por un giro analítico en Sociología. Revista
Internacional de Sociología, 67 (2): 437-456.
Ander-Egg, E. (2000). Métodos y técnicas de investigación social. Cómo organizar el trabajo de
investigación. Buenos Aires: Lumen.
Burawoy, M. (2005). For Public Sociology, American Sociological Review, 70 (1): 4-28.
Cea D’Ancona, M. A. (2004). Metodología cuantitativa: estrategias y técnicas de investigación
social. Madrid: Síntesis.
Eco, U. (2000). Cómo se hace una tesis. Barcelona: Gedisa.
Fernández Esquinas, M. (2006). El resurgimiento de la “sociología pública”. Revista Española de
Sociología, 6: 7-33.
Fernández Esquinas, M. (2006). La sociología aplicada. Revista Española de Investigaciones
Sociológicas, 115: 11-39.
García Ferrando, M., Alvira, F., Alonso L. E., Escobar, M. (2016). El análisis de la realidad social.
Métodos y técnicas de investigación. Madrid: Alianza.
Goldthorpe, J. H. (2010). De la sociología. Números, narrativas e integración de la investigación y
la teoría. Madrid: Centro de Investigaciones Sociológicas.
Guinea, D. (2012). Trucos del oficio de investigador. Casos prácticos de investigación social.
Barcelona: Gedisa.
Joas, H., y Knöbl, W. (2016). Teoría social. Veinte lecciones introductorias. Madrid: Akal.
Lazarsfeld, P. F. y Greitz, J. G. (1975). An Introduction to Applied Sociology. Nueva York: Elsevier.
Miller, J. E. (2004). The Chicago guide to writing about numbers. The effective presentation of
Quantitative information. Chicago: Chicago University Press.
Portes, A. (2012). Sociología económica. Una investigación sistemática. Madrid: Centro de
Investigaciones Sociológicas.
Quivy, R. (1992). Manual de investigación en Ciencias Sociales. México: LIMUSA.
Requena, F. y Ayuso, L. (2016). Teoría sociológica aplicada. Barcelona: Anthropos.
Wallace, W. (1971). The logic of science in sociology. Londres: Routledge.
Capítulo 16
LA DEFENSA PÚBLICA DE NUESTRA
INVESTIGACIÓN
José Manuel García Moreno
Universidad de Granada

1. LA IMPORTANCIA DE LA COMUNICACIÓN DE LOS


RESULTADOS PARA LA COMUNIDAD CIENTÍFICA
Los científicos, sea cual sea su especialidad, la rama del conocimiento
desde la que desarrollan sus trabajos e investigaciones, están obligados a
presentar sus resultados al resto de la comunidad científica. No es
aceptable esconder los resultados, ocultarlos sólo para el propio disfrute,
sino que debemos enfrentarlos a la posible refutación por parte de otros
investigadores.
La defensa pública de un Trabajo Fin de Grado o de un Trabajo Fin de
Máster (en adelante TFG-TFM) no es más que un ejemplo de lo que
acabamos de indicar. Es un acto en el que hacemos públicos nuestros
resultados ante otros científicos, es un acto en el que se contrastan
pareceres y en el que se discuten dichos resultados. Es, en definitiva, un
acto en el que entrenamos muchas habilidades y competencias
absolutamente necesarias para el ejercicio profesional de la ciencia.
En este sentido, si acudimos a la guía docente de cualquier titulación en
la que exista este tipo de trabajo, comprobaremos que, entre las
competencias cognitivas, es probable que esté la de conocer las habilidades
del trabajo científico, siendo una de esas habilidades, precisamente, la de la
presentación oral y pública de nuestros resultados. Otra de las
competencias siempre presente es la instrumental de estar capacitado para
construir argumentos científicos que refuercen los planteamientos de
nuestras investigaciones, algo que, sin lugar a dudas, conseguimos si
preparamos una buena presentación de nuestro trabajo para que sea
evaluado por un tribunal. Y, finalmente, con este tipo de actos de defensa,
adquiriremos también la competencia instrumental de saber transmitir la
información y, en relación a ello, adquirir la capacidad para comunicar
resultados a la comunidad científica.
En suma, la presentación pública de resultados y su transmisión al
conjunto de la comunidad de científicos nos pone en la buena dirección del
ejercicio correcto de profesiones asociadas a la investigación. Una de las
principales habilidades que esperan las empresas y organizaciones de sus
profesionales científicos y directivos es la capacidad para entender, liderar
y compartir pero, sobre todo, esperan el que sepan comunicar, el que
tengan la habilidad de la comunicación entendida en sentido amplio como
la habilidad de entender y hacerse entender, la capacidad de atraer a
diferentes públicos y de expresar ideas que consigan generar compromisos
hacia esas ideas (Cervera Fantoni, 2004).
Este capítulo, con la brevedad exigida, entrará de lleno en todo el
proceso de presentación de datos y resultados, concretando siempre en el
escenario y audiencia de un acto público de defensa de un TFG-TFM.
Hablaremos del miedo escénico y cómo enfocarlo, de los diferentes tipos
de audiencias y escenarios y el lugar que tiene, en este sentido, un tribunal
de defensa para el tipo de trabajos que nos ocupa. Trabajaremos sobre
habilidades de expresión corporal y oral, y finalizaremos desarrollando
cómo preparar y enfrentar el acto en sí de defensa de nuestro trabajo.
Serán temas a tratar la estructura del mensaje, la planificación de la
intervención, el uso de los recursos técnicos y tecnológicos en las
presentaciones y todo el proceso del día de la defensa pública de nuestro
trabajo.
2. EL MIEDO A HABLAR EN PÚBLICO. ¿CÓMO
DESCUBRIRLO Y CÓMO ENFOCARLO?
Ya sea nuestra primera presentación pública de datos o, por el contrario,
llevemos hablando en público los últimos 20 años, es normal que todos
tengamos cierto miedo escénico cuando nos enfrentamos a un nuevo
auditorio. Es un miedo absolutamente normal, como consecuencia de la
enorme responsabilidad que supone realizar este tipo de actividades. Lo
más común es que esa situación de miedo escénico no sea totalmente
limitante, sino que, con diferentes estrategias y recursos, irá
desapareciendo poco a poco a medida que desarrollamos la puesta en
escena de nuestra presentación.
En la defensa de nuestro trabajo ante un tribunal no hay mejor estrategia
de protección ante el miedo escénico que el ejercicio de preparación por
nuestra parte de la presentación que vayamos a desarrollar, preparación
que deberá realizarse no sólo en el sentido del contenido de nuestro TFG-
TFM sino también, y a veces lo olvidamos, preparación de los materiales
de apoyo para el desarrollo de la defensa pública de nuestro trabajo, así
como el estudio del propio auditorio (tanto de los miembros del tribunal
evaluador como de la sala —lugar donde se desarrollará el acto de defensa
pública—). Hablamos, por tanto, de dominar la escena no sólo desde el
punto de vista de nuestro discurso, sino desde el punto de vista de los que
nos van a oír y del lugar en el que vamos a hablar.
Así, para bien o para mal, hemos de contar con que los miembros del
tribunal suelen estar interesados en lo que les vamos a presentar, lo cual,
en toda lógica, lo podemos tomar como una ventaja que hemos de
aprender a poner a nuestro favor. Además, vamos a presentar una
investigación, un TFG-TFM en el que habremos participado, que trata un
tema interesante y que ha generado resultados relevantes (aunque sólo lo
sean para nosotros). Y, finalmente, puesto que nosotros hemos realizado
ese trabajo somos los que, en teoría, mejor lo conocemos. Esto quiere decir
que nuestro principal recurso es nuestro propio trabajo, y hemos de
aprender a usarlo en beneficio del éxito de nuestra presentación. Sabemos
como nadie qué es lo mejor y lo peor de nuestro TFG-TFM, algo que nos
puede ayudar a intuir cuáles pueden ser las cuestiones que generen más
dudas en el propio tribunal y, con ello, poder preparar las posibles
respuestas.
Preparar la presentación ayuda a desarrollar nuestra exposición, pero a
veces los nervios no son fáciles de controlar. Por eso se recomienda buscar
elementos de anclaje externos a la propia presentación que aumenten la
confianza en nuestras propias opciones y capacidades. Es el caso de
ejercicios de respiración-relajación, abrir y cerrar las manos, dejar de
pensar en lo mal que lo hicimos en anteriores ocasiones, no estar
repasando nuestras notas hasta el último momento, etc. En cualquier caso,
quedarse en blanco en un momento determinado es una posibilidad que
puede aparecer. Si se presentara esta situación hay que tratar de actuar con
la mayor normalidad posible, volver sobre nuestra presentación y
continuar nuestro discurso donde lo dejamos, demostrando así nuestra
capacidad y competencia en la presentación de resultados.
Por tanto, sobrevivir a una presentación cuando tenemos miedo escénico
no siempre resulta fácil. Partiendo de que hemos de conocer bien nuestro
tema y lo habremos ensayado varias veces, lo que más miedo escénico
puede generar es cómo empezar nuestra exposición, cuáles han de ser mis
primeras palabras. No hay nada escrito al respecto que pueda ser tomado
como un universal a todo el mundo científico, pero la forma más sencilla
de hacerlo es presentarnos a nosotros mismos y el propio título del trabajo
(en posteriores apartados profundizaremos en este punto de partida de la
exposición). Hemos de aprender también a dirigir el nerviosismo hacia
fuera, de ahí que sea recomendable incluso ensayar y aprender a mover las
manos, la cabeza (cómo y a quién mirar), la forma de caminar por la sala,
etc.
En todo caso, nuestro nerviosismo, ese miedo escénico que creemos que
nos puede inmovilizar, en la mayoría de las ocasiones es menos visible para
nuestro auditorio de lo que pudiésemos pensar y, aunque creamos que no
es así, los 20-30 minutos que tendremos para exponer (depende siempre de
la normativa del TFG-TFM de cada centro-titulación) pasarán más rápido
de lo que suponemos y, con ello, el mal trago que tanto nos preocupaba
antes de comenzar.
3. AUDIENCIAS Y ESCENARIOS. ¿PUEDO ACTUAR
SIEMPRE IGUAL? EL CASO DEL TRIBUNAL DE DEFENSA
DE UN TFG-TFM
Cada audiencia requiere por nuestra parte un ejercicio de adaptación de
nuestro mensaje. Esto quiere decir que no podemos pretender transmitir
cualquier mensaje de la misma manera a todo tipo de audiencia. De ahí
que sea fundamental conocer cómo es el público al que nos dirigimos a fin
de mejorar el enfoque de nuestra presentación, de tal forma que el mensaje
que queremos transmitir realmente llegue a esa audiencia concreta que nos
interesa.
Toda audiencia está presente en un escenario específico, con objetivos
diferentes dependiendo del tipo de presentación que estemos desarrollando,
de tal forma que son diferentes los casos de comunicación verbal directa en
los que podemos participar, entre otros, una conferencia/jornada,
cursos/seminarios, reuniones profesionales o un debate (Couto, 2002). En
el caso de una conferencia/jornada, estaremos acompañados de homólogos
o expertos en la materia que estemos tratando, sin duda motivados por
estar ahí y con interés por oír a la persona que va a presentar sus trabajos y
sus investigaciones. Aquí el lenguaje será muy científico y es muy probable
que se nos cuestione sobre las metodologías empleadas.
Junto con las conferencias/jornadas tenemos el caso de los
cursos/seminarios. Tomaremos aquí el papel de formador y nuestra actitud
deberá ser pedagógica (Couto, 2002). Es un escenario en el que la
capacidad para estructurar el contenido debe ser uno de nuestros puntos
fuertes, puesto que hemos de facilitar que nuestro auditorio sea capaz de
asimilar bien la información que le estamos tratando de transmitir, siendo
capaces de responder a las preguntas que nos planteen y, todo ello, con un
lenguaje que habremos de adaptar al nivel de las personas que participan
de ese curso/seminario.
Así mismo, podemos participar en una reunión profesional donde
entramos en contacto con compañeros directos de nuestro trabajo para
puestas en común del estado de nuestros proyectos, aunque, como indica
Couto (2002), también pueden ser reuniones con personas de otras
empresas o grupos de trabajo para presentar, por ejemplo, resultados de
nuestras investigaciones. El nivel suele ser alto y se nos exige capacidad de
síntesis y habilidades para exponer en relación a los objetivos que nos
planteáramos al inicio del estudio.
Otro escenario de presentación y con audiencia diferenciada es el que se
puede presentar en el contexto de un debate. Lo que caracteriza al debate
es el dinamismo y la presentación ágil y rápida de datos y argumentos. No
todos estamos capacitados para debatir puesto que hay que saber
estructurar las ideas para ser transmitidas en mensajes lo más cortos y
concretos posible (y no siempre en tono científico y racional).
Otros tipos de presentaciones, y que no podemos desarrollar por falta de
espacio, serían las entrevistas con clientes, las entrevista con proveedores,
las propias entrevistas de trabajo (donde nos presentamos a nosotros
mismos), reuniones de tipo informal (donde la improvisación es la clave) o
las cada vez más frecuentes comidas-cenas-desayunos de negocios. En
todos y cada uno de ellos, el escenario es diferente, la audiencia también y,
en consecuencia, nuestra participación, preparación y disposición deberá
ser también diferente.
Pero, ¿qué tipo de escenario-audiencia se crea-presenta en el contexto de
un acto de defensa de un TFG-TFM ante un tribunal? Pues se trata de una
suma de varios aspectos, alguno de los cuales ya los hemos señalado. En
primer lugar, diremos que el escenario, la realidad que se crea en el acto de
defensa con nuestra participación sólo existe en el momento en el que
estamos en la sala-aula de la defensa. Es cierto que hay un tribunal, cuyos
miembros pueden conocerse o no entre sí pero, ante todo, se trata de un
escenario en el que habrá de combinarse el lenguaje científico de la
conferencia, la capacidad pedagógica de estructurar un mensaje y de
responder cuestiones en el lenguaje correcto propias de un curso/seminario,
la capacidad de síntesis y de presentación de los resultados pertinentes de
una reunión profesional y, finalmente, la rapidez para improvisar
argumentos y respuestas propias de un debate. Por tanto, el acto de
defensa de un TFG-TFM, la audiencia que allí participa, el escenario que se
crea, es sumamente útil para la adquisición de competencias de
comunicación que más tarde podremos estar en disposición de utilizar en
otros ámbitos de nuestra vida profesional.
4. HABILIDADES DE EXPRESIÓN CORPORAL Y
EXPRESIÓN ORAL
El acto de defensa de nuestro TFG-TFM no es un acto inerte, sino todo
lo contrario, en la medida en la que intervenimos personas con nuestras
propias característica físicas y de personalidad. Cuando llegamos a la sala-
aula donde defenderemos nuestro trabajo son muchos los aspectos que
deberemos aprender a poner a nuestro favor. Comunicación no verbal y
lenguaje corporal, comunicación eficaz, lenguaje asertivo y escucha activa
son aspectos que deberemos conocer y manejar para lograr una
presentación eficaz de nuestro trabajo ante el tribunal. Evidentemente, por
falta de espacio, sólo vamos a apuntar algunos aspectos, los más
importantes, pero invitamos al lector a profundizar en el conocimiento y
puesta en práctica de todas aquellas habilidades de expresión corporal y
oral que redunden en el éxito de sus presentaciones.
Está claro que lo que digamos en el acto de defensa es tan importante
como lo que no digamos pero que sí estará presente ese día. El mensaje que
trasmitamos será el resultado de la conjunción de nuestras palabras, que
saldrán de una boca, que está en una cara y que forma parte de un cuerpo,
y que será la imagen que aquellos que nos han de evaluar tengan de
nosotros. Como veremos más adelante, desde que entremos al acto de
defensa nos estarán valorando, incluso sin haber expresado una sola idea.
Cada vez que estamos en contacto con otras personas, cuando las
observamos, vemos en ellas un cúmulo de movimientos, de gestos, de actos
que se realizan tanto de forma consciente como inconsciente, y en el
tribunal sucede lo mismo. Un buen comunicador es aquel que es capaz de
entender que hablar en público es el resultado de la suma de técnica y arte
(Urcola Tellería, 2003), de expresión corporal y oral, así como de dominio
de la situación.
Seremos eficaces en la comunicación oral de resultados si somos capaces
de llevar a nuestro terreno de juego el lenguaje corporal y la comunicación
no verbal. La postura que tengamos en la sala debe mostrar que no
estamos nerviosos (no siempre es posible, como sabemos) evitando en la
medida de nuestras posibilidades permanecer demasiado estáticos.
Debemos aprender a desplazarnos por la sala-aula en la que tenga lugar el
acto de defensa, aunque nunca hayamos estado en ella. Sólo con entrar y
comprobar dónde estará nuestro lugar y dónde estará el tribunal, hemos de
decidir cómo nos moveremos para que ese movimiento juegue en nuestro
favor.
Nuestra cara es nuestra imagen. Debemos descansar bien antes de nuestra
presentación para que nuestro rostro no refleje agotamiento. En cualquier
caso, no siempre sabemos qué hacer con nuestra cara. Lo mejor ante un
tribunal de defensa es sonreír puesto que la sonrisa genera, sin duda, una
opinión positiva del auditorio hacia nosotros y, por otra parte, va a ayudar
a que nos relajemos.
Otras veces no sabemos qué hacer con nuestras manos. Se recomienda
evitar cruzar los brazos puesto que indica informalidad a la vez que
distancia (algo que no nos interesa puesto que queremos ganar la confianza
del tribunal), tampoco es recomendable tener los brazos extendidos hacia
abajo, ni utilizar determinados movimientos rítmicos en las manos (arriba-
abajo, a un lado u otro) y, finalmente, tampoco es aconsejable tocarse la
cara demasiado, la nariz, el pelo o frotarse la barbilla puesto que todos
esos gestos denotan inseguridad (Manchester Open Learning, 2004). Como
venimos insistiendo desde el primer momento, la idea es acabar con los
nervios y con todo aquello que pueda poner en peligro el éxito de nuestra
defensa, con lo que si tenemos que frenar los movimientos poco adecuados
de nuestras manos sosteniendo un papel o un bolígrafo podemos hacerlo
sin ningún tipo de problema (evitando, eso sí, nuevos movimientos ahora
con un objeto en las manos).
Por tanto, cuidemos todos aquellos puntos de comunicación no verbal y
lenguaje corporal que puedan provocar algún tipo de problema en nuestra
presentación oral y, en concreto, prestemos especial atención al contacto
con el auditorio (en nuestro caso el tribunal) y a la apariencia (ambos
aspectos los veremos más adelante cuando expliquemos el acto de defensa
en sí), a nuestra postura y movimientos, así como a los gestos que puedan
enfatizar, completar y mejorar nuestro mensaje (Puchol, 2008) en el acto
de defensa.
Junto con estos aspectos, tenemos también las habilidades de expresión
oral en términos de comunicación eficaz, lenguaje asertivo y escucha
activa. No olvidemos que nuestra audiencia, el tribunal, está interesado en
lo que tenemos que contarle. Nuestra comunicación será eficaz si somos
capaces de articular un mensaje claro y preciso, pero también pertinente al
contexto del acto de defensa y, sobre todo, interesante.
Aunque lo que presentemos tenga un alto nivel, y dado que el acto en el
fondo tiene ese matiz pedagógico que indicamos en el apartado anterior,
debemos construir argumentos lógicos, comprensibles y que despierten el
interés de aquellos que nos están escuchando.
Demostraremos que estamos empleando un lenguaje asertivo1 si la
comunicación que hacemos al tribunal de nuestro mensaje la hacemos de
forma directa, pero respetando siempre la posición que ocupa dicho
tribunal en este escenario de intercambio. Cuando presentamos resultados
como es el caso de un TFG-TFM, seremos asertivos si no eludimos los
puntos que consideramos débiles en nuestro trabajo, si nos expresamos de
forma correcta y adaptada a ese auditorio, si no ocultamos un dato (si un
dato es malo no ocurre nada, se presenta, se explica y se discute) y, en
especial en un contexto de aprendizaje como es el tribunal, estaremos
usando un lenguaje asertivo si en nuestras expresiones no tratamos de
establecer verdades universales e irrefutables (es nuestra investigación,
realizada con nuestros parámetros pero es perfectamente refutable). Un
buen orador demostrará contar con esta habilidad de expresión oral del
lenguaje asertivo en el transcurso de su presentación.
Finalmente, entre las habilidades que habremos de entrenar de cara al
acto de defensa de nuestro trabajo estará la de la escucha activa y, en
especial, para la última parte del acto, el momento de las consideraciones,
aportaciones y preguntas que hace el tribunal al estudiante que defiende su
TFG-TFM. Una vez finaliza nuestra intervención y es el tribunal el que nos
está comentando su parecer, debemos adoptar una actitud positiva
demostrando a nuestros interlocutores que las intervenciones que están
haciendo tienen un gran valor para nosotros. La mejor forma que hay de
aprender a escuchar de forma activa es hacer un propio examen
respondiendo a cómo nos gusta a nosotros mismos que nos traten cuando
hacemos alguna pregunta, aportamos alguna sugerencia o comentamos la
intervención de otra persona. Si cuando hacemos esto nos gusta que nos
miren, que nos hablen directamente a nosotros, que nos llamen por nuestro
nombre, que el que nos escuche muestre de forma positiva que nos está
escuchando y atendiendo, que recapitulen nuestros argumentos para
respondernos, que califiquen de interesante lo que estamos diciendo y,
sobre todo, que nos respondan, ya sabemos qué es la escucha activa y
cómo hemos de actuar cuando estemos en el acto de defensa publica de
nuestro trabajo.
No podemos profundizar más, pero sí hemos apuntado algunos consejos
importantes que nos ponen en el camino de demostrar ciertas habilidades
tanto de expresión corporal como oral.
1
Expresar realmente lo que uno piensa y desea de un modo directo, honesto y de manera educada.
5. EL DÍA DE LA DEFENSA DE MI TFG O TFM
5.1. ¿Cómo estructurar mi mensaje?
Antes de salir al escenario debemos saber bien qué es lo que queremos
contar y con qué queremos que se quede el tribunal encargado de evaluar
nuestro TFG y/o TFM. Sólo hay una forma de acercarnos al éxito en este
sentido: aprender a estructurar bien nuestro mensaje. Puesto que hemos
sido protagonistas de todo el proceso de gestación y desarrollo de nuestro
trabajo, hemos de aprender a señalar cuál queremos que sea el objetivo de
nuestro acto de defensa. La clave, por tanto, estará en saber hacer un buen
acopio y una correcta selección de aquella información que, por su
relevancia, calidad y/u oportunidad al acto, podamos extraer de entre las
páginas de nuestro TFG-TFM.
Una vez tenemos claro qué es lo que queremos transmitir al tribunal
llegaría un segundo momento crítico: ¿cómo organizar y estructurar
nuestra presentación oral del trabajo? Debemos pensar siempre en alguna
idea fuerza, elemento central de nuestro trabajo que puede actuar como
punto de anclaje del conjunto de la presentación. Puede que seamos
personas a las que no nos guste hablar en público, o puede que seamos
personas que hablan a veces más allá de lo que se espera, pero de lo que sí
hemos de estar seguros es de que el día de nuestra defensa habremos de
hablar desde nuestro conocimiento, nuestra experiencia, demostrando al
tribunal que creemos en lo que estamos exponiendo. Saber estructurar el
mensaje, por tanto, ayuda a este propósito.
La clásica estructura de una exposición pública, dure esta 10 minutos o
120, consta de 3 partes básicas. En primer lugar una introducción, seguida
de la disertación y finalizando con las conclusiones. En la introducción
solemos presentar el tema trabajado, por qué nos interesaba así como sus
objetivos. En la disertación podemos hablar brevemente del marco teórico,
la metodología del trabajo y cuáles han sido los principales resultados. En
las conclusiones, realizamos una pequeña recopilación final de todo y
volvemos a la que es nuestra idea central trabajada. Esta es la estructura
básica que, en el próximo apartado, desarrollaremos desde otro punto de
vista: el tiempo del que disponemos para presentar. De ahí que ahora sea
conveniente hablar de cómo planificar nuestra intervención ante el
tribunal.
5.2. ¿Cómo planificar mi intervención?
Ningún alumno debería acudir a defender su TFG-TFM sin conocer toda
la normativa interna de su titulación a este respecto. En este sentido, lo
primero que debemos conocer es el tiempo del cual disponemos para
presentar nuestro trabajo. Lo normal es que el tiempo vaya de los 15 a los
30 minutos. Conocer el tiempo nos ayuda a planificar mejor y a ensayar la
defensa con más lógica y, como consecuencia de todo ello, es más probable
que nos sintamos más seguros, seguridad que transmitiremos a nuestra
audiencia (no olvidemos que el propio acto de defensa suele formar parte
de la evaluación del trabajo).
Antes hemos hablado de introducción, disertación y conclusiones. Pues
bien, a esa introducción no deberíamos dedicarle más del 10% de nuestra
presentación, mientras que a las conclusiones le dedicaríamos en torno al
10-15%. ¿Esto qué significa? Algo bien sencillo, que la parte a la que más
tiempo dedicaremos será a la disertación. Proponemos que el tiempo
dedicado a esta parte se sitúe en torno al 65-70%. Aun así, si sumamos los
porcentajes nos faltaría un 10-15% del tiempo. Es el tiempo de los
imprevistos, de los intangibles que se suelen presentar en la defensas o
simplemente, es el tiempo que nos podemos permitir nosotros mismos
como margen de cara a ampliar o no una parte de nuestra presentación
dependiendo de la actitud que observemos en el tribunal. Esto quiere decir
que no es mejor exposición la que agota todo el tiempo, sino que lo es
aquella que sabe usarlo en beneficio de su propia calidad.
Planificar no es sólo tomar en consideración los tiempos, sino el propio
escenario en el que nos hemos de desenvolver. Los actos de defensa de
TFG-TFM suelen tener lugar en espacios del centro donde hemos
desarrollado nuestros estudios, espacios que es probable que conozcamos
de anteriores presentaciones, clases, conferencias, etc. Conociendo la
disposición de la sala-aula en la que habremos de defender nuestro trabajo,
podremos planificar también el tono de nuestra voz, nuestros propios
movimientos, la mirada así como nuestra expresión corporal. Conociendo
cómo es el espacio sabremos cómo actuar mejor a la hora de utilizar el
material de apoyo, así como los recursos técnicos en nuestra defensa.
Por ejemplo, si conocemos el lugar en el que defenderemos nuestro
trabajo, podremos intuir dónde se situará el tribunal en la sala, de tal
forma que sabremos desde qué posición nos observarán y nosotros los
observaremos. Esto facilita una decisión, exponer sentado o exponer de
pie, siendo en este caso el factor de decisión, el que nos vean bien y
nosotros los veamos a ellos también de forma correcta.
Uno de los aspectos que también hemos de llevar planificado en nuestra
presentación es cómo iniciarla (algo que también trataremos en el último
apartado de este capítulo). Tenemos varias opciones, más allá de
presentarnos a nosotros mismos. Podríamos empezar por algún dato
impactante que ayude a llamar la atención de nuestro público (en nuestro
caso, el tribunal evaluador), dato tanto de nuestro propio trabajo como
aquel que pueda servir para explicar el interés por un determinado tema.
Pero también podemos empezar de una forma más clásica, rompiendo el
hielo simplemente presentando el tema y la propia estructura de la
presentación (que, ojo, no tiene por qué coincidir con el índice de nuestro
documento TFG-TFM).
En todo caso, la planificación que hagamos de nuestro acto de defensa
deberá ser ensayada. Dichos ensayos nos permitirán controlar bien los
tiempos dedicados a cada parte de nuestra exposición y, lo que es más
importante, detectar errores tanto en nuestro discurso como en el propio
material de apoyo que hayamos pensado utilizar. Si bien vamos a dedicar
un apartado específico en este capítulo al material de apoyo a la defensa,
conviene recordar que no hemos de ir a nuestra defensa de TFG-TFM con
las manos vacías, sino que es más que recomendable llevar nuestras notas
escritas, una copia del trabajo para consulta, papel para anotaciones y bien
preparado aquel material que tengamos pensado repartir entre nuestros
evaluadores. Recordad que una vez iniciado el proceso de defensa debemos
actuar con lo que tengamos en ese momento en la sala.

5.3. Recursos técnicos de apoyo a la presentación oral de resultados


Sin lugar a dudas, los medios tecnológicos nos facilitan cada día más
nuestra labor a la hora de transmitir y presentar los resultados de nuestros
trabajos e investigaciones. Cada día son más los recursos y el software que
nos ayuda en esta importante tarea. Desde el ya clásico Powerpoint, hasta
el más moderno y llamativo Prezzi, no hay congreso, conferencia, tesis
doctoral o acto de defensa de TFG-TFM que no esté acompañado por una
presentación en cualquier formato y que apoye a la palabra hablada de la
persona que está siendo escuchada y/o evaluada.
En todo caso, nunca olvidemos que nuestra actuación debe ser lo más
profesional posible y que es precisamente eso lo que espera el tribunal: una
persona que demuestre competencias profesionales en el ámbito en el que
se circunscribe su TFG-TFM. Es por ello por lo que lo más importante es
nuestro discurso, de tal manera que no debemos caer en artificios
tecnológicos innecesarios que puedan perjudicar más que beneficiar el
desarrollo de nuestra exposición.
Hay que tener mucho cuidado con lo que vamos a usar el día de la
presentación. Imaginemos una presentación en la que quien defiende su
trabajo utiliza el powerpoint, reparte fichas o algún tipo de gráfico al
tribunal, usa la pizarra clásica, usa sus propias anotaciones, etc. Tan
peligroso es no llevar nada como excederse pues podemos terminar
convirtiendo nuestra presentación en la pista central de un circo, si se nos
permite la comparación. Todos estos recursos, que deben servirnos de
apoyo, que deben facilitar nuestra presentación, no pueden generar
incomodidad tanto para nosotros como para el tribunal. Si los usamos
mal, aumentará nuestro nerviosismo y con ello, ese miedo escénico que
creíamos controlado volverá a aparecer de manera irremediable.
Lo más común, como ya hemos dicho, es usar una presentación en
Powerpoint (y cada vez con más frecuencia, una presentación en Prezzi). El
fin último de estos recursos es, por una parte, servir de apoyo al desarrollo
de nuestro discurso (para incidir y reforzar las ideas que queramos destacar
más, para medir bien los tiempos de exposición que dedicamos a cada uno
de los puntos a presentar, etc.) y, por otra parte, es un anclaje para captar
la atención del tribunal en la medida en que permitirá que sigan nuestra
exposición. Esto es así, siempre y cuando la presentación, en cualquiera de
estos formatos, esté bien realizada en términos de comunicación eficaz.
Es evidente que nuestro Powerpoint no puede incluir todo nuestro TFG-
TFM. Por tanto, lo que vamos a mostrar y que articulará nuestro discurso
será lo mejor, lo que consideremos que responde a lo que queríamos
conseguir con nuestro trabajo. Cualquier presentación eficaz en formato
Powerpoint debería responder (no de forma explícita) a las siguientes
preguntas:
1. ¿Por qué nos interesa el tema? Es lógico que presentemos nuestro
objeto de estudio y que señalemos algunos aspectos de nuestro marco
teórico (si lo tenemos). Una breve pincelada a este respecto
contextualiza muy bien el conjunto de la presentación.
2. ¿Cómo hemos estudiado el tema? Nuestros TFG-TFM suelen tener un
formato que responde a una investigación. El tribunal quiere conocer
cuál ha sido la metodología utilizada y en la defensa debemos
presentarla.
3. ¿Qué hemos conseguido? Evidentemente, la mayor parte del
Powerpoint deberá estar dedicado a los resultados de nuestro trabajo, a
las conclusiones y su aplicabilidad. No tiene ningún sentido, como
muchas veces sucede, perder más tiempo del necesario en responder a
las dos primeras cuestiones, cuando esta tercera es la más importante.
4. ¿Con qué queremos que se quede el tribunal evaluador? Nunca
debemos finalizar una presentación sin alguna diapositiva en la que
recapitulemos lo más destacado de lo que hayamos presentado. La
capacidad de síntesis de nuestro propio trabajo es una competencia muy
valorada en los tribunales que evalúan TFG-TFM. Y, finalmente, ese
Powerpoint debería contar con alguna alusión a las futuras líneas de
investigación, futuras líneas de trabajo de quien está exponiendo.
Al usar diapositivas junto con nuestra voz estamos ante una exposición
audiovisual. Por una parte está el componente audio que es nuestra propia
voz, y por otra parte, el componente visual que son (entre otras cosas)
nuestras diapositivas. Así, es evidente que todo el que esté presente en
nuestro acto de defensa deberá oírnos bien para entendernos bien (ya
hemos hablamos de esto en habilidades de expresión oral), pero también
deberá poder ver bien nuestras diapositivas (Andreu, García, Hita y
Torres, 2013). Por eso son tan importantes determinados aspectos de estilo
y forma del propio Powerpoint que vamos a presentar a continuación.
Lo primero de todo, la plantilla que estemos usando. Dicha plantilla debe
ser una plantilla clara. Consideramos que la plantilla ideal es aquella que
tiene un fondo claro en el patrón y letras oscuras (que se puedan ver y
destaquen sobre ese fondo). No se recomiendan colores oscuros en los
fondos ni letras claras que puedan no leerse bien desde cualquier lugar de
la sala. El tamaño de la letra no debería estar nunca por debajo de 22-24
puntos, salvo en gráficos o tablas donde se puede ser algo más flexible.
En cuanto al contenido, nunca utilicemos frases de más de dos líneas
(salvo excepciones). Las frases cortas y directas son mucho más eficaces y
cumplen mejor con el cometido de la presentación: apoyar-ayudar. No
seamos monocromáticos en el texto. Una presentación será mejor si
aparece con algunas palabras resaltadas en color diferente de tal forma que
leyendo las 4-5 palabras destacadas de una diapositiva seamos capaces de
comprender el contenido en su conjunto. Se recomienda, así mismo,
acompañar el texto escrito con algún gráfico resumen, esquema con ideas
clave, figuras, etc., que puedan ayudar al tribunal a seguir y comprender
mejor nuestra exposición.
En cualquier caso dicho Powerpoint no puede ser muy extenso. Debemos
aprender a limitar el número de diapositivas de nuestras presentaciones
porque el tiempo que tenemos para exponer es limitado. No hay un
número mágico de diapositivas, pero sí una lógica que ha de guiar nuestra
decisión al respecto: el tiempo del que disponemos para exponer. Si
tenemos 15 minutos, no tiene sentido utilizar 30 diapositivas pues eso
provocará, con casi total seguridad, que estemos más atentos a pasar de
diapositiva que a lo que queremos transmitir. Ya lo hemos dicho antes, no
hay que contar todo el TFG-TFM y se valorará, y mucho, nuestra
capacidad de síntesis. No pongamos al tribunal en la tesitura de tener que
interrumpir nuestra presentación para indicarnos que ya hemos agotado
nuestro tiempo.
En definitiva, ¿cómo hemos de utilizar el Powerpoint? Lo primero que
hemos de aprender es que podemos mirar a la pantalla, pero no nos
podemos dedicar a leer todo lo que tenemos escrito en cada una de las
diapositivas. Asumamos que las diapositivas nos ayudarán a nosotros, sí,
pero que el principal destinatario de ellas es el propio tribunal, está
pensado y escrito para que lo lea el tribunal. Por tanto, no usemos nunca el
Powerpoint como la base imprescindible de nuestro acto de defensa, es un
instrumento, no un fin. Imaginemos que se produce un corte en el
suministro eléctrico o el equipo desde el que vamos a proyectar no
funciona. Eso no impedirá que debamos realizar nuestra defensa sin el
apoyo de las diapositivas, con el aumento del estado de nerviosismo que se
producirá si todo lo hemos dejado en manos del medio visual.

5.4. Kit de supervivencia para el día de la presentación


Si bien en el apartado de la planificación ya hemos aludido a la necesidad
de ir a la defensa con algún material de apoyo, pensamos que es un buen
momento para profundizar en este tema y, en concreto, en las situaciones
que se pueden presentar y que aconsejan ir preparado.
En primer lugar, siempre hemos de acudir al acto de defensa con una
copia de nuestro TFG-TFM. Se recomienda que sea en papel o, si la
llevamos en un soporte digital, que permita el acceso rápido a una página
concreta. Debemos llevar una copia del TFG-TFM porque es muy
frecuente que desde el tribunal, en el momento en el que nos hacen los
comentarios al trabajo, aludan a alguna página específica del mismo. Poder
acudir a dicha página de forma ágil para responder a alguna cuestión que
se nos plantee produce en el tribunal una muy buena imagen.
Si hemos preparado una presentación en diapositivas de Powerpoint y
puesto que se pueden presentar imprevistos como los indicados más arriba
(corte de suministro eléctrico, fallo en los equipos de proyección o de
reconocimiento del archivo en el que se lleva la presentación, etc.), resulta
conveniente llevar, al menos, cuatro copias en papel de dicha presentación.
Una para nosotros, es evidente, pero tres más, una por cada miembro del
tribunal. De esta forma se puede desarrollar la presentación sin problema
alguno. Incluso en el caso de que no aparezca ninguna de las circunstancias
indicadas que impidan proyectar nuestra presentación, los miembros del
tribunal agradecerán contar con una copia en papel de nuestras
diapositivas no sólo para seguir nuestro discurso sino incluso para poder
realizar anotaciones durante nuestra intervención. Este es otro de esos
detalles que, si lo cuidamos, genera también una imagen muy positiva en el
tribunal.
Recomendamos no dejar todo a nuestra capacidad memorística, de ahí
que el día de la defensa es conveniente llevar notas escritas, más o menos
extensas dependiendo de nuestra capacidad de improvisación y adaptación.
Serán notas —fichas en las que tendremos desarrollado nuestro discurso,
bien ordenado y estructurado—. Tal y como hemos indicado, la extensión
de dichas notas dependerá de la capacidad y de la memoria de cada uno de
nosotros a la hora de enfrentar la defensa de un trabajo ante el tribunal.
Pueden ser unas tarjetas con unas ideas y que complementan las indicadas
en la presentación Powerpoint, pero para quien lo necesite, no hay mayor
problema en llevar todo el discurso escrito (si el miedo escénico es
elevado). Si optamos por llevar el discurso completamente escrito,
recomendamos escribirlas no de nuestro puño y letra sino en un
procesador de texto y con un tamaño de letra 20 o superior. Así la lectura
que hagamos será más sencilla y con menos posibilidades de perdernos en
la propia presentación. En cualquier caso, no es muy recomendable leerlo
todo, sino que podemos llevar ese discurso muy ensayado, con lo que el
texto completo nos dará más seguridad a la hora de exponerlo. Como ya
hemos dicho, lo importante es estar tranquilo o, en el peor de los casos,
aparentar tranquilidad.
La presentación en diapositivas deberemos llevarla en algún soporte
portátil. La forma más común es en pendrive o en disco duro externo que,
por nuestra propia seguridad, debería estar analizado para evitar la
presencia de algún virus. Puede suceder que, al tratar de mostrar en el
ordenador dispuesto en la sala el archivo de nuestra presentación, si el
dispositivo está infectado, se bloquee el archivo o simplemente el propio
software antivirus del ordenador no permita usar dicho dispositivo.
Recomendamos llevar más de un dispositivo por si se diera el caso de que
se nos presentara alguno de estos problemas descritos.
En algunos actos de defensa, los coordinadores del título solicitan que,
con anterioridad a dicha defensa, los que van a ser evaluados envíen el
archivo que van a proyectar. En ese caso, debemos asegurarnos de que es
la última versión realizada pues no siempre hay flexibilidad para poder
cambiar la presentación en el último momento.
En todo caso, sea en soporte-dispositivo informático, o hayamos tenido
que mandar la presentación con anterioridad, recomendamos que la
tengamos guardada en varios formatos: tanto en el formato de archivo
Powerpoint (en su última versión o en una anterior por si el ordenador de
proyección no reconoce versiones muy avanzadas) y en el siempre eficaz
formato PDF. Este último puede que impida incluir dinamismo a nuestras
diapositivas, pero estas no se desconfigurarán y las podremos ver tal y
como las hemos diseñado.
Al finalizar, el tribunal entrará a valorar nuestro trabajo también de
forma oral. En ese momento es más que probable que nos haga alguna
pregunta, y aún es más probable que no podamos responder a la pregunta
hasta después de la intervención de todas y cada una de las personas que
componen el tribunal que nos evalúa. ¿Cómo recordar las preguntas que
nos han hecho? Es muy sencillo. Tan sencillo como frecuente es encontrar
estudiantes que no tienen ni papel ni bolígrafo con el que anotar las
sugerencias al trabajo ni las preguntas que se le hacen en el turno de
palabra del tribunal. La imagen de desinterés que da un estudiante que sólo
escucha y no anota nada puede dar al traste con una parte importante de
nuestro proceso de defensa. Si no anotamos lo que nos dicen y preguntan,
es mucho más probable olvidar comentar lo que nos han dicho y dejar de
responder a lo que nos han preguntado. Por tanto, nuestro kit de
supervivencia debe completarse con papel y bolígrafo para escribir.
Si nos fijamos, no hemos indicado nada que no sea lógico. Todo lo que
hemos señalado ayuda a que el acto de defensa transcurra por los mejores
cauces posibles y, lo que es más importante, nosotros estaremos más
tranquilos o mostraremos un alto dominio de la situación.

5.5. Entrar en la sala —permanecer en la sala— salir de la sala


Aunque nos pueda parecer que no es así, la evaluación de nuestro TFG-
TFM comienza en el mismo instante en el que accedemos a la sala-aula en
el que tendrá lugar nuestro acto de defensa. Desde ese momento los
miembros del tribunal nos están valorando, razón por la cual es
fundamental cuidar nuestra apariencia física. El aseo personal y la
vestimenta deben ser aspectos que habremos de tomar en serio de cara al
día en que tengamos que defender nuestro trabajo. No se trata de ir con
nuestras mejores galas, pero tampoco ponernos en el extremo opuesto. Se
trata de mostrar al tribunal que valoramos el acto, el esfuerzo de todos por
estar ahí y, por supuesto, que mostramos respeto a la institución que nos
acoge.
Al entrar en la sala saludaremos a los miembros del tribunal evaluador y
nos dirigiremos al lugar concreto que se haya dispuesto para que
desarrollemos nuestra presentación. Lo normal es que en ese momento
alguien del tribunal, por lo general, aquel que desarrolle la labor de
presidencia, nos indique que si tenemos presentación con diapositivas, es el
momento de proyectarla. Así lo haremos. Sin embargo, no comenzaremos
a hablar ni a presentar nuestro trabajo hasta que así se nos indique.
Una vez todo está dispuesto, la persona que ejerce como presidente nos
explicará todos los aspectos protocolarios relacionados con el propio acto.
Entre ellos, los más importantes suelen ser:
1. El tiempo de que disponemos para exponer (normalmente se nos
recordará el tiempo indicado ya en la normativa interna de cada título),
y es común que se nos indique que, si es posible, no lo agotemos y que,
en ningún caso, se nos permitirá sobrepasarlo (interrumpiendo y dando
por acabada nuestra exposición si nos excedemos, como ya indicamos
antes).
2. La forma en la que va a actuar el tribunal una vez finalice nuestra
presentación. Normalmente se nos indicará que, al finalizar nuestra
presentación, tomará la palabra cada miembro del tribunal para hacer
sus consideraciones y plantear las cuestiones que así estime para, a
continuación, volver a dar la palabra a quien es evaluado para que haga
las reflexiones oportunas a las citadas consideraciones y, lo que es más
importante, que responda a las cuestiones que se le hayan planteado.
Una vez el tribunal recibe de nosotros que hemos comprendido el proceso
es cuando se nos da la palabra para iniciar nuestra presentación, llegando
así al momento más crítico: comenzar a hablar. Ya hemos indicado a lo
largo de este capítulo que lo más importante es la planificación. Si hemos
planificado bien nuestra presentación y estructurado la misma ajustando
los tiempos para mostrar lo verdaderamente importante de nuestro
trabajo, tenemos mucho terreno ganado hacia el éxito en nuestra defensa.
En primer lugar, si hemos preparado una copia en papel del Powerpoint
para los miembros del tribunal ahora es el momento de repartirla.
Saludaremos una vez más al tribunal y agradeceremos su presencia para, a
continuación, presentarnos y comenzar nuestro discurso utilizando, por
ejemplo, el recurso de la pregunta retórica que respondemos llevando a
quien nos escucha hacia el objeto de estudio. También podemos usar,
como ya indicamos anteriormente, algún dato de interés que nos llamó la
atención cuando estábamos investigando o la propia estructura de nuestra
exposición. Sea cual sea la forma de comenzar que adoptemos, lo haremos
siempre sin pasar de la primera diapositiva del Powerpoint, donde estará el
título del trabajo, el autor/es del mismo y el tutor/director, así como el
logotipo/os de la institución donde estemos defendiendo.
Una vez que captamos la atención del tribunal sólo con nuestra palabra
es cuando podemos comenzar a desplegar el resto de nuestra presentación
siguiendo la estructura comentada con anterioridad (introducción,
disertación y conclusiones, si bien no tiene por qué llamarse así cada uno
de los apartados). Hablando en un tono que asegure que todos nos
escuchan, miraremos al tribunal todo el tiempo que sea posible como signo
de seguridad. Evitaremos ponernos nerviosos si vemos que los miembros
del tribunal hablan-dialogan entre sí, puesto que es bastante común que
esto suceda. No es falta de respeto sino que es probable que algo que
hayamos dicho lo compartan o lo comenten. Así mismo, si bien hemos de
estar mirando al tribunal la mayor parte del tiempo posible, es altamente
probable que ellos no siempre nos estén observando, unas veces porque
estén mirando nuestras diapositivas y otras porque estén tomando notas en
relación a lo que estamos explicando. Es un acto vivo, muy pautado sí,
pero en el que todos los que participan están activamente realizando el
papel que les corresponde.
Como ya indicamos con anterioridad, la clave de todo está en la
planificación y, como consecuencia de ella, en la labor de ensayo que
debemos haber realizado con anterioridad al acto. Si queremos cumplir
con el tiempo establecido, si queremos contar todo lo que queremos
transmitir al tribunal, si queremos que se nos entienda, sólo hay un consejo
válido: ensayar nuestra presentación las veces que sea necesario.
Como ya indicamos en el apartado 4, el lenguaje debe ser claro, no
enrevesado, directo y, sobre todo, científico. No estamos en una
conversación informal y el tribunal va a valorar y mucho la calidad
científica de nuestras expresiones y la meticulosidad con que exponemos
los conceptos (tanto teóricos como metodológicos). Queremos demostrar
que merecemos ejercer una profesión y qué mejor acto que este.
Casi sin darnos cuenta habrán pasado los minutos destinados a nuestra
presentación. Si lo hemos hecho bien incluso habremos tardado menos de
los previsto. Como estamos en posesión de la palabra, al finalizar damos
nuevamente las gracias al tribunal por habernos atendido y mostramos
nuestra disposición a aclarar y/o profundizar en determinadas cuestiones,
de tal forma que la palabra vuelve a la presidencia del tribunal evaluador.
Lo normal es que nos agradezcan la presentación desarrollada y más aún
si nos hemos ajustado bien a los tiempos establecidos. A partir de ese
momento la presidencia del tribunal dará la palabra al resto de miembros
del tribunal, que contarán con un mínimo de 5 minutos para sus
consideraciones, aportaciones y preguntas.
Hemos de ser muy cuidadosos con este momento del acto de defensa.
Nunca olvidemos que dicho acto no termina hasta que salimos de la sala.
Es frecuente encontrar estudiantes que, una vez han presentado su trabajo,
se relajan y consideran que han finalizado. No, no caigamos en ese error.
El momento de la intervención del tribunal es muy importante, y nosotros
debemos estar atentos y anotando todo lo que nos digan, no sólo los
errores cometidos y detectados por el tribunal, sino las sugerencias de
mejora y, en especial, las preguntas que deberemos responder una vez
volvamos a tener la palabra. Por eso, si hemos expuesto de pie en la sala-
aula, ahora es el momento de sentarse, coger el cuaderno-papel que
llevamos ya preparado y disponernos a ir tomando nota de todo. Será un
gesto que, nuevamente, será muy valorado por el tribunal.
Todo esto significa que debemos estar preparados para que nos
pregunten, para que nos cuestionen sobre aspectos generales de nuestro
trabajo, para que nos interroguen sobre por qué hemos cometido tal o cual
error. Como nosotros somos los que mejor conocemos nuestro trabajo,
debemos también conocer sus propias limitaciones de tal forma que, por
qué no, podemos tener ya alguna respuesta preparada ante una hipotética
pregunta. Eso sí, nunca usemos la consabida coletilla de “me alegro de que
me hagan esa pregunta…”.
Si queremos responder de manera correcta es aconsejable seguir, entre
otras, las siguientes recomendaciones:
1. Cuando los miembros del tribunal estén hablando, jamás los
interrumpiremos para responder a alguna cuestión que nos planteen.
Recordemos que ya no estamos en el uso de la palabra y que el acto de
defensa tiene un protocolo que hemos de respetar.
2. Según sea el sistema de respuestas que se establezca, o a cada miembro
del tribunal por separado (lo menos frecuente) o en conjunto una vez
han intervenido todos (lo más común), nos dirigiremos a ellos y en el
mismo orden en el que hayan intervenido. De ahí lo importante de
tomar nota de toda su intervención.
3. Antes de contestar, es conveniente reformular las preguntas por si
aquel miembro del tribunal que la hizo considera que no hemos
captado bien lo que nos quería indicar, dando así la posibilidad de
proceder a las oportunas aclaraciones.
En todo caso, no evitemos responder a una pregunta aunque la respuesta
que demos sea que dicho aspecto —tema por el que nos preguntan no era
objeto de nuestro trabajo—. Sin embargo, hemos de ser cuidadosos con
este tipo de respuesta “comodín” porque puede que nos vuelvan a
interpelar sobre por qué no ha sido objeto de estudio. En todo caso,
indicar que tomamos nota para una futura publicación, para una mejora
del documento o de cara a futuras investigaciones da buena imagen al
tribunal.
¿Cómo debe ser nuestra actitud a la hora de responder? Ante todo
cortesía, que no servilismo. No debemos ser agresivos en las respuestas y
mucho menos mostrarnos ofendidos ante los comentarios. No olvidemos
que estamos haciendo ciencia y que la ciencia crece en contextos de crítica
como es el de los actos de defensa ante un tribunal. Agradecer al tribunal
sus aportaciones y sugerencias debe formar parte del guión de nuestra
presentación, en la medida en que el acto es en sí un lugar en el que
seguimos aprendiendo a desenvolvernos en el mundo de la investigación.
Una vez damos por finalizada nuestra segunda intervención, la
presidencia del tribunal vuelve a preguntar al resto de miembros si quieren
aportar algo más o es el propio presidente el que lo hace. Si nadie quiere
volver a intervenir, se dará por finalizada la defensa y se invitará al
estudiante a abandonar la sala.
En este momento, cuando va a terminar todo, volvemos a dar las gracias
al tribunal, recogemos de forma ordenada todo nuestro material y
cerraremos la presentación Powerpoint, dejando el equipo informático
preparado para una posterior presentación de otro estudiante. Hemos de
dejar la sala tal y como nos la encontramos al entrar. Nos levantamos y
salimos de la sala con absoluta tranquilidad no sin antes despedirnos del
tribunal que, por lo general, permanecerá en la sala.
Como hemos podido comprobar, el proceso del acto de defensa pública
de nuestras investigaciones es complejo y exige, por nuestra parte, unas
altas dosis de preparación. En todo caso, lo que sí es evidente es que es
mucho lo que podemos aprender de actos como estos, donde la ciencia
toma cuerpo de realidad en un escenario de debate de ideas y de
evaluación. Os invitamos a que disfrutéis de estos actos y los veáis como
una oportunidad de crecer personal y profesionalmente.
6. BIBLIOGRAFÍA
Andreu, J.; García, J. M.; Hita, C. y Torres, A. (2013). Herramientas básicas de trabajo para el
alumno. Granada: Editorial AVICAM.
Cervera Fantoni, Á. L. (2004). Comunicación total. Madrid: ESIC Editorial.
Couto, M. (2002). Cómo hablar bien en público. Comunicar, persuadir y convencer con palabras.
Barcelona: Ediciones Gestión 2000.
Manchester Open Learning (2004). Cómo hacer presentaciones eficaces. Barcelona: Ediciones
Gestión 2000-Planeta DeAgostini.
Puchol, L. (2008). Hablar en público. Nuevas técnicas y recursos para influir a una audiencia en
cualquier circunstancia. Madrid: Ediciones Díaz de Santos.
Urcola Tellería, J. L. (2003). Cómo hablar en público y realizar presentaciones profesionales.
Madrid: ESIC Editorial.

También podría gustarte