Documentos de Académico
Documentos de Profesional
Documentos de Cultura
net/publication/271849220
CITATIONS READS
0 2,752
2 authors:
Some of the authors of this publication are also working on these related projects:
ApprEnt - Refining Higher Education Apprenticeships with Enterprises in Europe View project
All content following this page was uploaded by Ángel Gordo on 18 April 2015.
1. OBJETIVOS
• Enmarcar el análisis de contenido en su tradición histórica y metodológica poniendo de manifiesto los distintos campos
en los que se ha aplicado y los debates surgidos en torno a su utilización.
• Destacar los principales rasgos de este tipo de análisis y sus problemas prácticos, para evitar el uso de la técnica como
mera receta.
• Presentar el análisis de contenido como una técnica de análisis con posibilidades de aplicación, para lo que se incluyen
ejemplos con investigaciones reales.
• Facilitar al lector recursos que permitan la ampliación de la información presentada con miras a su aplicación práctica,
tales como páginas de Internet especializadas, bibliografía y programas informáticos.
2. MÉTODO DE TRABAJO
• Se ha procurado en todo momento que la exposición del análisis de contenido resulte clara e inteligible y que, ante todo,
presente una panorámica global de la técnica.
• Se ha preferido, por tanto, obviar algunas cuestiones que pueden resultar muy especializadas o requerir conocimientos
estadísticos para primar una visión más genérica de las etapas necesarias para implementar el análisis de contenido.
• Por otro lado, se han pretendido presentar las distintas perspectivas que pueden adoptarse, y de las consecuencias que
una u otra elección acarrea.
• La comprensión del tema se complementa, además, con ejemplos que permiten observar en la práctica investigadora las
distintas posibilidades de aplicación del análisis de contenido.
3. Introducción
Suponiendo que un investigador está llevando a cabo un estudio sobre las relaciones sociales
en las grandes ciudades, probablemente enmarcaría su investigación en el campo de la
Sociología de las Redes Sociales, e intentaría identificar las conexiones existentes entre los
individuos y su familia extensa, sus amigos más cercanos, sus compañeros de trabajo y otras
relaciones que se van dando en los distintos ámbitos de su vida. Para obtener esta información
cabe suponer que utilizará dos técnicas de recogida de información: la entrevista abierta o el
cuestionario precodificado, técnicas que le facilitarán datos de tipo cuantitativo o cualitativo. De
esta forma, se van identificando grupos de personas que mantienen nexos o redes del mismo
tipo con los sujetos considerados.
Los anuncios por palabras en los que él busca a ella, o ella busca a él, complementados en los
últimos años por los de él busca a él ó ella busca a ella, constituyen pequeños fragmentos de
texto en los que se condensa mucha información relevante. En principio y más allá de las
posibles variantes, se explicitan los deseos sobre el otro u otra y se ponen de manifiesto
aquellas características personales que se consideran más importantes para el lector. Sin
olvidar la forma de contacto que debe seguirse, que por supuesto resulta fundamental para que
el anuncio cumpla su propósito. Pues bien, si se observa la importancia de la información
contenida, ¿cuál sería la técnica de recogida de información adecuada para analizar estos
anuncios? Como es evidente, se trata de información ya existente, que no ha sido creada ex
profeso para la investigación. Se trata también de información al alcance de todo el mundo, con
un contenido manifiesto fácil de interpretar. Sin embargo, un análisis más detallado podría
llegar a resaltar una serie de cuestiones que no se apreciarían a primera vista, como por
ejemplo las diferencias entre los anuncios según el medio en el que han aparecido impresos, o
los distintos estereotipos que prevalecen en hombres y mujeres y que se consideran
deseables. Si se sigue indagando, probablemente se podrían hacer inferencias o
extrapolaciones sobre los patrones culturales dominantes en el momento en el que han
aparecido los anuncios, e incluso sería posible describir u observar tendencias. La técnica de
investigación adecuada para abordar tales cuestiones es el Análisis de Contenido.
Ahora bien, es necesario hacer dos puntualizaciones que ayudarán al lector en su primera
aproximación a este tipo de análisis. En primer lugar, el análisis de contenido puede ser
cuantitativo o cualitativo. Más adelante se aborda esta doble perspectiva, pero por ahora es
importante tener en cuenta que el estudio de los anuncios por palabras puede hacerse a través
de un recuento y posterior análisis estadístico de las palabras más utilizadas donde por
ejemplo se crucen variables o categorías, o a través de métodos de inferencia más cualitativos
que permitan consideraciones de carácter más amplio como las que se han mencionado. En
segundo lugar, es necesario destacar que el análisis de contenido puede utilizar unidades de
análisis muy variadas; en este caso se partía de documentos de texto, pero pueden
considerarse también documentos visuales u otro tipo de material documental.
A lo largo de este módulo se introducirá al lector en la técnica del análisis del contenido de una
forma sencilla, evitando en la medida de lo posible el uso de tecnicismos y con el objetivo de
presentar las cuestiones más relevantes. Sin embargo, antes de entrar en el propio análisis,
conviene familiarizarse con su propio desarrollo histórico, porque éste permitirá entender mejor
sus sucesivas aplicaciones.
En este breve repaso de la historia del análisis de contenido, es inevitable señalar el importante
papel que jugaron los análisis de la propaganda durante la segunda guerra mundial, que se
revistieron de un carácter absolutamente estratégico. Así, un equipo de investigadores de la
Foreign Broadcast Intelligence Service, dependiente de la American Federal Communications
Commission (FCC) se encargó de estudiar las emisiones radiofónicas de la Alemania nazi para
comprender los sucesos que tenían lugar en los países del Eje para poder estimar el efecto de
las acciones militares sobre el espíritu bélico de la población. Se planteó en este contexto el
concepto de "propaganda preparatoria" de las emisiones radiofónicas, que permitió a los
analistas predecir campañas políticas y militares. Como bien señala Krippendorf estos estudios
permitieron poner de manifiesto que a) el contenido no es una cualidad absoluta u objetiva;
emisor y receptor pueden diferir en su interpretación; b) el analista formula predicciones o
inferencias acerca de sus datos en un contexto determinado, pero para ello es necesario que c)
exista un modelo sobre la forma en que se relacionan los mismos y d) los indicadores
cuantitativos son "poco sensibles y bastante burdos para suministrar interpretaciones políticas"
(Krippendorf, 1997: 23).
Como resultado del libro de Berelson antes citado que ofreció una panorámica de la técnica, el
análisis de contenido empieza a generalizarse tras la segunda guerra mundial. La
comunicación de masas sigue siendo su principal campo de desarrollo, pero surgen
aplicaciones en la psicología tales como el análisis de los registros verbales (Allport, 1942) o
los estudios sobre las respuestas abiertas en los tests (aunque como técnica complementaria).
En el campo educativo, por poner otro ejemplo, se empiezan a estudiar los libros de texto para
entender tendencias políticas o actitudinales que se plasman en los materiales escolares. Esta
tendencia de aplicaciones en otras disciplinas ha resultado imparable, y así, en la década de
los 70 pueden citarse investigaciones importantes que utilizan el análisis de contenido como la
de Walker, por ejemplo, que explora las diferencias y similitudes entre las letras de las
canciones populares de la población blanca americana y las letras del soul o del rhythm and
blues de la población de raza negra y concluye que estas últimas muestran un mayor énfasis
en la acción concreta y menos preocupación por el tiempo. En otro estudio, Aries analiza las
diferencias que se dan en pequeños grupos de mujeres, hombres y grupos de ambos sexos, y
encuentra que los estereotipos de género y la diferente socialización afecta al contenido de la
interacción. De este modo, en grupos de mujeres existe una preocupación por cuestiones
interpersonales, ya que se habla de sí mismas, de sus familias, y de sus relaciones. Por el
contrario, en los grupos de hombres solos no se tratan estas cuestiones directamente, aunque
sus sentimientos y experiencias personales se comunican a través de historias y metáforas. En
los grupos mixtos, Aries destaca que las mujeres tienden a adoptar un rol más tradicional,
hablando menos de sus familias y hogares, pero también evitando hablar de sus logros. Los
hombres, en cambio, adoptan actitudes algo más competitivas intentando asumir el liderazgo
del grupo (ver Weber, 1990).
Esta tendencia desde los años 60 de progresiva generalización del análisis de contenido a
otras disciplinas se ve además acompañada por un refinamiento de los procedimientos. Así, se
produce una mayor preocupación por el estudio de los aspectos no verbales, y se desarrollan
el análisis de contingencia y las aplicaciones informáticas, que indudablemente facilitaban
enormemente el recuento de palabras y la revisión exhaustiva de documentos escritos con el
consiguiente auge de este tipo de análisis. Los programas que han ido surgiendo y que se
comentarán más adelante han contribuido al perfeccionamiento posterior del análisis a través
de la creación de clasificaciones de categorías, como puede ser el General Inquirer. Y por
último, cabe destacar una última tendencia, que aparece inicialmente hacia mitad de siglo y
que pretende introducir perspectivas más cualitativas en el análisis de contenido.
Como se verá más adelante, el análisis del contenido deberá basarse pues en el estudio de las
palabras como símbolos. Pero no será hasta la publicación del mencionado libro de Berelson
en 1952 cuando se sistematice y complete la investigación de Laswell. Berelson define el
análisis de contenido de la siguiente forma:
En esta definición se encuentran las claves de lo que ha sido el desarrollo posterior del análisis
de contenido durante muchas décadas. Como bien señala Saperas (1985), la apelación al
contenido manifiesto de los textos implica que la técnica es algo más que el mero recuento de
palabras. Lo importante es la clasificación de las palabras que contienen ideas claves y que
ponen de relieve la intención de persuadir del emisor del mensaje. El requisito de objetividad
resulta fundamental para que la investigación se considere científica, como corresponde a la
tradición empirista en las ciencias sociales. Con la sistematicidad ocurre otro tanto, ya que de
no estudiar todos los elementos mediante determinadas técnicas para que el conjunto de las
unidades puedan ser interrelacionadas, no se logra una aproximación científica. Y por último, el
requisito de cuantificación, que se refiere al cálculo estadístico de las categorías que engloban
las unidades más representativas, es el rasgo más característico del análisis de contenido para
Berelson.
Esta visión básicamente cuantitativa del análisis de contenido se ha visto cuestionada por las
aportaciones de muchos otros autores posteriores, entre los que cabe destacar el importante
libro de Krippendorf Metodología de Análisis de Contenido. Como punto de partida, Krippendorf
señala que el análisis de contenido es:
Como puede apreciarse en esta última definición, desaparecen los requisitos de cuantificación,
sistematicidad y objetividad y aparecen dos nuevos elementos: la inferencia y el contexto.
Inferir es llevar a cabo un proceso de deducción lógico, para llegar a conclusiones que permitan
trascender el contenido manifiesto del texto o mensaje. En principio, el análisis de contenido ha
de conducir a una descripción fundada del contenido manifiesto, lo que conlleva fácilmente a
introducir clasificaciones y efectuar comparaciones. Las inferencias que se pueden producir,
para algunos autores han de limitarse al mensaje y su forma o significado. Pero otros autores -
y éste es el sentido de la presencia y uso del análisis de contenido en las ciencias sociales-
recalcan que también puede entregar conocimientos acerca del emisor y de la audiencia. No es
difícil justificar que da acceso al autor, ya que la obra es producto de su pensamiento; pero
puede ser más difícil justificar inferencias en relación con la audiencia, aunque no se deben
olvidar los procesos de marketing que pueden influir en la elaboración de los discursos. Es
familiar lo que ocurre hoy en materia de programación televisiva, donde el rating juega un papel
de primera importancia, por lo cual una programación exitosa habla bastante de su audiencia.
A pesar de que muchas veces no se estudiará, no se debe olvidar que un discurso es función
de un contexto y que algunas condiciones del contexto, necesariamente, influyen en su
construcción. Pero también puede darse el extremo opuesto: el que el análisis de contenido no
pretenda saber nada del emisor ni de la audiencia, sino de hechos del contexto. Es lo que
ocurre cuando se usan los medios de prensa para analizar noticias: en realidad se estudia el
contexto de los mensajes periodísticos junto, posiblemente, con la forma con la que se
representan.
Como se puede observar en el gráfico, en primer lugar deben especificarse las unidades de
análisis que se codificarán, y que pueden denominarse unidades de registro (1). En el caso que
se presentaba en la introducción, podría tratarse simplemente de las palabras que aparecían
en los anuncios de los periódicos. A continuación, se definen las categorías en las que se
agruparán las unidades de registro (2). En este caso se podría pensar en cualidades físicas y
cualidades psicológicas, pero para ver si realmente funciona el criterio de codificación, se
seleccionaría una muestra de los anuncios aparecidos en la prensa y se codificarían (3). Este
ejercicio no sólo ayudará a detectar posibles ambigüedades en las reglas de codificación, sino
que además servirá para afinar las categorías de análisis. Antes de proseguir, debería
realizarse una prueba para verificar la fiabilidad del procedimiento (4) (que se describen más
adelante) y, en caso necesario, volver a revisar las reglas de codificación (3). Este proceso
deberá continuar hasta que el investigador se encuentre satisfecho con la fiabilidad obtenida, o
hasta que el programa informático no arroje más errores. En este momento es cuando ya
puede procederse a la codificación de todo el texto (5). Finalmente, es importante volver a
verificar la fiabilidad de toda la codificación (6), tanto en el caso de que se haya utilizado una
codificación manual, ya que las personas pueden dejar de ser consistentes por el cansancio,
por ejemplo, como si se ha utilizado un programa informático, que puede funcionar
correctamente para una muestra de los datos pero fallar ante una combinación nueva de
palabras. A partir de ahí, y con la información ya procesada, se plantean las cuestiones de
análisis e inferencia, que se tratarán más adelante.
Las unidades de muestreo son "las diversas partes de la realidad sometidas a observación"
(Aranguren, 2000: 561), que dado su gran número, se someten a una operación de muestreo.
Los editoriales, artículos de periódicos, anuncios de televisión, cartas o manuscritos, etc.
constituyen unidades de muestreo naturales, mientras que los fragmentos de las mismas, como
pueden ser algunas columnas, bloques de líneas, o párrafos, se denominan unidades de
muestreo artificiales.
Por último, algunos autores identifican las unidades de contexto, que son la porción de la
unidad de muestreo que debe ser examinada para caracterizar una unidad de registro. Si se
trata de codificar palabras o unidades semánticas, por ejemplo, la unidad de contexto es el
pasaje donde está situada la unidad de registro, en este caso la frase o el párrafo. Ambos tipos
de unidades, la de registro y la de contexto, pueden coincidir, y además una unidad de contexto
puede serlo para varias unidades de registro.
Ahora bien, más allá de la tipología de unidades de análisis que hemos presentado, lo que no
puede perderse de vista nunca en el análisis de contenido es la importancia del contexto en el
que se han producido estas unidades. Por más riguroso que sea el procedimiento de
codificación y de análisis posterior, si no se incorporan consideraciones de carácter histórico-
sociológico que enmarquen correctamente las unidades de análisis, se estará operando en una
ficción que tal vez sea rigurosa desde el punto de vista metodológico pero que aporta muy poco
a la generación de conocimientos y al proceso de inferencia. En el ejemplo de partida sobre los
anuncios de contactos personales, si se pierde de vista el contexto, si no se entiende la
necesidad de relacionarse como forma de rescatar redes sociales perdidas o inexistentes, o si
no se interpretan las categorías físicas y psicológicas que se ofertan y solicitan como una
expresión de una determinada norma socio-cultural imperante, los resultados de la
investigación no podrán superar el mero ejercicio de descripción. Este énfasis en el contexto ha
sido puesto de manifiesto por aquellos autores que además abogan por un análisis de
contenido con un carácter más cualitativo.
Al igual que ocurre con otro tipo de preguntas precodificadas, como las que se utilizan en los
cuestionarios, las categorías de respuesta deben ser exhaustivas, -es decir, incorporar toda la
gama de respuestas posibles-, y mutuamente excluyentes, lo que supone que cada respuesta
u observación pueda clasificarse únicamente en una categoría. Sin embargo, en los
cuestionarios se contempla la posibilidad de las respuestas múltiples y en determinados
análisis de contenido se permite la clasificación simultánea en más de una categoría, aunque
esta práctica no sea muy recomendable.
Ahora bien, ¿cómo se crean las categorías de análisis? En este aspecto se encuentra una gran
variedad de situaciones. En ocasiones las categorías son definidas de antemano por el
investigador, y se van cambiando en función de la adecuación de las mismas al objeto de
estudio. Sin embargo, una práctica muy extendida ha venido siendo el uso de diccionarios de
análisis de contenido que contienen nombres de categorías, definiciones de las reglas de
asignación de palabras a categorías y la asignación concreta de dichas palabras. Podrían
mencionarse el IV Diccionario Psicosocial de Harvard y el Diccionario de Valor de Lasswell,
ambos desarrollados originamente en inglés basado en conceptos parsonianos y freudianos el
primero y diseñado para el análisis político el segundo. ¿Qué ventajas presentan para el
investigador este tipo de diccionarios? Weber señala algunas (1990: 25):
¿Cómo operan en la práctica los programas informáticos que utilizan este tipo de diccionarios?
Algunos trabajan con esquemas clasificatorios únicos, basados en la materia o asunto del que
trate el texto. Así, ofrecen la lista de palabras asignadas a cada categoría indicando con un
número al lado de la palabra el sentido que se le asigna a la palabra si ésta tiene más de un
significado. Esta capacidad de distinguir entre los distintos significados de una palabra, o de no
separar unidades semánticas, es algo muy reciente y que se ha incorporado en las versiones
más recientes de los diccionarios. Por otro lado, se identifican también las palabras no
asignadas a categoría alguna, como "y", "en", "de", etc. Los listados de palabras claves
insertadas en la frase que aparece en el texto también resultan muy útiles, por cuanto no
pierden de vista la unidad de contexto.
Por otro lado, se han ido formulando críticas al uso de los diccionarios. En primer lugar se ha
señalado que en ocasiones el uso de distintos diccionarios ha arrojado distintos resultados, lo
cual pone en cuestión su utilidad. Sin embargo, no hay evidencia empírica clara en este sentido
porque existen estudios que han demostrado precisamente la concordancia de resultados. En
segundo lugar, se cuestionan los esquemas clasificatorios porque imponen la realidad del autor
sobre el texto, y se aboga por el uso de categorías que salgan de los autores de los propios
textos analizados, a través de técnicas de covariación que agrupen a las palabras más
utilizadas, como puede ser el análisis factorial. Esta propuesta podría tacharse de
excesivamente inductivista, ya que asume que a partir de las palabras se construyen
categorías de análisis, sin un marco teórico previo que sirva de referente. Por último, la
traducción literal de los diccionarios a otras lenguas puede crear problemas, aunque por otro
lado constituye una forma interesante de asegurar la comparabilidad de estudios
transnacionales.
Una vez codificadas las unidades de registro, es necesario plantearse la cuestión del análisis
de los datos. Pero antes de pasar a esta materia, es preciso hacer una reflexión sobre los
problemas que el ejercicio de codificación conlleva.
Como bien señala Krippendorf (1990) en su excelente capítulo sobre la fiabilidad, en el análisis
de contenido normalmente se consideran tres aspectos relevantes:
En todo caso, sea cual sea el aspecto que adopte la fiabilidad, ésta "siempre se reduce a medir
el acuerdo alcanzado por los observadores, codificadores o jueces al procesar de forma
independiente la información científica" (Krippendorf, 1990: 197). No se entrará aquí en detalles
técnicos sobre las distintas propuestas de medición numérica de la fiabilidad, pero cabe
resaltar que para ello se han propuesto distintos estadísticos como por ejemplo la pi de Scott o
el alpha de Cronbach y se ha señalado la importancia de trabajar sobre una muestra
representativa de los datos, preferiblemente estratificada, para asegurar la inclusión de las
variables relevantes.
Por último, cabe resaltar que para evaluar más acertadamente el grado de fiabilidad del análisis
de contenido, es posible realizar una serie de pruebas diagnósticas previas a la elaboración
definitiva del instrumento de codificación y a la generación de los datos. Se trataría de evaluar
separadamente:
• La fiabilidad de la unidad de análisis. A veces es
importante identificar aquellas unidades de análisis que
presentan más problemas al ser codificadas y que generan
más discrepancias entre los codificadores.
• La fiabilidad de los individuos participantes en el
proceso de codificación para detectar si existen personas
con cierta tendencia a evaluar los datos a la ligera o que
no interpretan correctamente las instrucciones.
• La fiabilidad de una categoría única sirve para averiguar
si una categoría se está confundiendo con las demás
• La fiabilidad condicional, que estima el grado de
fiabilidad de algunas categorías de una misma variable
para determinar qué categorías de la variable podrían
mantenerse o agruparse en el análisis final. En el análisis
de contenido es muy frecuente que al analizar un texto
autobiográfico, por ejemplo, no esté muy claro qué rasgos
o categorías de la variable personalidad están presentes.
Si se entiende por validez medir lo que se quiere medir, una categoría derivada del análisis de
contenido será válida si mide adecuadamente el constructo o concepto que el investigador
pretende que represente. Tradicionalmente, ya desde las aportaciones de Campbell y Stanley
(1966), se viene distinguiendo entre validez interna y validez externa. La validez interna
presume la existencia de una relación lógica entre indicadores, categorías y resultados del
análisis, y establece relaciones de causalidad eliminando o controlando otras explicaciones
alternativas. La validez externa, en cambio, hace referencia a la relación empírica, y asume la
posibilidad de generalización de los resultados. Los estudiosos del análisis de contenido
insisten en la importancia de comprobar la validez externa de los resultados del análisis.
Curiosamente, como ocurre con la fiabilidad, muchos de los problemas se derivan de la propia
ambigüedad de los significados de las palabras así como de las definiciones utilizadas para las
categorías que se consideran. Plantearse acabar con la ambigüedad del lenguaje sería una
empresa verdaderamente difícil. Lo importante es que el equipo investigador sea consciente de
esa dificultad y que se plantee utilizar otro tipo de técnicas complementarias que permitan
introducir el análisis de la ambigüedad.
Entonces, ¿cuáles serían los puntos de ruptura? Por lo pronto, una insistencia en la necesidad
de especificar los contenidos latentes. No es suficiente analizar cómo se agrupan las unidades
de análisis, es necesario también entender qué se está dejando de decir, o cómo se dice lo que
se dice. Y para ello es imprescindible considerar el contexto en el que se han producido los
datos, como ya se decía más arriba. La cita siguiente ilustra perfectamente este punto de vista:
Las propuestas de lo que se ha dado en llamar Grounded theory, que se podría traducir como
teoría sobre el terreno, a ras de tierra, no difieren sustancialmente de estos enfoques, aunque
sus precursores, Glaser y Strauss, proponen un modo de proceder distinto denominado método
comparativo constante cuyo principal objetivo es la generación de teoría mediante el uso
explícito de los procedimientos de codificación y análisis del análisis de contenido (ver Vallés,
2000 y Silverman, 1993).
En los últimos años se han desarrollado multitud de programas específicos para el análisis de
contenido cualitativo. A diferencia de los programas de análisis de contenido tradicionales, el
Atlas/ti, el NUD*IST NVivo o el winMAX, por ejemplo, cumplen una triple función:
En este breve artículo, los autores presentan el resultado de su investigación sobre los relatos
de carácter pornográficos que aparecían en el grupo de noticias alt.sex.stories de Usenet, que
es una de las redes con mayor número de foros o grupos de Internet (15.000 ya en el año
1997) y que es accesible a través de los más importantes servidores de Estados Unidos, como
Compuserve o America Online. En Usenet existen grupos de noticias sobre muchos temas
distintos: deportes, informática, política, ocio, educación, y por supuesto, sexo, que es uno de
los más visitados, y del que hay varios grupos. En los grupos de noticias los usuarios dejan
mensajes que pueden ser leídos por los demás y continuados posteriormente por otras
personas.
El método utilizado para estudiar el material que se encuentra en el grupo de historias sexuales
es el análisis de contenido. Cada texto con una historia narrada se consideró como un dato en
el sentido analítico, y se excluyeron los textos que responden o continúan historias originales,
porque en ocasiones las historias pueden desarrollarse en distintos textos a través del tiempo.
En todo caso, se escogieron 200 historias, de las que finalmente se seleccionaron 196.
Pocos detalles se ofrecen sobre el análisis de contenido realizado más que las categorías
utilizadas para clasificar los textos, inventadas por los propios autores de forma tal que se
permitía que cada texto fuera clasificado en más de una categoría, lo cual, como se ha
comentado, no resulta muy habitual. Los únicos resultados que se describen son el porcentaje
de textos enmarcados por las siguientes categorías: sexo no consentido (40%), actos
homosexuales (36,7%), disciplina o ataduras (24%), dolor (23.5%), pedofilia (19,4%), tortura
(11.7%), sexo en grupo (8,2%) y otras categorías con porcentajes menores del 5%. A pesar de
que se apuntan algunas otras conclusiones obtenidas en estudios sobre pornografía en Internet
que podrían resultar de interés, el análisis de contenido realizado se queda en un plano tan
superficial que apenas se explotan los resultados obtenidos, por no decir nada de la necesidad
de una elaboración más profunda de las conclusiones.
Para entender el "personaje representativo" de Ally McBeal, la autora analiza varios medios de
comunicación (la serie de televisión, revistas, periódicos y un foro de internet), recopilando e
investigando materiales escritos, visuales y audiovisuales en cada uno de ellos.
En lo que se refiere al muestreo, Leavy lleva a cabo un muestreo aleatorio, en el que tiene
especial cuidado de seleccionar un número de casos lo suficientemente representativo de cada
universo de referencia, y siempre cuidando que exista igual representación de los casos que
confirman sus hipótesis de partida como los que la rechazan. En el caso de los textos extraídos
del foro de Internet, que se formó inmediatamente después de que los medios anunciaran que
la actriz que interpreta Ally McBeal, Calista Flockhart, era anoréxica, no fue posible utilizar un
procedimiento de muestreo que tuviera en cuenta el sexo ni ninguna otra característica
biográfica de los que escribían, dado el carácter anónimo de los alias que se utilizan en
Internet. Se seleccionaron los textos de las ocho semanas siguientes a la formación del grupo,
y se trataron posteriormente en el programa HyperResearch, de forma tal que cada semana
constituía un caso y cada línea una unidad de registro.
Merece una mención especial el análisis propuesto para los datos visuales y audiovisuales, que
por razones de espacio no se ha tratado en la introducción al análisis de contenido que
precede.
Para los datos visuales y audio-visuales, se utilizan tres fuentes: las fotografías que
acompañan a los textos analizados, fotografías de Ally/Calista sin componentes textuales (casi
todas imágenes promocionales o de moda) y una selección aleatoria de cuatro episodios de la
serie televisiva. Es interesante destacar que Leavy cumple con varios de las recomendaciones
elaboradas para el análisis de documentos visuales: el conocimiento de la identidad de los
fotografiados y el contar con información sobre el proceso por el cual esas fotografías han sido
producidas. (Collier y Collier, 1996). Por otro lado, adopta la postura de no perderse en detalles
para no distorsionar la percepción del documento en su totalidad, y siguiendo los principios del
análisis cualitativo, parte de los datos en bruto, que como hemos mencionado, tienen una
dimensión naturalística y no interactiva, para ir decodificando los distintos elementos e ir
elaborando al mismo tiempo las conclusiones.
Barker examina treinta películas nominadas para los Oscars de 1929 a 1979 para determinar si los héroes son modelos de
comportamiento positivos en la búsqueda de la fama o celebridades de dudosa moral. El análisis de contenido se utiliza
para determinar algunas tendencias en lo relativo a la frecuencia y el retrato de las mujeres en las películas, así como la
generalización del carácter ético de los protagonistas y el dogmático de los antagonistas.
BERNSTEIN, J.M. y LACY, S: «Contextual coverage of government by local television news», Journalism Quarterly, 69
(2), 329-341, 1992.
El análisis de contenido de la programación de 14 televisiones locales, que estudia el tiempo dedicado a las historias y el
tipo de cobertura para determinar el contexto de los hechos y eventos que se le presentan al público, muestra cómo los
informativos contribuyen a la formación de opiniones.
BLAIKIE, A.: «Images of age: a reflexive process», Applied Ergonomics, 24 (1), 51-58, 1993.
En este interesante artículo se muestra cómo el análisis de contenido de revistas resulta un eficaz instrumento para
reflejar los cambios en los estereotipos sobre el envejecimiento en las últimas décadas.
CRAIG, R.S.: «The effect of day part on gender portrayals in television commercials: a content analysis», Sex Roles: A
Journal of Research, 26 (5-6), 197-213, 1992.
El análisis de contenido de 2209 anuncios de televisión intenta comparar diferencias en los estereotipos de género en tres
distintas partes del día: a lo largo del día, en hora punta por la noche, y en los horarios deportivos del fin de semana. Los
resultados indican que existen consistentes diferencias entre la forma en la que hombres y mujeres son presentados a lo
largo de esos tres momentos. A pesar de que los anuncios a lo largo de todo el día tienden a mostrar a los hombres en
roles estereotipados de dominación y autoridad, durante el fin de semana tienden a enfatizar el escaparse de la casa y la
familia.
EBERHARDT, E.A.: The rhetorical analysis of three journal articles: The study of form, content, and ideology, Ft. Collins,
CO: Colorado State University, 1991.
Eberhardt utiliza el análisis de contenido para analizar tres artículos de prensa sobre el discurso de Ronald Reagan en el
que responde a un informe del Congreso sobre el asunto Irán-contra. El autor analiza el contenido semántico, el estilo
lingüístico y la elección del lenguaje, así como los efectos de ambas cuestiones sobre la sociedad.
ELLIS, B.G. y DICK, S.J.: «Who was 'Shadow'? The computer knows: applying grammar-program statistics in content
analyses to solve mysteries about authorship», Journalism & Mass Communication Quarterly, 73(4), 947-963, 1996
El objetivo de este estudio era emplear las opciones de revisión ortográfica y recuento de palabras de los programas de
procesamiento de textos como herramienta de análisis de contenido para, junto con un análisis cualitativo, determinar la
autoría de los textos. De esta forma, se resuelve uno de los misterios de la Guerra Civil americana sobre quién fue el
famoso corresponsal de guerra "Sombra" del lado de los confederados.
GRAHAM, J.L., KAMINS, M.A., y OETOMO, D. S.: «Content analysis of German and Japanese advertising in print
media from Indonesia, Spain, and the United States», Journal of Advertising, 22 (2), 5-16, 1993.
Los autores analizan el contenido informativo y emocional de la publicidad impresa para estudiar cómo la cultura del
país de origen influye en las estrategias de marketing de las empresas en los mercados exteriores. Los resultados de la
investigación evidencian que la hipótesis original no se mantiene, puesto que la cultura local no influye en los anuncios de
los países donde se publicitan dichas empresas.
8. RESUMEN
Se abordan las características principales del análisis de contenido, presentando, en primer
lugar, algunas notas históricas sobre su aplicación a la investigación en las ciencias sociales y
resaltando posteriormente sus distintas conceptualizaciones. Después se presentan las
cuestiones principales que han de tenerse en cuenta en su aplicación práctica, como son la
selección de las unidades de análisis, el procedimiento de codificación, la evaluación de la
fiabilidad y la validez y el proceso de análisis e inferencia, que sirve de transición para explicar
las principales características del análisis de contenido cualitativo. Por último, y con el fin de
ilustrar algunos de sus usos posibles, se incluyen una serie de investigaciones que han
aplicado la técnica del análisis de contenido.
9. BIBLIOGRAFÍA
9.1. Bibliografía citada
ALLPORT, G.W. The Use of Personal Documents in Psychological Science, Nueva York, Social Science Research Council,
1942.
BERELSON, B.: Content analysis in communication research, New York, Free Press, 1952.
CAMPBELL, D. y STANLEY, J.: Diseños experimentales y cuasiexperimentales en la investigación social. Buenos Aires,
Amorrortu Editores, 1993 [1966].
CEA D'ANCONA, M.A.: Metodología cuantitativa: estrategias y técnicas de investigación social, Madrid, Síntesis, 1996.
COLLIER, J. y COLLIER, M.: Visual Antropology: photography as a research method. Alburquerque, University of New
Mexico Press, 1996.
HOLSTI, O.R.: «Computers content analysis», en NORTH, R.C. y otros: Content analysis: a handbook with applications
for the study of international crises, Evaston: Northwestern University Press, 1963.
JACOB, H.: «Using published data: errors and remedies», en LEWIS-BECK, M.S. (comp.): Research Practice,
California, Sage, 1994. (págs. 339-390).
KRIPPENDORFF, K.: Metodología de análisis de contenido: teoría y práctica, Barcelona, Paidós Comunicación, 1997
[1980] .
LEAVY, P.: «Feminist content analysis and representative characters», The Qualitative Report, vol. 5, (1 & 2), Mayo 2000.
(http://www.nova.edu/ssss/QR/QR5/leavy.html)
LÓPEZ-ARANGUREN, E.: «El análisis de contenido tradicional», en GARCÍA FERRANDO, M., IBÁÑEZ, J. y
ALVIRA, F. (comp.): El análisis de la realidad social: métodos y técnicas de investigación, Madrid, Alianza Editorial, 2000
(Tercera ed.) (págs. 555-574).
MAYRING, P.: «Qualitative content analysis», Forum: Qualitative Social Research (revista electrónica). Junio 2000.
(http://qualitative-research.net/fqs/fqs-e/2-00inhalt-e.htm)
MOSTYN, B.: «The content analysis of qualitative research data: a dynamic aproach», en BRENNER, M., BROWN, J. y
CAUTER, D. (eds.): The reseach interview (págs. 115-145), London, Academic Press.
MUCCHIELLI, A.: Diccionario de métodos cualitativos en las ciencias sociales, Madrid, Síntesis, 2001.
SAPERAS, E.: La Sociología de la comunicación de masas en los Estados Unidos, Barcelona, Ariel, 1985.
SCOTT, J.: A matter of record: documentary sources in social research, Oxford, Polity Press, 1990.
SILVERMAN, D.: Interpreting qualitative data: methods for analysing talk, text and interaction, London, Sage
Publications, 1999 [1993].
VALLÉS MARTÍNEZ, M.: «La grounded theory y el análisis cualitativo asistido por ordenador», en GARCÍA
FERRANDO, M., IBÁÑEZ, J. y ALVIRA, F. (comp.): El análisis de la realidad social: métodos y técnicas de investigación,
Madrid, Alianza Editorial, 2000. (Tercera ed.) (págs. 575-604).
WEBER, R.P.: Basic content analysis (Quantitative Applications in the Social Sciences, no. 49), Newbury Park, CA, Sage,
1990.
9. BIBLIOGRAFÍA
9.2. Bibliografía complementaria
AMAT NOGUERA, N.: Documentación científica y nuevas tecnologías de la información, Madrid, Pirámide, 1987.
BEARD, J. y YAPRAK, A.: «Language implications for advertising in international markets: A model for message
content and message execution», Trabajo presentado en la 8th International Conference on Language Communication for
World Business and the Professions, Ann Arbor, MI,1989.
BRADLEY, J. y ROCKWELL, G.: The Components of a System for Computer Assisted Text Analysis, Paper, CETH
Workshop on Future Text Analysis Tools, 1995
BUDD, R.W., THORP, R.K. y DONOHEW, L.: Content analysis of communications, New York, Macmillan Company,
1967
ROBERTS, C.W. (ed.): Text Analysis for the Social Sciences: Methods for Drawing Statistical Inferences from Texts and
Transcripts (Lea's Communication Series), 1997.
CARLEY, K.: «Content analysis», en ASHER, R.E. (ed.): The Encyclopaedia of Language and Linguistics, Edinburgh,
Pergamon Press, 1990.
------------------: Computer analysis of qualitative data, Pittsburgh, PA, Carnegie Mellon University, 1989.
CARNEY, T.F.: Content analysis: A technique for systematic inference from communications, Winnipeg, Canada,
University of Manitoba Press, 1972.
COLLE, R.: La Instrucción Pastoral 'Aetatis Novae', Escuela de Periodismo UC, Santiago, 1992.
de SOLA POOL, I.: Trends in content analysis. Urbana, Ill, University of Illinois Press, 1959.
GOTTSCHALK, L.A.: Content analysis of verbal behaviour: New findings and clinical applications. Hillside, NJ:
Lawrence Erlbaum Associates, Inc, 1995.
JENSEN, K.B. y JANKOWSKI, N.W.: Metodologías cualitativas de investigación en comunicación de masas, Bosch,
Barcelona, 1993.
Karl E. Rosengren: Advances in Content Analysis (Sage Annual Reviews of Communication Research ; V. 9), 1981.
MUCCHIELLI, R.: L'analyse de contenu des documents et des communications, Librairies Techniques, París, 1974.
RIFFE, D.L. y FICO, F.G.: Analyzing media messages: Using quantitative content analysis in research, Lawrence Erlbaum,
Mahwah (NJ), 1998.
ROBERTS, C. y otros: Text analysis for the social sciences, Lawrence Erlbaum, New Jersey, 1997.
ROMPPEL, M.: Resources related to content analysis and text analysis - software, Universidad de Goettingen, 1999.
ROWLEY, J.: Organising knowledge: an introduction to information retrieval, Aldershot. Gower, 1987.
SEPSTRUP: Methodological reflections concerning content analysis, Paper presented at the XXX Conference of ICA,
Acapulco, 1980.
SMITH, C.P. (ed.): Motivation and personality: Handbook of thematic content analysis, New York, Cambridge University
Press, 1992.
SOLOMON, M.: «Content analysis: a potent tool in the searcher's arsenal», Database, 16(2), 62-67, 1993.
9. BIBLIOGRAFÍA
9.3. Bibliografía comentada
Se incluyen exclusivamente aquellas referencias específicas sobre el análisis de contenido, a pesar de que puedan
encontrarse manuales más generales que puedan resultar útiles para adentrarse en la técnica.
BERELSON, B.: Content analysis in communication research, New York, Free Press, 1971.
Aunque este libro, ya un clásico, incluye una revisión extensiva de los distintos usos del análisis de contenido, se concentra
prioritariamente en presentar un enfoque crítico a la literatura contemporánea sobre el tema. En cierto sentido asume
que el lector parte de algún conocimiento previo, pero sin embargo resulta accesible por los ejemplos concretos que
incorpora.
CARLEY, K.: «Content analysis», en ASHER, R.E. (ed.): The Encyclopaedia of Language and Linguistics, Edinburgh,
Pergamon Press, 1990.
Revisión rápida pero detallada de los distintos tipos de análisis de contenido. El trabajo de Carley trata por separado
algunos análisis no mencionados en esta introducción, como el análisis conceptual, el análisis de procedimientos, el
análisis relacional, el análisis emocional y además incluye una lista interesante de referencias bibliográficas sobre la
materia.
De SOLA POOL, I.: Trends in content analysis, Urbana, Ill, University of Illinois Press, 1959.
Esta recopilación de trabajos, que data de 1959, es una referencia importante, porque comienza explicando las
diferencias entre el enfoque cuantitativo y cualitativo en el análisis de contenido, y además detalla sus posibles usos en
una gran variedad de disciplinas, desde la lingüística y estudio del folklore hasta las biografías y la historia.
KRIPPENDORFF, K.: Metodología de análisis de contenido: teoría y práctica, Barcelona, Paidós Comunicación, 1997
[1980].
El libro de Krippendorf es uno de los más utilizados y citados en la actualidad en los estudios que utilizan el análisis de
contenido. Como ocurre con el libro de Weber que se cita a continuación, es un referente básico de la materia, ya que
presenta los aspectos más relevantes a considerar.
WEBER, R.P.: Basic content analysis (Quantitative Applications in the Social Sciences, no. 49), Newbury Park, CA, Sage,
1990.
Como ocurre con otros libros de la "colección verde" de Sage sobre metodología y estadística, esta obra constituye una
muy buena introducción al análisis de contenido. El primer capítulo, más general, es seguido por un segundo que versa
sobre las posibles clasificaciones y su interpretación, sin olvidar cuestiones como la de la validez y fiabilidad, así como la
creación de códigos y categorías de análisis. El capítulo tercero trata sobre las distintas técnicas de análisis de contenido,
que se ilustran con tablas y gráficos. Por último, el capítulo cuarto incorpora una discusión sobre los aspectos de medida,
representación e interpretación.
Nudist es en estos momentos uno de los programas líderes en el mercado para el análisis de contenido. Permite establecer
relaciones léxicas y conceptuales entre palabras, indexar ficheros y llevar a cabo operaciones de búsqueda utilizando
operadores Booleanos.
http://qsr.latrobe.edu.au/software/n4/n4.htm
ATLAS TI
Este programa, muy utilizado también, permite interpretar textos, manejarlos y contribuir a la formulación de teorías a
través de la extracción del conocimiento conceptual de los documentos. Permite utilizar un gran número de textos, así
como material audiovisual.
http://www.atlasti.de
THE ETHNOGRAPH
Este programa para el análisis cualitativo permite el manejo y análisis de texto procedente de transcripciones de
entrevistas, grupos de discusión, notas de campo, diarios, actas de sesiones y otros documentos. La página de Ethnograph
asegura que es el programa más utilizado para el análisis cualitativo desde 1985. http://www.qualisresearch.com/
Verbatim Blaster
Programa específico para el análisis de preguntas abiertas utilizando la técnica del análisis de contenido.
http://www.statpac.com/content-analysis.htm
Programas cuantitativos
Analiza ficheros de texto palabra a palabra, calculando el porcentaje de palabras que concuerdan con las dimensiones
establecidas.
http://www.erlbaum.com/Books/searchintro/BookDetailscvr.cfm?ISBN=1-56321-203-X
Diseñado como un módulo de SPSS que se vende por separado, Textsmart utiliza el análisis de conglomerados y las
técnicas de escalas multidimensionales para analizar automáticamente grupos de palabras y grupos de texto y
convertirlos en categorías.
http://www.spss.com/software/textsmart/
TEXTQUEST
Es la versión para Windows del programa Intext y permite el análisis de contenido cuantitativo. Se puede obtener una
copia de demostración.
http://www.textquest.de/tqe.htm
Textpack
Diseñado en sus orígenes para el análisis de preguntas abiertas en las encuestas, el Textpack se ha extendido a lo largo de
los años hasta cubrir muchos de los aspectos del análisis de textos por ordenador y la mayoría de los relacionados con el
análisis de contenido. Incluye opciones que permiten rápidos y fáciles análisis así como estudios de validación y fiabilidad.
http://www.social-science-gesis.de/en/software/textpack/spanish/
http://web.utk.edu/~gwynne/content_analysis.html
Otros recursos
http://www.content-analysis.de
Se trata de una página personal de Matthias Romppel, investigador en la Universidad de Goettingen, Suecia, que contiene
enlaces interesantes a instituciones dedicadas al análisis de contenido, a direcciones con bibliografía especializada y a
programas tanto cuantitativos como cualitativos.
http://www.gsu.edu/~wwwcom/
Página mantenida por un equipo del Departamento de Comunicación de la Universidad Estatal de Georgia, donde se
presentan distintos tipos de enlaces relacionados con el análisis de contenido.
http://maxweber.hunter.cuny.edu/socio/kuechler/341/f95/caho.html
Aquí se presenta un ejemplo práctico que incluye salidas de ordenador de análisis del contenido de los discursos del
presidente Clinton sobre el estado de la nación en 1994 y 1995.
http://www.parc.xerox.com/istl/groups/qca/
El equipo de investigación de Análisis de Contenido Cuantitativo (QCA) de Xerox, en Palo Alto, California presenta en su
página algunas de sus investigaciones más recientes.
http://www.slais.ubc.ca/resources/research_methods/content.htm
En esta página del Centro de Recursos para la Investigación de la Universidad de Columbia Británica en Canadá se
encuentra información muy interesante sobre los distintos tipos de análisis de contenido.
http://www.aber.ac.uk/media/Sections/textan01.html
En este sitio se pueden encontrar artículos sobre el análisis de contenido así como enlaces con otras páginas dedicadas al
tema. Pertenece a la Universidad de Gales en Averystwyth y mantiene un enfoque constructivista.
http://writing.colostate.edu/references/research/content/
Aquí se puede encontrar un texto muy sencillo y claro sobre el análisis de contenido, de la Universidad Estatal de
Colorado (en inglés).
http://www.videoanalysis.org/
Página muy interesante, por cuanto contiene información sobre análisis de contenido de vídeos.
http://psych.ucsc.edu/dreams/Info/
Página del grupo de la Universidad de California en Santa Cruz que se dedica a la investigación de los sueños utilizando
el análisis de contenido. Incluye ejemplos.
http://home.earthlink.net/~plschultz/academic_pages/files/biblio/content_analysis_biblio.htm
Este sitio de Internet, mantenido por Patrick Schultz, ofrece una interesante bibliografía comentada sobre el análisis de
contenido, que está organizada por áreas temáticas.