Está en la página 1de 24

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/271849220

Análisis de Contenido (Materiales didácticos)

Chapter · January 2002

CITATIONS READS

0 2,752

2 authors:

Lucila Finkel Ángel Gordo


Complutense University of Madrid Complutense University of Madrid
31 PUBLICATIONS   131 CITATIONS    144 PUBLICATIONS   579 CITATIONS   

SEE PROFILE SEE PROFILE

Some of the authors of this publication are also working on these related projects:

ApprEnt - Refining Higher Education Apprenticeships with Enterprises in Europe View project

Colaborative Design of AAL Solutions View project

All content following this page was uploaded by Ángel Gordo on 18 April 2015.

The user has requested enhancement of the downloaded file.


ASIGNATURA MÉTODOS Y TÉCNICAS DE INVESTIGACIÓN SOCIAL
MÓDULO 11. El análisis de contenido
AUTORES Lucila Finkel y Angel J. Gordo López

1. OBJETIVOS
• Enmarcar el análisis de contenido en su tradición histórica y metodológica poniendo de manifiesto los distintos campos
en los que se ha aplicado y los debates surgidos en torno a su utilización.

• Destacar los principales rasgos de este tipo de análisis y sus problemas prácticos, para evitar el uso de la técnica como
mera receta.

• Presentar el análisis de contenido como una técnica de análisis con posibilidades de aplicación, para lo que se incluyen
ejemplos con investigaciones reales.

• Facilitar al lector recursos que permitan la ampliación de la información presentada con miras a su aplicación práctica,
tales como páginas de Internet especializadas, bibliografía y programas informáticos.

2. MÉTODO DE TRABAJO
• Se ha procurado en todo momento que la exposición del análisis de contenido resulte clara e inteligible y que, ante todo,
presente una panorámica global de la técnica.

• Se ha preferido, por tanto, obviar algunas cuestiones que pueden resultar muy especializadas o requerir conocimientos
estadísticos para primar una visión más genérica de las etapas necesarias para implementar el análisis de contenido.

• Por otro lado, se han pretendido presentar las distintas perspectivas que pueden adoptarse, y de las consecuencias que
una u otra elección acarrea.

• La comprensión del tema se complementa, además, con ejemplos que permiten observar en la práctica investigadora las
distintas posibilidades de aplicación del análisis de contenido.

3. Introducción
Suponiendo que un investigador está llevando a cabo un estudio sobre las relaciones sociales
en las grandes ciudades, probablemente enmarcaría su investigación en el campo de la
Sociología de las Redes Sociales, e intentaría identificar las conexiones existentes entre los
individuos y su familia extensa, sus amigos más cercanos, sus compañeros de trabajo y otras
relaciones que se van dando en los distintos ámbitos de su vida. Para obtener esta información
cabe suponer que utilizará dos técnicas de recogida de información: la entrevista abierta o el
cuestionario precodificado, técnicas que le facilitarán datos de tipo cuantitativo o cualitativo. De
esta forma, se van identificando grupos de personas que mantienen nexos o redes del mismo
tipo con los sujetos considerados.

Se supone, también, que los primeros resultados de la investigación permiten identificar un


segmento de población con una serie de características peculiares: se trata de personas de
edad comprendida entre los 30 y los 40 años, situados profesionalmente, sin pareja o familia
propia, que viven solos, con una red de amigos o conocidos más limitada y que, a pesar de
buscar de una forma u otra pareja, no encuentran la persona ideal con quien establecer lazos
que desemboquen en una convivencia compartida. Si el asunto resultara de especial interés, el
investigador podría plantearse averiguar cuáles son los mecanismos que estas personas ponen
en marcha para encontrar pareja, es decir, cómo se establecen nuevas redes de relaciones en
las grandes ciudades cuando éstas no existen por sí solas. Explorando un poco el tema, resulta
que se identifican dos medios, uno más moderno, y otro que se viene utilizando desde hace ya
décadas: los contactos vía Internet, ya sea a través de foros, chats, o programas de
mensajería, y los anuncios por palabras en los periódicos. Ambos resultan fascinantes, pero
hay que olvidarse por un momento del primero para reflexionar sobre el segundo, que ya
cuenta con cierta historia.

Los anuncios por palabras en los que él busca a ella, o ella busca a él, complementados en los
últimos años por los de él busca a él ó ella busca a ella, constituyen pequeños fragmentos de
texto en los que se condensa mucha información relevante. En principio y más allá de las
posibles variantes, se explicitan los deseos sobre el otro u otra y se ponen de manifiesto
aquellas características personales que se consideran más importantes para el lector. Sin
olvidar la forma de contacto que debe seguirse, que por supuesto resulta fundamental para que
el anuncio cumpla su propósito. Pues bien, si se observa la importancia de la información
contenida, ¿cuál sería la técnica de recogida de información adecuada para analizar estos
anuncios? Como es evidente, se trata de información ya existente, que no ha sido creada ex
profeso para la investigación. Se trata también de información al alcance de todo el mundo, con
un contenido manifiesto fácil de interpretar. Sin embargo, un análisis más detallado podría
llegar a resaltar una serie de cuestiones que no se apreciarían a primera vista, como por
ejemplo las diferencias entre los anuncios según el medio en el que han aparecido impresos, o
los distintos estereotipos que prevalecen en hombres y mujeres y que se consideran
deseables. Si se sigue indagando, probablemente se podrían hacer inferencias o
extrapolaciones sobre los patrones culturales dominantes en el momento en el que han
aparecido los anuncios, e incluso sería posible describir u observar tendencias. La técnica de
investigación adecuada para abordar tales cuestiones es el Análisis de Contenido.

Ahora bien, es necesario hacer dos puntualizaciones que ayudarán al lector en su primera
aproximación a este tipo de análisis. En primer lugar, el análisis de contenido puede ser
cuantitativo o cualitativo. Más adelante se aborda esta doble perspectiva, pero por ahora es
importante tener en cuenta que el estudio de los anuncios por palabras puede hacerse a través
de un recuento y posterior análisis estadístico de las palabras más utilizadas donde por
ejemplo se crucen variables o categorías, o a través de métodos de inferencia más cualitativos
que permitan consideraciones de carácter más amplio como las que se han mencionado. En
segundo lugar, es necesario destacar que el análisis de contenido puede utilizar unidades de
análisis muy variadas; en este caso se partía de documentos de texto, pero pueden
considerarse también documentos visuales u otro tipo de material documental.

A lo largo de este módulo se introducirá al lector en la técnica del análisis del contenido de una
forma sencilla, evitando en la medida de lo posible el uso de tecnicismos y con el objetivo de
presentar las cuestiones más relevantes. Sin embargo, antes de entrar en el propio análisis,
conviene familiarizarse con su propio desarrollo histórico, porque éste permitirá entender mejor
sus sucesivas aplicaciones.

4. Algunos apuntes históricos sobre el


análisis de contenido
Los primeros autores que intentan poner en práctica el análisis de contenido propugnan una
estrategia de investigación puramente cuantitativa basada fundamentalmente en el recuento de
determinadas palabras. Aunque existen algunos ejemplos bien documentados de uso del
análisis de contenido previos a la década de los treinta, el gran crecimiento en la aplicación de
esta técnica se produce en Estados Unidos como consecuencia de la extraordinaria expansión
de los medios de comunicación. Hacia principios de siglo, la necesidad de entender el nuevo
fenómeno de la prensa escrita lleva a la realización de estudios basados en el análisis
cuantitativo de periódicos, donde se clasificaban los artículos publicados en función de su
temática y se llegaba a medir incluso los centímetros de columna que un periódico dedicaba a
un tema concreto. Sin embargo, con el desarrollo de los medios de comunicación en general y
con la aparición de nuevas estrategias de investigación como las encuestas y los sondeos de
opinión, se realizan estudios ciertamente novedosos, como los que versan sobre los
estereotipos sociales o los símbolos políticos presentes en los discursos de los presidentes
norteamericanos. En todo caso, se perfeccionan los análisis cuantitativos de los periódicos con
marcos teóricos y conceptos más definidos, así como con herramientas estadísticas
provenientes de otras técnicas. Los trabajos de investigación más relevantes de esta época se
presentan en el famoso libro de Berelson (1952) El Análisis de Contenido en la Investigación de
la Comunicación.

En este breve repaso de la historia del análisis de contenido, es inevitable señalar el importante
papel que jugaron los análisis de la propaganda durante la segunda guerra mundial, que se
revistieron de un carácter absolutamente estratégico. Así, un equipo de investigadores de la
Foreign Broadcast Intelligence Service, dependiente de la American Federal Communications
Commission (FCC) se encargó de estudiar las emisiones radiofónicas de la Alemania nazi para
comprender los sucesos que tenían lugar en los países del Eje para poder estimar el efecto de
las acciones militares sobre el espíritu bélico de la población. Se planteó en este contexto el
concepto de "propaganda preparatoria" de las emisiones radiofónicas, que permitió a los
analistas predecir campañas políticas y militares. Como bien señala Krippendorf estos estudios
permitieron poner de manifiesto que a) el contenido no es una cualidad absoluta u objetiva;
emisor y receptor pueden diferir en su interpretación; b) el analista formula predicciones o
inferencias acerca de sus datos en un contexto determinado, pero para ello es necesario que c)
exista un modelo sobre la forma en que se relacionan los mismos y d) los indicadores
cuantitativos son "poco sensibles y bastante burdos para suministrar interpretaciones políticas"
(Krippendorf, 1997: 23).

Como resultado del libro de Berelson antes citado que ofreció una panorámica de la técnica, el
análisis de contenido empieza a generalizarse tras la segunda guerra mundial. La
comunicación de masas sigue siendo su principal campo de desarrollo, pero surgen
aplicaciones en la psicología tales como el análisis de los registros verbales (Allport, 1942) o
los estudios sobre las respuestas abiertas en los tests (aunque como técnica complementaria).
En el campo educativo, por poner otro ejemplo, se empiezan a estudiar los libros de texto para
entender tendencias políticas o actitudinales que se plasman en los materiales escolares. Esta
tendencia de aplicaciones en otras disciplinas ha resultado imparable, y así, en la década de
los 70 pueden citarse investigaciones importantes que utilizan el análisis de contenido como la
de Walker, por ejemplo, que explora las diferencias y similitudes entre las letras de las
canciones populares de la población blanca americana y las letras del soul o del rhythm and
blues de la población de raza negra y concluye que estas últimas muestran un mayor énfasis
en la acción concreta y menos preocupación por el tiempo. En otro estudio, Aries analiza las
diferencias que se dan en pequeños grupos de mujeres, hombres y grupos de ambos sexos, y
encuentra que los estereotipos de género y la diferente socialización afecta al contenido de la
interacción. De este modo, en grupos de mujeres existe una preocupación por cuestiones
interpersonales, ya que se habla de sí mismas, de sus familias, y de sus relaciones. Por el
contrario, en los grupos de hombres solos no se tratan estas cuestiones directamente, aunque
sus sentimientos y experiencias personales se comunican a través de historias y metáforas. En
los grupos mixtos, Aries destaca que las mujeres tienden a adoptar un rol más tradicional,
hablando menos de sus familias y hogares, pero también evitando hablar de sus logros. Los
hombres, en cambio, adoptan actitudes algo más competitivas intentando asumir el liderazgo
del grupo (ver Weber, 1990).

Esta tendencia desde los años 60 de progresiva generalización del análisis de contenido a
otras disciplinas se ve además acompañada por un refinamiento de los procedimientos. Así, se
produce una mayor preocupación por el estudio de los aspectos no verbales, y se desarrollan
el análisis de contingencia y las aplicaciones informáticas, que indudablemente facilitaban
enormemente el recuento de palabras y la revisión exhaustiva de documentos escritos con el
consiguiente auge de este tipo de análisis. Los programas que han ido surgiendo y que se
comentarán más adelante han contribuido al perfeccionamiento posterior del análisis a través
de la creación de clasificaciones de categorías, como puede ser el General Inquirer. Y por
último, cabe destacar una última tendencia, que aparece inicialmente hacia mitad de siglo y
que pretende introducir perspectivas más cualitativas en el análisis de contenido.

5. El análisis de contenido y sus


aplicaciones
Como se ha mencionado, las primeras aproximaciones al análisis de contenido se aplicaron al
estudio de la comunicación, y se entendían primordialmente como una forma de estudio
cuantitativa. Lasswell, en su conocido artículo ¿Por qué ser cuantitativo? definía el análisis de
contenido así:

"Los procedimientos del content analysis de la


comunicación son apropiados para el problema planteado
por la descripción de la estructura de la atención en
términos cuantitativos" (Laswell, 1941, citado en Saperas,
1985)

Como se verá más adelante, el análisis del contenido deberá basarse pues en el estudio de las
palabras como símbolos. Pero no será hasta la publicación del mencionado libro de Berelson
en 1952 cuando se sistematice y complete la investigación de Laswell. Berelson define el
análisis de contenido de la siguiente forma:

"El análisis de contenido es una técnica de investigación


para la descripción objetiva, sistemática y cuantitativa del
contenido manifiesto de la comunicación" (Berelson,
1952:18)

En esta definición se encuentran las claves de lo que ha sido el desarrollo posterior del análisis
de contenido durante muchas décadas. Como bien señala Saperas (1985), la apelación al
contenido manifiesto de los textos implica que la técnica es algo más que el mero recuento de
palabras. Lo importante es la clasificación de las palabras que contienen ideas claves y que
ponen de relieve la intención de persuadir del emisor del mensaje. El requisito de objetividad
resulta fundamental para que la investigación se considere científica, como corresponde a la
tradición empirista en las ciencias sociales. Con la sistematicidad ocurre otro tanto, ya que de
no estudiar todos los elementos mediante determinadas técnicas para que el conjunto de las
unidades puedan ser interrelacionadas, no se logra una aproximación científica. Y por último, el
requisito de cuantificación, que se refiere al cálculo estadístico de las categorías que engloban
las unidades más representativas, es el rasgo más característico del análisis de contenido para
Berelson.

Esta visión básicamente cuantitativa del análisis de contenido se ha visto cuestionada por las
aportaciones de muchos otros autores posteriores, entre los que cabe destacar el importante
libro de Krippendorf Metodología de Análisis de Contenido. Como punto de partida, Krippendorf
señala que el análisis de contenido es:

"una técnica de investigación destinada a formular, a


partir de ciertos datos, inferencias reproducibles y válidas
que puedan aplicarse a su contexto" (1997:28)

Como puede apreciarse en esta última definición, desaparecen los requisitos de cuantificación,
sistematicidad y objetividad y aparecen dos nuevos elementos: la inferencia y el contexto.
Inferir es llevar a cabo un proceso de deducción lógico, para llegar a conclusiones que permitan
trascender el contenido manifiesto del texto o mensaje. En principio, el análisis de contenido ha
de conducir a una descripción fundada del contenido manifiesto, lo que conlleva fácilmente a
introducir clasificaciones y efectuar comparaciones. Las inferencias que se pueden producir,
para algunos autores han de limitarse al mensaje y su forma o significado. Pero otros autores -
y éste es el sentido de la presencia y uso del análisis de contenido en las ciencias sociales-
recalcan que también puede entregar conocimientos acerca del emisor y de la audiencia. No es
difícil justificar que da acceso al autor, ya que la obra es producto de su pensamiento; pero
puede ser más difícil justificar inferencias en relación con la audiencia, aunque no se deben
olvidar los procesos de marketing que pueden influir en la elaboración de los discursos. Es
familiar lo que ocurre hoy en materia de programación televisiva, donde el rating juega un papel
de primera importancia, por lo cual una programación exitosa habla bastante de su audiencia.
A pesar de que muchas veces no se estudiará, no se debe olvidar que un discurso es función
de un contexto y que algunas condiciones del contexto, necesariamente, influyen en su
construcción. Pero también puede darse el extremo opuesto: el que el análisis de contenido no
pretenda saber nada del emisor ni de la audiencia, sino de hechos del contexto. Es lo que
ocurre cuando se usan los medios de prensa para analizar noticias: en realidad se estudia el
contexto de los mensajes periodísticos junto, posiblemente, con la forma con la que se
representan.

Frente a otros métodos de investigación, el análisis de contenido presenta dos ventajas


fundamentales: en primer lugar, los materiales con los que se trabaja no son interactivos, es
decir, no han sido producidos expresamente para la investigación, tienen un carácter "natural".
En segundo lugar, el propio texto o materia prima contiene de una forma u otra el discurso del
que lo ha producido y no el del investigador. Sin embargo, es evidente que la subjetividad del
investigador entra en juego en muchos aspectos (como la selección de la muestra, la
categorización, y por supuesto, el análisis), pero no en el material de partida. Como
contraejemplo, puede pensarse en datos provenientes de encuesta, donde las propias
preguntas ya expresan el punto de vista del investigador. Si se toma en cuenta que no existe
ningún "contenido en sí", se debe siempre determinar primero cuál es el contenido que se
quiere analizar: el que es percibido por uno mismo (significado para el analista), el que quiso
comunicar el emisor o el que cree comprender un receptor o un grupo de receptores.

Algunos autores consideran que el análisis de contenido se aplica exclusivamente al análisis de


textos, otros a todo tipo de mensajes, independientemente de dónde estén contenidos. Como
se verá en los ejemplos que se proponen más adelante, el universo de aplicaciones es
ilimitado, ya que puede analizarse una gran variedad de datos provenientes de distintas
fuentes: desde programas de televisión, páginas webs, foros de internet, anuncios, películas,
fotografías, hasta por supuesto documentos impresos de todo tipo (véase Scott, 1990). Con
todo, las investigaciones clásicas han tomado como material de partida la fuente textual, y a
ellos está referida la mayor parte de la bibliografía sobre el tema. Aunque los nuevos
desarrollos del análisis de contenido incluyen cada vez más la posibilidad de trabajar con
fuentes visuales y audiovisuales (como se menciona en las reseñas de los programas
cualitativos al final de este módulo), la discusión que sigue se referirá al análisis de contenido
de textos.

6. La implementación del análisis de


contenido
En sus inicios, la idea central del análisis de contenido era clasificar las palabras que aparecen
en un texto en un número menor de categorías, con el objetivo de describir posteriormente la
frecuencia de uso de determinadas palabras y ofrecer un resumen de las mismas en categorías
prefijadas. Este simple enunciado, que a primera vista parece sencillo, encierra varias
cuestiones que requieren una reflexión más profunda. Cabría plantearse en primer lugar si son
siempre palabras lo que se intenta clasificar. Ello lleva a una reflexión sobre el tipo de unidad
de análisis de que se parte y en qué medio aparece la información a analizar. En segundo
lugar, es necesario reflexionar sobre qué es exactamente clasificar, con qué criterios se realiza
esta operación, qué tipo de categorías se obtienen y qué tipo de problemas se plantean al
abordar dicha clasificación. Esta reflexión inevitablemente conduce en un tercer momento, a las
cuestiones de validez y fiabilidad que surgen en torno a este tipo de actividad. Por último, y en
cuarto lugar, hay que abordar la generalización del análisis de las categorías: ¿Cómo se
definen? ¿Qué esquema conceptual utilizar? ¿Qué implicaciones tiene para la inferencia y el
análisis de los resultados? Estas y otras cuestiones resultan inherentes al análisis de contenido
y no pueden ser obviadas. De lo contrario, se caería en el error de ofrecer simples recetas cuya
aplicación mecánica no haría más que ensombrecer el rico potencial que ofrece esta técnica de
análisis.
En lo que sigue se tratarán cada una de estas cuestiones por separado. Sin embargo, antes de
entrar en un análisis más detallado de las operaciones que se han mencionado, se presentará
un esquema basado en el libro introductorio de Weber (1990) que ayudará a entender los
primeros pasos que han de contemplarse en el análisis de contenido hasta llegar a un
esquema de codificación aceptable.

Pasos a seguir en la creación y comprobación de un esquema de codificación (*)

(*) Elaboración propia a partir de Weber, 1990

Como se puede observar en el gráfico, en primer lugar deben especificarse las unidades de
análisis que se codificarán, y que pueden denominarse unidades de registro (1). En el caso que
se presentaba en la introducción, podría tratarse simplemente de las palabras que aparecían
en los anuncios de los periódicos. A continuación, se definen las categorías en las que se
agruparán las unidades de registro (2). En este caso se podría pensar en cualidades físicas y
cualidades psicológicas, pero para ver si realmente funciona el criterio de codificación, se
seleccionaría una muestra de los anuncios aparecidos en la prensa y se codificarían (3). Este
ejercicio no sólo ayudará a detectar posibles ambigüedades en las reglas de codificación, sino
que además servirá para afinar las categorías de análisis. Antes de proseguir, debería
realizarse una prueba para verificar la fiabilidad del procedimiento (4) (que se describen más
adelante) y, en caso necesario, volver a revisar las reglas de codificación (3). Este proceso
deberá continuar hasta que el investigador se encuentre satisfecho con la fiabilidad obtenida, o
hasta que el programa informático no arroje más errores. En este momento es cuando ya
puede procederse a la codificación de todo el texto (5). Finalmente, es importante volver a
verificar la fiabilidad de toda la codificación (6), tanto en el caso de que se haya utilizado una
codificación manual, ya que las personas pueden dejar de ser consistentes por el cansancio,
por ejemplo, como si se ha utilizado un programa informático, que puede funcionar
correctamente para una muestra de los datos pero fallar ante una combinación nueva de
palabras. A partir de ahí, y con la información ya procesada, se plantean las cuestiones de
análisis e inferencia, que se tratarán más adelante.

6. La implementación del análisis de


contenido
6.1. Las distintas unidades de análisis y la
importancia del contexto
El primer paso en todo análisis de contenido es decidir y especificar cuáles van a ser las
unidades de análisis en las que se va a centrar el análisis. Cabe distinguir entre las unidades
de muestreo, las unidades de registro y las unidades de contexto

Las unidades de muestreo son "las diversas partes de la realidad sometidas a observación"
(Aranguren, 2000: 561), que dado su gran número, se someten a una operación de muestreo.
Los editoriales, artículos de periódicos, anuncios de televisión, cartas o manuscritos, etc.
constituyen unidades de muestreo naturales, mientras que los fragmentos de las mismas, como
pueden ser algunas columnas, bloques de líneas, o párrafos, se denominan unidades de
muestreo artificiales.

La unidad de registro es una parte de la unidad de muestreo, y puede ser analizada


separadamente. Se supone que en la unidad de registro hay una mínima parte de información
que el investigador considera significativo. Las unidades de registro más frecuentes que
aparecen en textos son las siguientes (sin olvidar que el análisis de contenido puede considerar
también materiales visuales, como fotografías, vídeos, etc.):

• Palabras. Todos los programas informáticos trabajan con


esta unidad de análisis básica, aunque no todos ellos son
capaces de distinguirlas en función de sus múltiples
significados, lo que constituye uno de los grandes
problemas del análisis de contenido. Por ejemplo, si en
una editorial de un periódico se encuentra la palabra
orden, habría que discernir si se refiere a la colocación de
las cosas en el lugar que les corresponde, a uno de los
siete sacramentos de la Iglesia Católica que reciben los
obispos, o a un mandato que se debe obedecer, observar y
ejecutar.
• Unidades semánticas, formadas por palabras que cobran
sentido juntas. Por ejemplo, si se codifican "derechos
humanos" como dos palabras separadas, se perdería su
verdadero significado. Lo mismo ocurre con expresiones
como "tener patente de corso", "dar la nota", y nombres
propios como el del Estados Unidos. Muchos de los
actuales programas informáticos de análisis de contenido
incluyen este tipo de unidades en sus registros.
• Frases que contengan varias palabras. En ocasiones
interesa estudiar frases completas y codificarlas en
función de su evaluación positiva, neutra o negativa hacia
un determinado tema. En un estudio sobre el
nacionalismo, por ejemplo, podrían clasificarse frases de
discursos de políticos en función de su valoración de la
idea de autodeterminación.
• Temas, que se definen como una unidad de texto que no
tiene más de un sujeto, un verbo y un predicado y que son
codificados numéricamente según se trate de cada parte de
la oración. Este tipo de codificación permite distinguir
fácilmente entre oraciones del tipo "el consejero no tolera
a los sindicatos" y "los sindicatos no toleran al consejero".
En ocasiones, cuando se consideran frases o temas muy
largos, a veces es necesario preparar manualmente estas
unidades de registro para la codificación, puesto que el
uso de pronombres y expresiones ambiguas puede
dificultar el proceso de codificación (Holsti, 1963). En la
siguiente frase, por ejemplo, ha sido necesario intercalar
el sujeto entre paréntesis para que el programa interprete
la información correctamente: "tras un acalorado debate,
los sindicatos decidieron levantar la sesión y abandonar la
sala de juntas. Decidieron (los sindicatos) convocar a sus
bases para presionar que se renegociara el convenio
colectivo".
• Párrafos que contienen varias frases pero que guardan
cierta unidad semántica. A veces se codifican, sobre todo
manualmente, pero en todo caso la fiabilidad de la técnica
se reduce sustancialmente en comparación con unidades
de análisis más pequeñas.
• Textos completos, que se consideran globalmente y
presentan el mismo problema que los párrafos. Sin
embargo, a veces se categorizan textos como editoriales o
titulares de prensa para estudiar el número de artículos
que ha generado un tema dado en un período de tiempo
concreto.

Por último, algunos autores identifican las unidades de contexto, que son la porción de la
unidad de muestreo que debe ser examinada para caracterizar una unidad de registro. Si se
trata de codificar palabras o unidades semánticas, por ejemplo, la unidad de contexto es el
pasaje donde está situada la unidad de registro, en este caso la frase o el párrafo. Ambos tipos
de unidades, la de registro y la de contexto, pueden coincidir, y además una unidad de contexto
puede serlo para varias unidades de registro.

Ahora bien, más allá de la tipología de unidades de análisis que hemos presentado, lo que no
puede perderse de vista nunca en el análisis de contenido es la importancia del contexto en el
que se han producido estas unidades. Por más riguroso que sea el procedimiento de
codificación y de análisis posterior, si no se incorporan consideraciones de carácter histórico-
sociológico que enmarquen correctamente las unidades de análisis, se estará operando en una
ficción que tal vez sea rigurosa desde el punto de vista metodológico pero que aporta muy poco
a la generación de conocimientos y al proceso de inferencia. En el ejemplo de partida sobre los
anuncios de contactos personales, si se pierde de vista el contexto, si no se entiende la
necesidad de relacionarse como forma de rescatar redes sociales perdidas o inexistentes, o si
no se interpretan las categorías físicas y psicológicas que se ofertan y solicitan como una
expresión de una determinada norma socio-cultural imperante, los resultados de la
investigación no podrán superar el mero ejercicio de descripción. Este énfasis en el contexto ha
sido puesto de manifiesto por aquellos autores que además abogan por un análisis de
contenido con un carácter más cualitativo.

6. La implementación del análisis de


contenido
6.2. El procedimiento de codificación
A estas alturas el lector se estará preguntando sobre el procedimiento para codificar las
unidades de registro. Ya se ha adelantado que el análisis de contenido reduce la información
de partida en categorías de análisis. Esta operación puede realizarse "a mano", es decir,
asignando categorías a palabras u otras unidades manualmente, o bien a través de programas
de ordenador que lo realizan de forma automática, lo cual cada vez más se va constituyendo
en la práctica más extendida.

Al igual que ocurre con otro tipo de preguntas precodificadas, como las que se utilizan en los
cuestionarios, las categorías de respuesta deben ser exhaustivas, -es decir, incorporar toda la
gama de respuestas posibles-, y mutuamente excluyentes, lo que supone que cada respuesta
u observación pueda clasificarse únicamente en una categoría. Sin embargo, en los
cuestionarios se contempla la posibilidad de las respuestas múltiples y en determinados
análisis de contenido se permite la clasificación simultánea en más de una categoría, aunque
esta práctica no sea muy recomendable.
Ahora bien, ¿cómo se crean las categorías de análisis? En este aspecto se encuentra una gran
variedad de situaciones. En ocasiones las categorías son definidas de antemano por el
investigador, y se van cambiando en función de la adecuación de las mismas al objeto de
estudio. Sin embargo, una práctica muy extendida ha venido siendo el uso de diccionarios de
análisis de contenido que contienen nombres de categorías, definiciones de las reglas de
asignación de palabras a categorías y la asignación concreta de dichas palabras. Podrían
mencionarse el IV Diccionario Psicosocial de Harvard y el Diccionario de Valor de Lasswell,
ambos desarrollados originamente en inglés basado en conceptos parsonianos y freudianos el
primero y diseñado para el análisis político el segundo. ¿Qué ventajas presentan para el
investigador este tipo de diccionarios? Weber señala algunas (1990: 25):

• Engloban una gran variedad de categorías entre las que


se pueden elegir las que interesen.
• Minimizan el tiempo requerido para construir un sistema
de categorías propio, así como para validarlo y revisarlo.
• Estandarizan la clasificación.
• Permite la comparación de resultados entre diversos
estudios que usen el mismo diccionario.

¿Cómo operan en la práctica los programas informáticos que utilizan este tipo de diccionarios?
Algunos trabajan con esquemas clasificatorios únicos, basados en la materia o asunto del que
trate el texto. Así, ofrecen la lista de palabras asignadas a cada categoría indicando con un
número al lado de la palabra el sentido que se le asigna a la palabra si ésta tiene más de un
significado. Esta capacidad de distinguir entre los distintos significados de una palabra, o de no
separar unidades semánticas, es algo muy reciente y que se ha incorporado en las versiones
más recientes de los diccionarios. Por otro lado, se identifican también las palabras no
asignadas a categoría alguna, como "y", "en", "de", etc. Los listados de palabras claves
insertadas en la frase que aparece en el texto también resultan muy útiles, por cuanto no
pierden de vista la unidad de contexto.

Otros programas trabajan con formas de clasificación múltiple, en la que se utilizan


simultáneamente distintos criterios. Así, por ejemplo, el Diccionario de Harvard contiene
categorías de primer orden que tienen que ver con estados psicológicos básicos (necesitar,
percibir, sentir, pensar y evaluar) y categorías de segundo orden que responden a las tres
dimensiones que componen el diferencial semántico de Osgood, cada una de ellas con polos
opuestos (lo negativo o positivo; lo débil o fuerte y la actividad o pasividad). De esta forma, la
palabra "aceptable" queda clasificada en las categorías de primer orden pensar y evaluar, y en
la categoría de Osgood positivo.

A pesar de que la clasificación en categorías prefijadas ha mejorado sustancialmente y se ha


sofisticado bastante, los problemas derivados de la ambigüedad de las palabras no han
desaparecido del todo. Como se ha señalado, una palabra puede tener distintos significados,
pero además, aún cuando se la clasifique correctamente, puede no ser el mejor indicador
posible para la categoría en la que ha sido enmarcada. Algunos autores han propuesto que se
permita la clasificación simultánea en más de una categoría, o incluso, que se le asignen pesos
a las palabras para hacer constar su grado de representatividad de la categoría en cuestión.
Ambas propuestas no han prosperado por las dificultades que ello implicaría para el análisis.

Por otro lado, se han ido formulando críticas al uso de los diccionarios. En primer lugar se ha
señalado que en ocasiones el uso de distintos diccionarios ha arrojado distintos resultados, lo
cual pone en cuestión su utilidad. Sin embargo, no hay evidencia empírica clara en este sentido
porque existen estudios que han demostrado precisamente la concordancia de resultados. En
segundo lugar, se cuestionan los esquemas clasificatorios porque imponen la realidad del autor
sobre el texto, y se aboga por el uso de categorías que salgan de los autores de los propios
textos analizados, a través de técnicas de covariación que agrupen a las palabras más
utilizadas, como puede ser el análisis factorial. Esta propuesta podría tacharse de
excesivamente inductivista, ya que asume que a partir de las palabras se construyen
categorías de análisis, sin un marco teórico previo que sirva de referente. Por último, la
traducción literal de los diccionarios a otras lenguas puede crear problemas, aunque por otro
lado constituye una forma interesante de asegurar la comparabilidad de estudios
transnacionales.

Una vez codificadas las unidades de registro, es necesario plantearse la cuestión del análisis
de los datos. Pero antes de pasar a esta materia, es preciso hacer una reflexión sobre los
problemas que el ejercicio de codificación conlleva.

6. La implementación del análisis de


contenido
6.3. Los problemas de fiabilidad y validez
Toda medición de la realidad social debe reunir unas condiciones mínimas de fiabilidad y
validez. Estos requisitos, aplicables a cualquier tipo de diseño de investigación, presentan unas
características singulares en el caso del análisis de contenido. Pero, antes de entrar en
detalles, conviene aclarar brevemente qué se entiende por ambas cuestiones.

La fiabilidad se refiere a la "capacidad de obtener resultados consistentes en mediciones


sucesivas del mismo fenómeno" (Jacob, 1994). Es decir, si se mide el concepto de forma
similar en diferentes momentos, el resultado ha de ser el mismo o lo más aproximado posible.
Y si no ocurre así, la idea subyacente es comprobar si realmente lo que ha variado es el
fenómeno real, y no la propia actividad de la medición, que podría incluir las distintas
idiosincrasias de los analistas o cualquier otra fuente de sesgo.

La validez, al contrario que la fiabilidad, hace referencia a un criterio externo. Ya no se trata de


obtener los mismos resultados independientemente de las circunstancias de la aplicación del
procedimiento, sino de que los resultados de un procedimiento se ajusten a lo que se considera
verdadero o válido. Dicho en términos más concretos, una medición es válida si mide lo que se
quiere medir.

Como bien señala Krippendorf (1990) en su excelente capítulo sobre la fiabilidad, en el análisis
de contenido normalmente se consideran tres aspectos relevantes:

• La estabilidad. Si en dos repetidas codificaciones (o en


un proceso denominado test/retest) los datos se clasifican
de forma similar, puede decirse que el proceso de
asignación de categorías es estable, congruente o
consistente. Este tipo de prueba de fiabilidad resulta útil
para detectar discrepancias que puedan resultar de la
ambigüedad de significado de algunas palabras, de las
definiciones de las categorías utilizadas, o de las propias
reglas que se siguen al codificar, aunque este último
problema se minimiza utilizando programas informáticos
que siguen unas determinadas reglas de codificación que
una vez establecidas son aplicadas siempre de la misma
forma. En todo caso, resulta la forma más débil de
fiabilidad porque se establece para un solo codificador.
• La reproducibilidad, en cambio, hace referencia a la
capacidad de obtener los mismos resultados en distintos
lugares y momentos, cuando el mismo texto es clasificado
en categorías por codificadores independientes. Es decir,
cuando dos o más individuos aplican las mismas
instrucciones de registro a un mismo conjunto de datos y
el proceso arroja resultados similares, puede afirmarse
que existe un alto grado de reproducibilidad o consenso
entre codificadores.
• La exactitud, por último, es la forma más fuerte de
fiabilidad. Para que exista exactitud, el proceso de
codificación se compara con un criterio o patrón conocido
y se estudian las desviaciones de cada codificador con
respecto a la norma. El problema estriba en que rara vez
se cuenta con una norma previa que permita contrastar la
exactitud del procedimiento de codificación, por lo que su
uso se ha visto limitado a la evaluación del desempeño de
codificadores que se encuentran en fase de aprendizaje.

En todo caso, sea cual sea el aspecto que adopte la fiabilidad, ésta "siempre se reduce a medir
el acuerdo alcanzado por los observadores, codificadores o jueces al procesar de forma
independiente la información científica" (Krippendorf, 1990: 197). No se entrará aquí en detalles
técnicos sobre las distintas propuestas de medición numérica de la fiabilidad, pero cabe
resaltar que para ello se han propuesto distintos estadísticos como por ejemplo la pi de Scott o
el alpha de Cronbach y se ha señalado la importancia de trabajar sobre una muestra
representativa de los datos, preferiblemente estratificada, para asegurar la inclusión de las
variables relevantes.

Ya se ha mencionado anteriormente que el análisis de contenido tiene como principal objetivo


la formulación de inferencias y que la codificación en todo caso es un paso previo a la
interpretación. Sin embargo, es importante no perder de vista que si la codificación de los datos
presenta deficiencias en cuanto a la validez y fiabilidad, las inferencias resultantes se verán
seriamente comprometidas. Por ello, no deben perderse de vista cuestiones eminentemente
prácticas relacionadas con lo que se ha expuesto que de ser tenidas en cuenta redundarán en
un mayor control de todo el proceso. En este sentido, y en lo que se refiere a lograr una mayor
reproducibilidad en el análisis de contenido deben evitarse las siguientes situaciones:

• Que los codificadores trabajen de manera grupal


llegando a acuerdos sobre la mejor categoría descriptiva
para ciertos datos. Esta falta de independencia hará que
los datos parezcan falsamente más fiables de lo que son.
• Elegir los juicios mayoritarios o los que se supone más
autorizados cuando surjan discrepancias tampoco ayuda a
evaluar la fiabilidad.
• Rechazar los datos sobre los que se generan
discrepancias introduce un sesgo importante en la
representatividad de la muestra.

Por último, cabe resaltar que para evaluar más acertadamente el grado de fiabilidad del análisis
de contenido, es posible realizar una serie de pruebas diagnósticas previas a la elaboración
definitiva del instrumento de codificación y a la generación de los datos. Se trataría de evaluar
separadamente:
• La fiabilidad de la unidad de análisis. A veces es
importante identificar aquellas unidades de análisis que
presentan más problemas al ser codificadas y que generan
más discrepancias entre los codificadores.
• La fiabilidad de los individuos participantes en el
proceso de codificación para detectar si existen personas
con cierta tendencia a evaluar los datos a la ligera o que
no interpretan correctamente las instrucciones.
• La fiabilidad de una categoría única sirve para averiguar
si una categoría se está confundiendo con las demás
• La fiabilidad condicional, que estima el grado de
fiabilidad de algunas categorías de una misma variable
para determinar qué categorías de la variable podrían
mantenerse o agruparse en el análisis final. En el análisis
de contenido es muy frecuente que al analizar un texto
autobiográfico, por ejemplo, no esté muy claro qué rasgos
o categorías de la variable personalidad están presentes.

Si se entiende por validez medir lo que se quiere medir, una categoría derivada del análisis de
contenido será válida si mide adecuadamente el constructo o concepto que el investigador
pretende que represente. Tradicionalmente, ya desde las aportaciones de Campbell y Stanley
(1966), se viene distinguiendo entre validez interna y validez externa. La validez interna
presume la existencia de una relación lógica entre indicadores, categorías y resultados del
análisis, y establece relaciones de causalidad eliminando o controlando otras explicaciones
alternativas. La validez externa, en cambio, hace referencia a la relación empírica, y asume la
posibilidad de generalización de los resultados. Los estudiosos del análisis de contenido
insisten en la importancia de comprobar la validez externa de los resultados del análisis.

Usualmente, la validez se comprueba comparando los resultados obtenidos con el instrumento


utilizado por el codificador con los que puedan obtenerse de forma independiente, aunque no
siempre es posible realizar este tipo de comprobación. Esta operación de contrastación con los
resultados de otras investigaciones, o convalidación, como dice Krippendorf, resulta de
particular importancia para el análisis de contenido, porque supone explicitar que la técnica no
termina con la clasificación de la información, sino que es necesario hacer inferencias y mostrar
explicaciones a la luz de los hallazgos de otras investigaciones inscritas en determinados
contextos teóricos. Varios son los tipos de pruebas de validez susceptibles de ser
considerados. Se analizará cuáles resultan más adecuadas para este tema (ver López-
Aranguren, 2000; Cea D’Ancona, 1996 y Weber, 1990).

• Validez pragmática o de resultados, también


denominada en inglés face validity. Se trata de la forma
más débil de validez, la correspondencia entre la
definición del concepto que hace el investigador y las
definiciones de las categorías que lo miden. Una categoría
tiene validez pragmática si mide el concepto que quiere
medir. En este caso, al investigador le interesa comparar
los resultados de su investigación con otro momento u
otro grupo de individuos para demostrar que el método
funciona bien bajo otras circunstancias. Ello puede
hacerse con un simple análisis de correlaciones que
indique la fuerza de la asociación entre las inferencias del
análisis de contenido y los otros datos de similares
características contextuales.
• Validez de rasgos abstractos o de constructo. Si el
investigador prefiere limitar su estudio al análisis de algún
rasgo concreto, como podría ser el sentimiento
nacionalista, el carácter autoritario, etc., deberá demostrar
que las proposiciones que adopta para especificar sus
relaciones con otros rasgos se mantienen. Para afirmar
que la medición del concepto o constructo teórico es la
correcta, conviene además comprobar si dicho constructo
tiene validez discriminante (es decir, si los indicadores
utilizados lo diferencian de otros rasgos) y si posee
además validez convergente (en el sentido de que
produzcan resultados similares a otros indicadores o
índices ya empleados en otras investigaciones).
• Validez del contenido (o del muestreo). La cuestión que
se plantea aquí es si los indicadores que se encuentran en
el texto resultan una muestra adecuada de todos los
posibles indicadores que pudieran existir para medir o
describir las características o atributos que interesa
estudiar. Por ejemplo, si estudiando los discursos de los
directores de centros escolares quisieran identificarse los
rasgos de la personalidad autoritaria que ya describieron
los teóricos de la Escuela de Frankfurt, y no aparecieran
por ejemplo indicadores de sometimiento acrítico a una
autoridad superior, la muestra de discursos no tendría
validez de contenido para estudiar la personalidad
autoritaria.
• Validez semántica, que se obtiene cuando existe
consistencia en la clasificación de los datos. Si una
palabra tiene distintos significados posibles, y no se tiene
en cuenta el contexto para diferenciar estos significados,
el análisis resultante carecerá de validez semántica. Para
determinar si está presente, puede contrastarse el
resultado del procedimiento de asignación de categorías
con otro realizado según algún criterio externo e
independiente.

Curiosamente, como ocurre con la fiabilidad, muchos de los problemas se derivan de la propia
ambigüedad de los significados de las palabras así como de las definiciones utilizadas para las
categorías que se consideran. Plantearse acabar con la ambigüedad del lenguaje sería una
empresa verdaderamente difícil. Lo importante es que el equipo investigador sea consciente de
esa dificultad y que se plantee utilizar otro tipo de técnicas complementarias que permitan
introducir el análisis de la ambigüedad.

6. La implementación del análisis de


contenido
6.4. El análisis de contenido cualitativo
Por lo general, los autores que propugnan una aproximación cualitativa al análisis de contenido
no rechazan de plano los supuestos y el modo de operar del análisis de contenido cuantitativo,
sino que se alejan de las visiones más empiristas de esta tradición. Por ello, comparten las
reglas de análisis que supone la clasificación en categorías analíticas y la centralidad de las
mismas. Por otro lado, la pretensión de fiabilidad y validez, así como de intersubjetividad para
que sea posible la contrastación con otros estudios existe igualmente (Mostyn, 1985).

Entonces, ¿cuáles serían los puntos de ruptura? Por lo pronto, una insistencia en la necesidad
de especificar los contenidos latentes. No es suficiente analizar cómo se agrupan las unidades
de análisis, es necesario también entender qué se está dejando de decir, o cómo se dice lo que
se dice. Y para ello es imprescindible considerar el contexto en el que se han producido los
datos, como ya se decía más arriba. La cita siguiente ilustra perfectamente este punto de vista:

"La tarea el investigador es investigar "arqueológicamente", como diría Foucault, los


innumerables accidentes y las miles de vueltas y cambios de la práctica humana que han
llevado a que el texto adquiera su forma presente. En este contexto, el análisis cualitativo no
trata tanto de decidir qué puede significar para un individuo un texto o un extracto textual, sino
que más bien trata de analizar los orígenes, la naturaleza y la estructura de los aspectos
discursivos a través de los cuales se ha producido el texto. (Prior, 1997: 66-67)

En algunos casos, además, se cuestionan las categorías impuestas y se plantea su


especificación de una forma absolutamente inductiva. Las categorías deben partir del propio
texto, de los materiales bajo estudio. Las categorías son siempre tentativas y susceptibles de
ser revisadas, reducidas tal vez, o simplemente eliminadas por su poca fiabilidad (Mayring,
2000).

Las propuestas de lo que se ha dado en llamar Grounded theory, que se podría traducir como
teoría sobre el terreno, a ras de tierra, no difieren sustancialmente de estos enfoques, aunque
sus precursores, Glaser y Strauss, proponen un modo de proceder distinto denominado método
comparativo constante cuyo principal objetivo es la generación de teoría mediante el uso
explícito de los procedimientos de codificación y análisis del análisis de contenido (ver Vallés,
2000 y Silverman, 1993).

En los últimos años se han desarrollado multitud de programas específicos para el análisis de
contenido cualitativo. A diferencia de los programas de análisis de contenido tradicionales, el
Atlas/ti, el NUD*IST NVivo o el winMAX, por ejemplo, cumplen una triple función:

• Trabajan como si fueran ayudantes de investigación,


porque hacen realmente fácil el análisis de textos en la
pantalla (moviéndose a través del material, subrayando,
permitiendo escribir notas al margen, definiendo
categorías y reglas de codificación, etc.) Además, ofrecen
interesantes herramientas para tratamiento del texto (pasar
de un párrafo a otro, editando párrafos, etc.)
• Cumplen la función de un centro de documentación, ya
que archiva todos los pasos dados por los distintos
investigadores, lo que permite hacer el análisis replicable
y comprensible por personas que no han participado en el
proceso.
• Por último, permite la interconexión con programas
cuantitativos, si es que esos procedimientos no están ya
incorporados en las últimas versiones. Así, resulta muy
fácil comparar frecuencias de categorías sin necesidad de
transferir los datos a otro programa.

7. Ejemplos de análisis de contenido


7.1. Un análisis de contenido de las
descripciones pornográficas accesibles a
través de Internet (Harmon y Boeringer,
1997)
No hay mejor forma de entender y asimilar una técnica que viendo cómo funciona y cómo se
aplica en el mundo real. En los ejemplos que se exponen a continuación se muestran posibles
usos del análisis de contenido, tanto en lo que se refiere a los fenómenos estudiados como a
las distintas orientaciones metodológicas. Se ha intentado seleccionar ejemplos que por su
objeto de estudio resulten novedosos y que además utilicen análisis de contenido cuantitativo
y/o cualitativo.

En este breve artículo, los autores presentan el resultado de su investigación sobre los relatos
de carácter pornográficos que aparecían en el grupo de noticias alt.sex.stories de Usenet, que
es una de las redes con mayor número de foros o grupos de Internet (15.000 ya en el año
1997) y que es accesible a través de los más importantes servidores de Estados Unidos, como
Compuserve o America Online. En Usenet existen grupos de noticias sobre muchos temas
distintos: deportes, informática, política, ocio, educación, y por supuesto, sexo, que es uno de
los más visitados, y del que hay varios grupos. En los grupos de noticias los usuarios dejan
mensajes que pueden ser leídos por los demás y continuados posteriormente por otras
personas.

El método utilizado para estudiar el material que se encuentra en el grupo de historias sexuales
es el análisis de contenido. Cada texto con una historia narrada se consideró como un dato en
el sentido analítico, y se excluyeron los textos que responden o continúan historias originales,
porque en ocasiones las historias pueden desarrollarse en distintos textos a través del tiempo.
En todo caso, se escogieron 200 historias, de las que finalmente se seleccionaron 196.

Pocos detalles se ofrecen sobre el análisis de contenido realizado más que las categorías
utilizadas para clasificar los textos, inventadas por los propios autores de forma tal que se
permitía que cada texto fuera clasificado en más de una categoría, lo cual, como se ha
comentado, no resulta muy habitual. Los únicos resultados que se describen son el porcentaje
de textos enmarcados por las siguientes categorías: sexo no consentido (40%), actos
homosexuales (36,7%), disciplina o ataduras (24%), dolor (23.5%), pedofilia (19,4%), tortura
(11.7%), sexo en grupo (8,2%) y otras categorías con porcentajes menores del 5%. A pesar de
que se apuntan algunas otras conclusiones obtenidas en estudios sobre pornografía en Internet
que podrían resultar de interés, el análisis de contenido realizado se queda en un plano tan
superficial que apenas se explotan los resultados obtenidos, por no decir nada de la necesidad
de una elaboración más profunda de las conclusiones.

7. Ejemplos de análisis de contenido


7.2. Análisis de contenido feminista y
personajes representativos (Leavy, 2000)
Este artículo resulta de gran interés para el estudioso del análisis de contenido, por cuanto
presenta con gran detalle los pasos teóricos y metodológicos previos a la investigación que se
propone sobre el personaje de Ally McBeal como representante del contexto social-político y
cultural americano en los años 90, siendo el artículo más un proyecto de investigación
avanzado que una síntesis de resultados. Desde una perspectiva teórica feminista y post-
estructuralista (que además se enfatiza repetidamente en el texto), los temas que se exploran
son: el feminismo en los 90, la imagen del cuerpo femenino "ideal", la borrosa frontera entre
realidad y ficción en un contexto histórico y espacial determinado, comparaciones entre los
distintos medios de comunicación, y la (re)producción y consumo de la imagen de modernidad.

Para entender el "personaje representativo" de Ally McBeal, la autora analiza varios medios de
comunicación (la serie de televisión, revistas, periódicos y un foro de internet), recopilando e
investigando materiales escritos, visuales y audiovisuales en cada uno de ellos.

En lo que se refiere al muestreo, Leavy lleva a cabo un muestreo aleatorio, en el que tiene
especial cuidado de seleccionar un número de casos lo suficientemente representativo de cada
universo de referencia, y siempre cuidando que exista igual representación de los casos que
confirman sus hipótesis de partida como los que la rechazan. En el caso de los textos extraídos
del foro de Internet, que se formó inmediatamente después de que los medios anunciaran que
la actriz que interpreta Ally McBeal, Calista Flockhart, era anoréxica, no fue posible utilizar un
procedimiento de muestreo que tuviera en cuenta el sexo ni ninguna otra característica
biográfica de los que escribían, dado el carácter anónimo de los alias que se utilizan en
Internet. Se seleccionaron los textos de las ocho semanas siguientes a la formación del grupo,
y se trataron posteriormente en el programa HyperResearch, de forma tal que cada semana
constituía un caso y cada línea una unidad de registro.

Un aspecto interesante de su aproximación metodológica lo constituye su forma de entender la


generación de conocimiento. En su proyecto de investigación inicial la autora propone llevar a
cabo un análisis de contenido que emplee tanto una forma de conocimiento inductivo -en línea
con la grounded theory- como un marco de referencia deductivo. De esta forma, como ya se ha
visto anteriormente, los datos guiarían la investigación y la generación de categorías analíticas,
pero al mismo tiempo en otras fases del proyecto se contempla la posibilidad de utilizar
categorías preconcebidas para producir datos cuantitativos, que además serían revisadas por
otros colegas para asegurar la validez de las mismas. Como la autora indica expresamente,
"utilizaré una aproximación multimétodo al análisis. Codificaré el material textual para utilizar un
análisis cuantitativo, como el recuento de palabras, y al mismo tiempo emplearé un análisis
cualitativo para situar esos patrones en un contexto interpretativo que me permita analizar
temas de mayor envergadura" (Leavy, 2000:5). Sin embargo, en el breve epílogo al final del
artículo, Leavy indica que en el proyecto final, el método deductivo de categorías pre-
concebidas fue desechado, porque estos datos carecían de la autenticidad que tenían los datos
en bruto para construir una teoría emergente, como ocurre con el enfoque más inductivo.

En lo que se refiere al material textual procedente de revistas y periódicos, se analizan por


separado según su contexto de referencia (revistas para mujeres, revistas de información
general, etc.) para luego ser contrastados entre sí. Las categorías pre-construidas para esta
fase son: el personaje (Ally) y su problema de anorexia frente a la actriz (Calista) y la anorexia;
el etiquetado de Ally como feminista; referencias positivas sobre la apariencia física de Calista;
referencias negativas sobre su apariencia física, etc. En todo caso, las partes de los textos que
se correspondan con estas categorías se planean analizar según su prevalencia (frecuencia de
aparición), pero también sobre su relación con los temas más generales que aparezcan en la
parte cualitativa del análisis. En esta fase, interesa especialmente comparar los textos en
distintos medios, para poner de manifiesto, desde una postura "deconstruccionista-feminista",
las contradicciones derivadas del patriarcado y del capitalismo a través de las discontinuidades
de los textos, como pueden ser por ejemplo la confusión entre la anorexia de la actriz y el
personaje o las referencias de la actriz o el personaje como feminista. Este objetivo resulta
extremadamente interesante, puesto que permite poner de manifiesto los procesos mediante
los cuales un personaje ficticio, Ally, llega a ser nombrada por los medios de comunicación "la
chica clave para el feminismo postmoderno". Deconstruyendo los textos de la cultura
dominante (entre los cuales cabe destacar la famosa portada de la revista Time de junio de
1998, que caracterizaba a Ally como la feminista de los 90 bajo el título: ¿Está muerto el
feminismo?), Leavy se siente "capaz de pelar las distintas capas de la cebolla para revelar los
principales temas que subyacen en cada capa de los textos, y los procesos de producción que
mantienen y desarrollan esas temáticas" (Leavy, 2000:6).

Merece una mención especial el análisis propuesto para los datos visuales y audiovisuales, que
por razones de espacio no se ha tratado en la introducción al análisis de contenido que
precede.

Para los datos visuales y audio-visuales, se utilizan tres fuentes: las fotografías que
acompañan a los textos analizados, fotografías de Ally/Calista sin componentes textuales (casi
todas imágenes promocionales o de moda) y una selección aleatoria de cuatro episodios de la
serie televisiva. Es interesante destacar que Leavy cumple con varios de las recomendaciones
elaboradas para el análisis de documentos visuales: el conocimiento de la identidad de los
fotografiados y el contar con información sobre el proceso por el cual esas fotografías han sido
producidas. (Collier y Collier, 1996). Por otro lado, adopta la postura de no perderse en detalles
para no distorsionar la percepción del documento en su totalidad, y siguiendo los principios del
análisis cualitativo, parte de los datos en bruto, que como hemos mencionado, tienen una
dimensión naturalística y no interactiva, para ir decodificando los distintos elementos e ir
elaborando al mismo tiempo las conclusiones.

7. Ejemplos de análisis de contenido


7.3. Otros ejemplos ilustrativos
BARKER, S.P.: Fame: A content analysis study of the American film biography, Ohio State University, Thesis.

Barker examina treinta películas nominadas para los Oscars de 1929 a 1979 para determinar si los héroes son modelos de
comportamiento positivos en la búsqueda de la fama o celebridades de dudosa moral. El análisis de contenido se utiliza
para determinar algunas tendencias en lo relativo a la frecuencia y el retrato de las mujeres en las películas, así como la
generalización del carácter ético de los protagonistas y el dogmático de los antagonistas.

BERNSTEIN, J.M. y LACY, S: «Contextual coverage of government by local television news», Journalism Quarterly, 69
(2), 329-341, 1992.

El análisis de contenido de la programación de 14 televisiones locales, que estudia el tiempo dedicado a las historias y el
tipo de cobertura para determinar el contexto de los hechos y eventos que se le presentan al público, muestra cómo los
informativos contribuyen a la formación de opiniones.

BLAIKIE, A.: «Images of age: a reflexive process», Applied Ergonomics, 24 (1), 51-58, 1993.

En este interesante artículo se muestra cómo el análisis de contenido de revistas resulta un eficaz instrumento para
reflejar los cambios en los estereotipos sobre el envejecimiento en las últimas décadas.

CRAIG, R.S.: «The effect of day part on gender portrayals in television commercials: a content analysis», Sex Roles: A
Journal of Research, 26 (5-6), 197-213, 1992.

El análisis de contenido de 2209 anuncios de televisión intenta comparar diferencias en los estereotipos de género en tres
distintas partes del día: a lo largo del día, en hora punta por la noche, y en los horarios deportivos del fin de semana. Los
resultados indican que existen consistentes diferencias entre la forma en la que hombres y mujeres son presentados a lo
largo de esos tres momentos. A pesar de que los anuncios a lo largo de todo el día tienden a mostrar a los hombres en
roles estereotipados de dominación y autoridad, durante el fin de semana tienden a enfatizar el escaparse de la casa y la
familia.

EBERHARDT, E.A.: The rhetorical analysis of three journal articles: The study of form, content, and ideology, Ft. Collins,
CO: Colorado State University, 1991.
Eberhardt utiliza el análisis de contenido para analizar tres artículos de prensa sobre el discurso de Ronald Reagan en el
que responde a un informe del Congreso sobre el asunto Irán-contra. El autor analiza el contenido semántico, el estilo
lingüístico y la elección del lenguaje, así como los efectos de ambas cuestiones sobre la sociedad.

ELLIS, B.G. y DICK, S.J.: «Who was 'Shadow'? The computer knows: applying grammar-program statistics in content
analyses to solve mysteries about authorship», Journalism & Mass Communication Quarterly, 73(4), 947-963, 1996

El objetivo de este estudio era emplear las opciones de revisión ortográfica y recuento de palabras de los programas de
procesamiento de textos como herramienta de análisis de contenido para, junto con un análisis cualitativo, determinar la
autoría de los textos. De esta forma, se resuelve uno de los misterios de la Guerra Civil americana sobre quién fue el
famoso corresponsal de guerra "Sombra" del lado de los confederados.

GRAHAM, J.L., KAMINS, M.A., y OETOMO, D. S.: «Content analysis of German and Japanese advertising in print
media from Indonesia, Spain, and the United States», Journal of Advertising, 22 (2), 5-16, 1993.

Los autores analizan el contenido informativo y emocional de la publicidad impresa para estudiar cómo la cultura del
país de origen influye en las estrategias de marketing de las empresas en los mercados exteriores. Los resultados de la
investigación evidencian que la hipótesis original no se mantiene, puesto que la cultura local no influye en los anuncios de
los países donde se publicitan dichas empresas.

8. RESUMEN
Se abordan las características principales del análisis de contenido, presentando, en primer
lugar, algunas notas históricas sobre su aplicación a la investigación en las ciencias sociales y
resaltando posteriormente sus distintas conceptualizaciones. Después se presentan las
cuestiones principales que han de tenerse en cuenta en su aplicación práctica, como son la
selección de las unidades de análisis, el procedimiento de codificación, la evaluación de la
fiabilidad y la validez y el proceso de análisis e inferencia, que sirve de transición para explicar
las principales características del análisis de contenido cualitativo. Por último, y con el fin de
ilustrar algunos de sus usos posibles, se incluyen una serie de investigaciones que han
aplicado la técnica del análisis de contenido.

9. BIBLIOGRAFÍA
9.1. Bibliografía citada
ALLPORT, G.W. The Use of Personal Documents in Psychological Science, Nueva York, Social Science Research Council,
1942.

BARDIN, L.: Análisis de contenido, Madrid, Akal, 1986 [1977].

BERELSON, B.: Content analysis in communication research, New York, Free Press, 1952.

CAMPBELL, D. y STANLEY, J.: Diseños experimentales y cuasiexperimentales en la investigación social. Buenos Aires,
Amorrortu Editores, 1993 [1966].

CEA D'ANCONA, M.A.: Metodología cuantitativa: estrategias y técnicas de investigación social, Madrid, Síntesis, 1996.

COLLE, R.: Técnicas de análisis de contenido (formato electrónico), 2000.


http://www.puc.cl/curso_dist/conocer/analcon/tecnic.html

COLLIER, J. y COLLIER, M.: Visual Antropology: photography as a research method. Alburquerque, University of New
Mexico Press, 1996.

HARMON, D. y BOERINGER, S.: «A content analysis of internet-accessible written pornographic Depictions»,


Electronic Journal of Sociology, vol. 3, (1), 1997. (http://www.icaap.org/iuicode?100.3.1.1)

HOLSTI, O.R.: «Computers content analysis», en NORTH, R.C. y otros: Content analysis: a handbook with applications
for the study of international crises, Evaston: Northwestern University Press, 1963.
JACOB, H.: «Using published data: errors and remedies», en LEWIS-BECK, M.S. (comp.): Research Practice,
California, Sage, 1994. (págs. 339-390).

KELLE, U. (ed.): Computer-aided qualitative data analysis, London, Sage, 1995.

KRIPPENDORFF, K.: Metodología de análisis de contenido: teoría y práctica, Barcelona, Paidós Comunicación, 1997
[1980] .

LEAVY, P.: «Feminist content analysis and representative characters», The Qualitative Report, vol. 5, (1 & 2), Mayo 2000.
(http://www.nova.edu/ssss/QR/QR5/leavy.html)

LÓPEZ-ARANGUREN, E.: «El análisis de contenido tradicional», en GARCÍA FERRANDO, M., IBÁÑEZ, J. y
ALVIRA, F. (comp.): El análisis de la realidad social: métodos y técnicas de investigación, Madrid, Alianza Editorial, 2000
(Tercera ed.) (págs. 555-574).

MAYRING, P.: «Qualitative content analysis», Forum: Qualitative Social Research (revista electrónica). Junio 2000.
(http://qualitative-research.net/fqs/fqs-e/2-00inhalt-e.htm)

MOSTYN, B.: «The content analysis of qualitative research data: a dynamic aproach», en BRENNER, M., BROWN, J. y
CAUTER, D. (eds.): The reseach interview (págs. 115-145), London, Academic Press.

MUCCHIELLI, A.: Diccionario de métodos cualitativos en las ciencias sociales, Madrid, Síntesis, 2001.

SAPERAS, E.: La Sociología de la comunicación de masas en los Estados Unidos, Barcelona, Ariel, 1985.

SCOTT, J.: A matter of record: documentary sources in social research, Oxford, Polity Press, 1990.

SILVERMAN, D.: Interpreting qualitative data: methods for analysing talk, text and interaction, London, Sage
Publications, 1999 [1993].

VALLÉS MARTÍNEZ, M.: «La grounded theory y el análisis cualitativo asistido por ordenador», en GARCÍA
FERRANDO, M., IBÁÑEZ, J. y ALVIRA, F. (comp.): El análisis de la realidad social: métodos y técnicas de investigación,
Madrid, Alianza Editorial, 2000. (Tercera ed.) (págs. 575-604).

--------------------------------: Técnicas cualitativas de investigación social, Madrid, Síntesis, 1997.

WEBER, R.P.: Basic content analysis (Quantitative Applications in the Social Sciences, no. 49), Newbury Park, CA, Sage,
1990.

9. BIBLIOGRAFÍA
9.2. Bibliografía complementaria
AMAT NOGUERA, N.: Documentación científica y nuevas tecnologías de la información, Madrid, Pirámide, 1987.

------------------------------: La documentación y sus tecnologías, Madrid, Pirámide, 1994.

BEARD, J. y YAPRAK, A.: «Language implications for advertising in international markets: A model for message
content and message execution», Trabajo presentado en la 8th International Conference on Language Communication for
World Business and the Professions, Ann Arbor, MI,1989.

BRADLEY, J. y ROCKWELL, G.: The Components of a System for Computer Assisted Text Analysis, Paper, CETH
Workshop on Future Text Analysis Tools, 1995

BUDD, R.W., THORP, R.K. y DONOHEW, L.: Content analysis of communications, New York, Macmillan Company,
1967

ROBERTS, C.W. (ed.): Text Analysis for the Social Sciences: Methods for Drawing Statistical Inferences from Texts and
Transcripts (Lea's Communication Series), 1997.

CARLEY, K.: «Content analysis», en ASHER, R.E. (ed.): The Encyclopaedia of Language and Linguistics, Edinburgh,
Pergamon Press, 1990.

------------------: Computer analysis of qualitative data, Pittsburgh, PA, Carnegie Mellon University, 1989.
CARNEY, T.F.: Content analysis: A technique for systematic inference from communications, Winnipeg, Canada,
University of Manitoba Press, 1972.

CHAUMIER, J. (1986) Análisis y lenguajes documentales, Barcelona. Mitre.

COLLE, R.: La Instrucción Pastoral 'Aetatis Novae', Escuela de Periodismo UC, Santiago, 1992.

RIFFE, D. y otros: Cuantitative Content Analysis (Lea's Communication Series), 1998.

de SOLA POOL, I.: Trends in content analysis. Urbana, Ill, University of Illinois Press, 1959.

D'UNRUG, M.C.: L'analyse de contenu, Delarge, París.

GIGHLIONE, R. y otros: Manuel d'analyse de contenu, A. Colin, París, 1980.

GOTTSCHALK, L.A.: Content analysis of verbal behaviour: New findings and clinical applications. Hillside, NJ:
Lawrence Erlbaum Associates, Inc, 1995.

JENSEN, K.B. y JANKOWSKI, N.W.: Metodologías cualitativas de investigación en comunicación de masas, Bosch,
Barcelona, 1993.

Karl E. Rosengren: Advances in Content Analysis (Sage Annual Reviews of Communication Research ; V. 9), 1981.

LEGEWIE, H.: ATLAS.ti, Technical University of Berlin, 1994.

MUCCHIELLI, R.: L'analyse de contenu des documents et des communications, Librairies Techniques, París, 1974.

PINTO MOLINA, M.: Análisis documental, Madrid, Síntesis,1996.

-----------------------------: Análisis documental: fundamentos y procedimientos, Madrid, Eudema, 1991.

RIFFE, D.L. y FICO, F.G.: Analyzing media messages: Using quantitative content analysis in research, Lawrence Erlbaum,
Mahwah (NJ), 1998.

ROBERTS, C. y otros: Text analysis for the social sciences, Lawrence Erlbaum, New Jersey, 1997.

ROMPPEL, M.: Resources related to content analysis and text analysis - software, Universidad de Goettingen, 1999.

ROWLEY, J.: Organising knowledge: an introduction to information retrieval, Aldershot. Gower, 1987.

SCHANK, R.: El ordenador inteligente, A. Bosch, Barcelona, 1986.

SEPSTRUP: Methodological reflections concerning content analysis, Paper presented at the XXX Conference of ICA,
Acapulco, 1980.

SMITH, C.P. (ed.): Motivation and personality: Handbook of thematic content analysis, New York, Cambridge University
Press, 1992.

SOLOMON, M.: «Content analysis: a potent tool in the searcher's arsenal», Database, 16(2), 62-67, 1993.

9. BIBLIOGRAFÍA
9.3. Bibliografía comentada
Se incluyen exclusivamente aquellas referencias específicas sobre el análisis de contenido, a pesar de que puedan
encontrarse manuales más generales que puedan resultar útiles para adentrarse en la técnica.

BERELSON, B.: Content analysis in communication research, New York, Free Press, 1971.

Aunque este libro, ya un clásico, incluye una revisión extensiva de los distintos usos del análisis de contenido, se concentra
prioritariamente en presentar un enfoque crítico a la literatura contemporánea sobre el tema. En cierto sentido asume
que el lector parte de algún conocimiento previo, pero sin embargo resulta accesible por los ejemplos concretos que
incorpora.

CARLEY, K.: «Content analysis», en ASHER, R.E. (ed.): The Encyclopaedia of Language and Linguistics, Edinburgh,
Pergamon Press, 1990.

Revisión rápida pero detallada de los distintos tipos de análisis de contenido. El trabajo de Carley trata por separado
algunos análisis no mencionados en esta introducción, como el análisis conceptual, el análisis de procedimientos, el
análisis relacional, el análisis emocional y además incluye una lista interesante de referencias bibliográficas sobre la
materia.

De SOLA POOL, I.: Trends in content analysis, Urbana, Ill, University of Illinois Press, 1959.

Esta recopilación de trabajos, que data de 1959, es una referencia importante, porque comienza explicando las
diferencias entre el enfoque cuantitativo y cualitativo en el análisis de contenido, y además detalla sus posibles usos en
una gran variedad de disciplinas, desde la lingüística y estudio del folklore hasta las biografías y la historia.

KRIPPENDORFF, K.: Metodología de análisis de contenido: teoría y práctica, Barcelona, Paidós Comunicación, 1997
[1980].

El libro de Krippendorf es uno de los más utilizados y citados en la actualidad en los estudios que utilizan el análisis de
contenido. Como ocurre con el libro de Weber que se cita a continuación, es un referente básico de la materia, ya que
presenta los aspectos más relevantes a considerar.

WEBER, R.P.: Basic content analysis (Quantitative Applications in the Social Sciences, no. 49), Newbury Park, CA, Sage,
1990.

Como ocurre con otros libros de la "colección verde" de Sage sobre metodología y estadística, esta obra constituye una
muy buena introducción al análisis de contenido. El primer capítulo, más general, es seguido por un segundo que versa
sobre las posibles clasificaciones y su interpretación, sin olvidar cuestiones como la de la validez y fiabilidad, así como la
creación de códigos y categorías de análisis. El capítulo tercero trata sobre las distintas técnicas de análisis de contenido,
que se ilustran con tablas y gráficos. Por último, el capítulo cuarto incorpora una discusión sobre los aspectos de medida,
representación e interpretación.

10. OTROS RECURSOS DE APRENDIZAJE


Programas cualitativos

NUD*IST (Non-numerical Unstructured Data Indexing Searching and Theorizing)

Nudist es en estos momentos uno de los programas líderes en el mercado para el análisis de contenido. Permite establecer
relaciones léxicas y conceptuales entre palabras, indexar ficheros y llevar a cabo operaciones de búsqueda utilizando
operadores Booleanos.

http://qsr.latrobe.edu.au/software/n4/n4.htm

ATLAS TI

Este programa, muy utilizado también, permite interpretar textos, manejarlos y contribuir a la formulación de teorías a
través de la extracción del conocimiento conceptual de los documentos. Permite utilizar un gran número de textos, así
como material audiovisual.

http://www.atlasti.de

THE ETHNOGRAPH

Este programa para el análisis cualitativo permite el manejo y análisis de texto procedente de transcripciones de
entrevistas, grupos de discusión, notas de campo, diarios, actas de sesiones y otros documentos. La página de Ethnograph
asegura que es el programa más utilizado para el análisis cualitativo desde 1985. http://www.qualisresearch.com/

Verbatim Blaster

Programa específico para el análisis de preguntas abiertas utilizando la técnica del análisis de contenido.

http://www.statpac.com/content-analysis.htm
Programas cuantitativos

Linguistic Inquiry and Word Count (LIWC)

Analiza ficheros de texto palabra a palabra, calculando el porcentaje de palabras que concuerdan con las dimensiones
establecidas.

http://www.erlbaum.com/Books/searchintro/BookDetailscvr.cfm?ISBN=1-56321-203-X

TextSmart by SPSS Inc.

Diseñado como un módulo de SPSS que se vende por separado, Textsmart utiliza el análisis de conglomerados y las
técnicas de escalas multidimensionales para analizar automáticamente grupos de palabras y grupos de texto y
convertirlos en categorías.

http://www.spss.com/software/textsmart/

TEXTQUEST

Es la versión para Windows del programa Intext y permite el análisis de contenido cuantitativo. Se puede obtener una
copia de demostración.

http://www.textquest.de/tqe.htm

Textpack

Diseñado en sus orígenes para el análisis de preguntas abiertas en las encuestas, el Textpack se ha extendido a lo largo de
los años hasta cubrir muchos de los aspectos del análisis de textos por ordenador y la mayoría de los relacionados con el
análisis de contenido. Incluye opciones que permiten rápidos y fáciles análisis así como estudios de validación y fiabilidad.

http://www.social-science-gesis.de/en/software/textpack/spanish/

Selección de programas gratuitos para bajarse de internet:

http://web.utk.edu/~gwynne/content_analysis.html

Otros recursos

http://www.content-analysis.de

Se trata de una página personal de Matthias Romppel, investigador en la Universidad de Goettingen, Suecia, que contiene
enlaces interesantes a instituciones dedicadas al análisis de contenido, a direcciones con bibliografía especializada y a
programas tanto cuantitativos como cualitativos.

http://www.gsu.edu/~wwwcom/

Página mantenida por un equipo del Departamento de Comunicación de la Universidad Estatal de Georgia, donde se
presentan distintos tipos de enlaces relacionados con el análisis de contenido.

http://maxweber.hunter.cuny.edu/socio/kuechler/341/f95/caho.html

Aquí se presenta un ejemplo práctico que incluye salidas de ordenador de análisis del contenido de los discursos del
presidente Clinton sobre el estado de la nación en 1994 y 1995.

http://www.parc.xerox.com/istl/groups/qca/

El equipo de investigación de Análisis de Contenido Cuantitativo (QCA) de Xerox, en Palo Alto, California presenta en su
página algunas de sus investigaciones más recientes.

http://www.slais.ubc.ca/resources/research_methods/content.htm

En esta página del Centro de Recursos para la Investigación de la Universidad de Columbia Británica en Canadá se
encuentra información muy interesante sobre los distintos tipos de análisis de contenido.
http://www.aber.ac.uk/media/Sections/textan01.html

En este sitio se pueden encontrar artículos sobre el análisis de contenido así como enlaces con otras páginas dedicadas al
tema. Pertenece a la Universidad de Gales en Averystwyth y mantiene un enfoque constructivista.

http://writing.colostate.edu/references/research/content/

Aquí se puede encontrar un texto muy sencillo y claro sobre el análisis de contenido, de la Universidad Estatal de
Colorado (en inglés).

http://www.videoanalysis.org/

Página muy interesante, por cuanto contiene información sobre análisis de contenido de vídeos.

http://psych.ucsc.edu/dreams/Info/

Página del grupo de la Universidad de California en Santa Cruz que se dedica a la investigación de los sueños utilizando
el análisis de contenido. Incluye ejemplos.

http://home.earthlink.net/~plschultz/academic_pages/files/biblio/content_analysis_biblio.htm

Este sitio de Internet, mantenido por Patrick Schultz, ofrece una interesante bibliografía comentada sobre el análisis de
contenido, que está organizada por áreas temáticas.

View publication stats

También podría gustarte