Está en la página 1de 85

Unidad 1.

El método científico y sus técnicas

Esta Unidad 1 corresponde al Capítulo 1. El método científico y sus técnicas del manual Eiroa,
M. y Barranquero, A. (2017). Métodos de investigación en la comunicación y sus medios. Madrid:
Editorial Síntesis (pp. 15-36).

1.1. MÉTODO CIENTÍFICO Y TÉCNICAS METODOLÓGICAS

Investigar en comunicación es observar la realidad comunicativa, detectar problemas y hacernos


preguntas para resolverlos. La investigación consiste en un proceso construido que comprende un
conjunto de actuaciones orientadas a descubrir y construir conocimiento.

El método científico es un sistema de averiguación sistemática compuesto por operaciones


racionales que persigue alcanzar un conocimiento riguroso. Algunas de sus características son:

1. Es acumulativo. Parte de trabajos precedentes para identificar problemas no resueltos,


encontrar vacíos en la investigación y revisar o actualizar teorías, modelos y métodos. Los
estudios científicos no son productos aislados, sino que interactúan y dialogan con los
conocimientos precedentes y subsiguientes.

2. Es objetivo. No solo porque respete un conjunto de reglas, sino porque asume que los
hechos observados son obvios y observables para los investigadores y no son solo una
creación o producto de la mente humana.

3. Es empírico o fáctico. Puesto que parte de hechos y datos medibles mediante herramientas
destinadas a recoger información de forma sistemática.

4. Es verificable. O susceptible de ser repetido en condiciones idénticas o similares por


cualquier otro investigador obteniendo resultados igualmente similares. La réplica o la
revisión de una investigación es fundamental para el avance del conocimiento y está
vinculada a la exigencia de ofrecer pruebas y verificaciones de los descubrimientos que se
vayan revelando.

5. Es explicativo. No solo porque parte de hechos objetivados, sino porque los racionaliza, los
relaciona, los contrasta, los enmarca en una teoría y los interpreta.

6. No es infalible. A pesar de que se realiza a partir de fases sistemáticas, puede presentar


errores en alguna etapa. Con tal motivo debe ser autocorrectivo y crítico y someter a juicio
todas las operaciones llevadas a cabo. En consecuencia, los resultados nunca serán

1
Unidad 1. El método científico y sus técnicas

definitivos y siempre deben estar abiertos al debate científico y a procesos de revisión y


validación.

7. Es público. Puesto que debe ser conocido y divulgado a través de publicaciones que
expliciten los resultados obtenidos a fin de que otros investigadores puedan conocerlos y
fundamentar adecuadamente sus futuros trabajos.

La técnica hace referencia a un conjunto de procedimientos que facilitan el dominio de un


fenómeno de acuerdo con un modelo definido de manera práctica y que genera resultado útil. Tiene
un carácter práctico y operativo.

1.2. DISEÑO Y FASES DE UNA INVESTIGACIÓN

El término diseño se refiere al bosquejo o estrategia que da forma a un trabajo científico. Se puede
definir también como la concepción del plan. El diseño no es la investigación misma, sino el dibujo
previo del trabajo, factible de sufrir modificaciones durante su ejecución. El fin del diseño es
articular la estructura fundamental de una investigación, así como lograr la máxima validez posible,
es decir, la correspondencia más ajustada de los resultados a la realidad.

En el diseño, que se denomina también memoria científica o anteproyecto, se especifican los pasos
que habrán de darse para alcanzar los objetivos propuestos y que, en definitiva, corresponden a las
fases que sigue el método científico:

1. La fase conceptual: se delimita el tema y el objeto de investigación, la teoría que lo


sustenta y el estado de la cuestión, la propuesta de objetivos y la selección de las hipótesis o
preguntas de investigación.
2. El trabajo empírico: se establecen y ejecutan los métodos necesarios para la recogida de
datos que implica un trabajo de campo riguroso y, en algunos casos, experimentación.
3. Análisis: contrastación de las hipótesis y la interpretación de todo el material conseguido.
4. Redacción y difusión de resultados.

La planificación y ejecución de este procedimiento conlleva un conjunto de operaciones mentales


que se realizan inconscientemente y entre las que destacan:

1. Una operación mental de identificación del problema: ¿qué es?


2. Una operación mental de relación: ¿por qué funciona así?
3. Una operación mental para la acción: ¿qué hacer?, ¿cómo hacer?, ¿para qué hacer?

2
Unidad 1. El método científico y sus técnicas

1.2.1. La selección y delimitación de un tema-problema de investigación

La mayoría de las ideas iniciales que se formulan para un estudio suelen ser vagas y requieren un
análisis cuidadoso antes de ser transformadas en una propuesta de investigación. Es por ello
necesario comprobar los escritos anteriores a fin de verificar si hay algún vacío al respecto o si es
conveniente volver a investigar un determinado fenómeno porque existen nuevos datos o
perspectivas.

Una vez que ha surgido la idea de investigación es necesario valorarla teniendo en cuenta los
siguientes criterios:

1. Su dimensión: no puede ser tan amplia que no se pueda abarcar, ni tan reducida que apenas
tenga presencia social.
2. Hay que pensar si es un tema relevante, si tiene trascendencia social, política, cultural o
económica, si suscita interés social o si tendrá alguna finalidad teórica o práctica.
3. Valorar si es original o se va a abordar desde una perspectiva innovadora o desconocida
de manera que genere conocimiento.
4. Plantear si el tema es viable y admite ser investigado, es decir, si contamos con fuentes y
datos, cuál es su coste económico y temporal y de qué recursos

Cuando hayamos resuelto estas cuestiones, es el momento de afinar y estructurar formalmente la


idea de investigación y enunciarla de forma clara y sin ambigüedades, explicitando la naturaleza y
magnitud del problema seleccionado.

1.2.2. El planteamiento de los objetivos y la selección del objeto de estudio

Los objetivos de un estudio son la finalidad de la investigación, el para qué, mientras que el objeto
de estudio se corresponde con aquello que se desconoce y con la unidad documental, textual o
audiovisual que se utiliza para realizar el trabajo empírico.

Una vez definido el tema de la investigación, conviene fijar uno o varios objetivos generales que
determinan lo que se pretende hacer. Actúan como la guía que nos conducirá durante la
investigación. Es importante reflexionar qué se pretende conseguir, a quién afectará la
investigación, cuál será su contribución, y qué aspectos podrían cambiar o mejorar tras su
finalización.

Principales características que deben tener los objetivos de nuestra investigación:

3
Unidad 1. El método científico y sus técnicas

• Claros y concisos en su redacción.


• Alcanzables y medibles.
• Realistas y que muestren una relación clara con las preguntas e hipótesis.
• Deben redactarse con verbos en infinitivo.

De acuerdo con los fines que se pretende lograr, se puede distinguir entre:

• Objetivos generales: se presentan de manera amplia y más general.


• Objetivos específicos: desarrollan o puntualizan los anteriores y describen los
procedimientos que se llevarán a cabo para alcanzar los generales.

Una vez planteados los objetivos, procede seleccionar y afinar el objeto de estudio, el cual debe
ser:

• Acotable, tanto en espacio y tiempo como en la cantidad de material disponible.


• Abordable, en el sentido de que las fuentes estén al alcance del investigador.
• Representativo del tema investigado.

Tanto las fuentes utilizadas para nuestra investigación como el objeto de estudio pueden ser
textuales, audiovisuales, hemerográficas, orales o digitales. Además, hay que tener en cuenta que las
fuentes se dividen en:

• Primarias: son las que han tenido una relación física directa con el tema de investigación,
han sido escritas o tomadas por personas involucradas en él o se han producido en paralelo
al transcurso de un acontecimiento.
• Secundarias: aquellas que no han estado implicadas directamente en el tema de
investigación, sino que están relacionadas con él a través de un proceso intermedio, en el
que se ha interpretado y analizado la fuente primaria.

Por otro lado, las fuentes deben ser sometidas a un análisis que determine su validez y fiabilidad.
Para ello es necesario comprobar su naturaleza, autoría y finalidad con el objetivo de detectar su
carácter y la adecuación a la propia realidad de los hechos que retratan. Las investigaciones no
suelen estar basadas en una sola fuente, sino que es necesario contar con fuentes diversas a fin de
contrastarlas y obtener así una información lo más rigurosa y exhaustiva posible.

4
Unidad 1. El método científico y sus técnicas

1.2.3. El planteamiento de las hipótesis y de las preguntas de investigación

Una vez establecidos el objeto y los objetivos del estudio, es necesario proceder a la formulación de
las hipótesis de trabajo o, en su caso, las preguntas que se formulan en torno a la investigación.

En términos sencillos, una hipótesis es la primera idea que se tiene en torno a la explicación de un
fenómeno. Se plantea a modo de conjetura, inferencia o suposición a partir del conocimiento que
maneja el investigador y está sustentada en su propia observación, conjeturas y experiencia. Por
otro lado, y de acuerdo con los fundamentos del método científico, la hipótesis es una predicción o
explicación provisional acerca de las relaciones que se pueden establecer entre dos o más variables.
La formulación de una hipótesis exige que esta se refiera a una situación real, que sea precisa, que
siga una coherencia lógica y que pueda ser observada y medible o, al menos, interpretable con
precisión.

Sin embargo, la investigación de un tema puede plantear preguntas de investigación y no hipótesis,


sobre todo, cuando nos enfrentamos a fenómenos novedosos. Las hipótesis y las preguntas de
investigación son dos fórmulas válidas a la hora de fijar el camino de la investigación. En ocasiones
los investigadores no enuncian hipótesis porque no las consideran útiles o porque no tienen una
suposición, y no por ello su trabajo es menos científico. En estos casos se generan interrogantes que
servirán para marcar metas y fragmentar el objetivo principal en tareas concretas.

Las preguntas de investigación deben ser formuladas de forma simple, evitando dobles
cuestionamientos que requieran dobles respuestas, o preguntas que impliquen verdades ya
conocidas. Se sugieran frases cortas, concretas y desprovistas de presunciones previas al trabajo
empírico. Entre los tipos de preguntas de investigación más habituales se encuentran:

• Las descriptivas: dan cuenta de los hechos y los definen.


• Las explicativas: se preguntan por la dimensión de los fenómenos, sus causas y relaciones.

Generalmente es necesario responder a las preguntas descriptivas antes que a las explicativas.

1.2.4. El aprendizaje de los estudios previos y la elección de un marco teórico

El conocimiento de los estudios previos, también denominado estado de la cuestión, sirve para
conocer las aportaciones de otras investigaciones desarrolladas individualmente o en el seno de
grupos de investigación. Ayuda a conocer qué resultados y conclusiones se han obtenido, a partir de

5
Unidad 1. El método científico y sus técnicas

qué perspectivas teóricas, en qué medida se ha cubierto la totalidad de los aspectos de un fenómeno,
y si queda alguno por analizar.

Una forma adecuada para encontrar los trabajos publicados previamente es hablar con expertos e
informantes especialistas para que aconsejen cuáles son los textos básicos que han aportado lo
esencial en la materia. La acción más conveniente es buscar con palabras clave en los catálogos de
bibliotecas, repositorios, bases de datos y buscadores.

El marco teórico, en cambio, se construye generalmente a partir del pensamiento de algunos


autores que ya han escrito sobre el concepto o cuestión que se investiga o que han elaborado una
teoría explicativa a la cuestión que se está investigando. Por lo general, resulta una idea abstracta y
explicativa y un esquema donde se expone la fundamentación teórica conceptual con el propósito de
que se comprenda el sentido general de la investigación. Cumple varias funciones, entre las cuales
destacan:

• Explicar por qué, cómo y cuándo ocurre un fenómeno.


• Proveer de un marco de referencia para interpretar los resultados del estudio.
• Sistematizar o poner orden al conocimiento.
• Orientar cómo habrá de realizarse el estudio.
• Guiar al investigador para que se centre en el problema.
• Inspirar nuevas líneas y áreas de investigación, e incluso puede hacer inferencias a futuro
sobre cómo se van a manifestar u ocurrir los hechos investigados dadas ciertas condiciones.

A menudo comprobamos que existen distintas teorías que podrían explicar el mismo fenómeno y no
son excluyentes, sino compatibles y complementarias. En otras ocasiones, puede darse el caso de
teorías rivales que explican los mismos fenómenos de manera incompatible. En este caso, habrá que
optar y justificar la elección de un enfoque u otro en función de las características de la
investigación.

1.2.5. La metodología

En el diseño de una investigación es imprescindible exponer el método, es decir, cómo se


alcanzarán los objetivos propuestos de forma sistemática para que deriven en conocimiento. La
fijación de la metodología debe reflejar la estructura lógica y el rigor de todo el proceso, detallando
los procedimientos, técnicas, actividades y demás estrategias requeridas para la recolección de
información, su organización y análisis.

6
Unidad 1. El método científico y sus técnicas

Por lo general, los métodos de investigación funcionan a modo de herramientas para obtener
respuestas y su elección depende del tipo de objetivos, hipótesis y preguntas que se hayan
formulado. Si implica la recogida de material numérico, estadísticas, cifras o datos básicos, se
deben plantear métodos cuantitativos. En el caso de haber propuesto la generación de reacciones
ante un determinado suceso comunicativo, es necesario optar por la experimentación. Mientras que
si se ha planteado una propuesta de acercamiento a las experiencias y percepciones, bien de sujetos
o de colectivos, estamos ante la opción de la metodología cualitativa.

Los dos grandes bloques metodológicos más habituales en ciencias sociales, y por ende en
comunicación, son los métodos cualitativos y cuantitativos. Entre los cualitativos destacan las
técnicas centradas en obtener información de los sujetos, como la observación, las entrevistas en sus
distintos tipos, las historias de vida, los grupos focales, la etnografía virtual y la denominada
netnografía, así como técnicas centradas en el análisis crítico de mensajes, como el análisis
narrativo y las diferentes formas de análisis crítico y del discurso, entre otros. En cuanto a las
técnicas inherentes al método cuantitativo, sobresalen las encuestas y cuestionarios, el análisis de
contenido y la investigación experimental.

Las técnicas cualitativas se insertan en la lógica de la comprensión, siendo un componente esencial


en ellas el lenguaje, los discursos y su interpretación. Pretenden captar los motivos, los significados,
las emociones y otros aspectos subjetivos de las acciones e interacciones de individuos y grupos.

Las técnicas cuantitativas parten, sin embargo, de la idea de que a las ciencias sociales se les
pueden aplicar los principios de las ciencias naturales y tratan de resumir la realidad en números.

En la selección del método puede resultar de gran ayuda la consulta a investigaciones similares a fin
de tomar prestadas técnicas metodológicas que han resultado útiles, así como conocer sus aciertos y
errores.

En el método científico los instrumentos de investigación tienen validez en cuanto miden con
eficacia aquello que se han propuesto como objetivo. En este sentido, podemos distinguir dos
mecanismos principales de validez:

a) Externa, o posibilidad de generalizar los resultados a otras poblaciones, lugares o épocas


diferentes.
b) Interna, o posibilidad de establecer relaciones causales entre variables, hechos o factores, y
eliminar explicaciones alternativas o discordantes con el objeto de estudio.

7
Unidad 1. El método científico y sus técnicas

1.3. Reglas básicas de selección, verificación, citación y referencia bibliográfica

Las fuentes primarias y secundarias, así como las lecturas utilizadas en la elaboración de una
investigación, han de ser convenientemente elegidas y citadas. Las referencias a estos datos son
imprescindibles en una investigación.

Existen numerosos estilos para citar la bibliografía utilizada en un trabajo como por ejemplo, la
normativa APA, Chicago o Harvard, entre otras.

1.4. Enfoques y perspectivas en una investigación

• La deducción. Cuando el análisis de los datos generales o universales se aplican a instancias


particulares o individuales. Refrenda si las leyes generales se cumplen en los casos
específicos. Suele ser el enfoque adoptado en el caso de los métodos cuantitativos.

• La inducción. Comienza con el estudio de datos concretos o particulares e intenta realizar


una generalización que explique las relaciones entre los objetos observados. El enfoque
inductivo opta por conocer los hechos singulares para formular teorías generales que los
expliquen y faciliten su comprensión. Suele ser el enfoque propio de los métodos
cualitativos.

• La síntesis. Es un proceso de razonamiento que tiende a reconstruir un todo a partir de


elementos distinguidos en las fuentes o en el objeto de estudio.

• La comparación. Es consecuencia del conocimiento de la diversidad, de la pluralidad de


estructuras y de comportamientos sociales en el tiempo y en el espacio, factibles de cotejar
para su mejor conocimiento.

• La dialéctica. Ofrece la posibilidad de descubrir las contradicciones de la realidad, el


fundamento de sus estructuras, sus relaciones y posibles combinaciones.

Generalmente, una investigación necesita la aplicación de varios métodos y enfoques para que sea
lo más exhaustiva y completa posible. En este caso, se habla del concepto de triangulación, que
hace referencia a la utilización simultánea en una misma investigación de diversas perspectivas y
metodologías.

8
Unidad 1. El método científico y sus técnicas

1.5. La presentación de resultados: informes, artículos científicos y visualizaciones digitales

La redacción de textos con los resultados de la investigación resulta imprescindible, puesto que es el
principal medio de difusión y divulgación.

Los resultados de una investigación son diversos y comprenden un amplio abanico de posibilidades.
Por un lado, se pueden obtener resultados directos, es decir, productos concretos que se obtienen al
alcanzar los objetivos propuestos (nuevas herramientas teóricas y metodológicas, bienes y servicios,
catálogos de medidas, planes concretos, etc.), en cuyo caso deben manifestarse de forma precisa o
verificable. Por otro lado, hay resultados indirectos que se manifiestan en la formación de nuevos
investigadores, la consolidación de redes y equipos de investigación, la construcción de acciones y
estrategias para la cooperación internacional, avances en conocimientos más amplios e incluso en
efectos a medio y largo plazo para la sociedad.

1.6. Normas éticas y deontológicas

En la ética de todo científico social deben estar presentes, al menos, los siguientes principios:

1. La autonomía, el respeto a los derechos, valores y decisiones de las otras personas


respecto a su implicación en la investigación o la autorización que concedan al uso de la
información.
2. El trato equitativo a todos los implicados en la investigación con la práctica de un lenguaje
correcto y no discriminador.
3. La protección a la intimidad de los datos de los participantes en un proyecto.
4. La manipulación indebida de la información obtenida con los métodos aplicados,
especialmente en los resultados de encuestas o de observaciones directas.
5. La elusión de los errores en el proceso y registro de datos que pudieran afectar a los
resultados.
6. La originalidad y trabajo empírico propio. Los investigadores no pueden plagiar la
información citada, por lo que es necesario citar correctamente las fuentes y ofrecer las
referencias de otros autores que han escrito sobre el objeto de estudio o temas afines.
7. El conocimiento obtenido del método científico es público, por lo tanto, hay una obligación
ética de compartir los descubrimientos y métodos con otros investigadores, siendo
transparentes en los procesos que han seguido.

9
Unidad 2. Los aspectos medibles: el método cuantitativo

Esta Unidad 2 corresponde al Capítulo 2. Los aspectos medibles: el método cuantitativo del
manual Eiroa, M. y Barranquero, A. (2017). Métodos de investigación en la comunicación y sus
medios. Madrid: Editorial Síntesis (pp. 39-60).

2.1. LAS TÉCNICAS CUANTITATIVAS

Los métodos cuantitativos parten de la premisa de que la ciencia es unitaria, es decir, que existe una
metodología única, derivada de las ciencias físico-naturales, que los estudiosos deben trasladar de
manera mecánica al análisis de los fenómenos psicológicos o sociales. Para ello, el investigador ha
de partir de la observación distanciada de los hechos y eliminar cualquier tipo de valoración,
preconcepción o juicio previo, consiguiendo una separación estricta entre el investigador y el objeto
de investigación. La clave de los cuantitativos es la creencia de que es posible objetivar, cuantificar
y mediar la realidad, para lo cual suele apoyarse en la estadística, en especial cuando necesitamos
analizar grandes volúmenes de datos.

2.2. LA ENCUESTA: DISEÑO Y PROCEDIMIENTO

La encuesta es una técnica cuantitativa que intenta medir hechos, opiniones, actitudes y
comportamientos de la población, a partir del empleo de cuestionarios estandarizados en los que se
recogen testimonios verbales o escritos de una muestra más o menos representativa de sujetos con
respecto a una población más amplia.

Resulta imposible estudiar en detalle a todos los sujetos o elementos de un universo muy amplio de
casos, por lo que las encuestas suelen trabajar con procedimientos matemáticos especializados a fin
de seleccionar un conjunto acotado que permita hacer inferencias sobre la totalidad. A esta tarea se
la conoce como inferencia estadística y requiere un trabajo previo y muy preciso de observación y
selección de universo y muestra.

El universo, también denominado población, es el conjunto de individuos, casos o elementos que


son objeto de nuestra investigación. Por regla general, se considera que la población es infinita
cuando no se pueden contabilizar todos sus elementos, dado que su número es muy grande: a partir
de las 100.000 unidades. Por su parte, un universo es finito cuando consta de un número más
limitado y habitualmente por debajo de los 100.000 elementos.

1
Unidad 2. Los aspectos medibles: el método cuantitativo

Por su parte, la muestra es el subconjunto o parte proporcional de la población que se selecciona


para hacer generalizaciones o inferencias válidas acerca del universo total. No existe una respuesta
única acerca de cuál debería ser el tamaño correcto de una muestra. Por el contrario, esta depende
tanto de los objetivos de nuestro estudio como de la propia naturaleza de la población que estamos
investigando.

2.2.1. Muestreos probabilísticos y no probabilísticos

Los muestreos probabilísticos, también denominados aleatorios o azarosos, son aquellos en los
que todos los individuos de la población tienen la misma posibilidad de formar parte de la muestra.
En el caso de los no probabilísticos, la muestra se elige más bien de acuerdo con criterios
intencionales del investigador, o simplemente, por razones de comodidad.

Entre las técnicas más habituales de muestreo probabilístico cabe citar las siguientes:

1. El muestreo aleatorio simple. Todos los individuos o casos tienen la misma probabilidad
de ser elegidos, algo factible cuando estudiamos poblaciones finitas, pero en extremo
complicado cuando afrontamos universos muy grandes.

2. El muestreo sistemático. Es aquel que emplea algún tipo de fórmula matemática para elegir
a los sujetos de la muestra de manera ordenada. Es especialmente útil cuando los sujetos de
un grupo se parecen entre sí.

3. El muestreo estratificado. Es aquel en el que los individuos de la población se dividen en


grupos o estratos relativamente homogéneos y de cada estrato se selecciona un número
representativo de sujetos. A la hora de estratificar son habituales los criterios de género –
hombres frente a mujeres– o tramos de edad –jóvenes frente a personas mayores–. Una vez
seleccionados los grupos, se intenta que cada uno de ellos tenga la representación adecuada
en la muestra final a fin de asegurar una representación fidedigna de la población y de sus
diferentes subgrupos. Por ejemplo, en un estudio sobre la relación entre uso de móvil y
fracaso escolar, podrían elegirse como estratos la clase social (alta, media y baja) y el género
(varones frente a mujeres), por lo que la población quedaría dividida en seis estratos
diferentes: varones de clase alta, varones de clase media, y así sucesivamente.
Posteriormente, a cada uno se le aplican los procedimientos aleatorios o sistemáticos para
determinar la muestra final.

2
Unidad 2. Los aspectos medibles: el método cuantitativo

4. El muestreo polietápico o por conglomerados. Se emplea cuando la población está


dividida en grupos o conglomerados naturales, generalmente en razón de ordenación
territorial en regiones, ciudades o incluso bloques de apartamentos y zonas postales. Los
conglomerados son muy heterogéneos entre sí, pero a su vez se parecen. Se le denomina
también polietápico porque la muestra se va armando por etapas, por ejemplo, si se
seleccionan aleatoriamente algunas ciudades,s e eligen después algunos barrios y finalmente
se estudian algunos edificios de una calle, recurriendo una vez más al muestreo aleatorio
simple o sistemático para la determinación de los entrevistados.

Entre los procedimientos no probabilísticos, establecidos a juicio del investigador y que no cuentan
con la probabilidad de calcular margen de error, podemos distinguir entre:

1. El muestreo accidental. Cuando no se emplea ningún criterio significativo para elegir la


muestra, sino que se entrevista a los individuos que se encuentran accidentalmente en un
contexto espacial determinado, por razones de comodidad o por proximidad afectiva o
geográfica. Sus resultados son solo orientativos y nunca representativos, por lo que es
recomendable para trabajos de mejor envergadura a fin de conocer una tendencia o al
realizar un estudio piloto que sirva de guía para una investigación posterior.

2. El muestreo por cuotas. Se realiza cuando se seleccionan muestras que no son


representativas, pero interesan al investigador por algún criterio como género o edad. Por
ejemplo, si queremos evaluar la percepción de un programa televisivo que se emite por las
mañanas y sabemos que el 60% de los seguidores son amas de casa, intentaremos que seis
de cada diez entrevistados sean mujeres sin desempeño laboral fuera del hogar.

3. El muestreo intencional. También denominado por juicio o criterio, discrecional o


subjetivo, es una tipología muy habitual que consiste en elegir a los sujetos de acuerdo con
el conocimiento y juicio particular del investigador. Es habitual en encuestas a expertos que
se consideran representativos de un campo del conocimiento, cuando el investigador se basa
en marcos censales fiables de estudios anteriores, o si la población es reducida y abarcable.
Ese muestreo es habitual en investigaciones publicitarias que seleccionan a los informantes
de acuerdo con criterios como la adquisición de un determinado producto.

4. El muestreo por conveniencia o estratégico. Consiste en seleccionar la muestra de acuerdo


con criterios subjetivos relacionados con los objetivos de la investigación, pero sin
seleccionar cuotas. Es habitual encontrarlo en estudios piloto para comprobar la validez de

3
Unidad 2. Los aspectos medibles: el método cuantitativo

un instrumento (por ejemplo, un cuestionario), o afin de obtener información al aplicar un


experimento.

5. El muestreo bola de nivele o por referidos. Es una variedad de la anterior en la que las
unidades muestrales se escogen a partir de las referencias aportadas por los sujetos a los que
se entrevista, siguiendo un efecto acumulativo o de bola de nieve que permite aumentar
progresivamente el tamaño de la muestra. Esta tipología es útil para investigar poblaciones
que son difíciles de identificar, como es el caso de indigentes, sectas o grupos minoritarios.
También sería válido si pretendemos localizar a los aficionados de un programa televisivo.
En este caso, podríamos situar nuestra encuesta en un foro de fans del programa en
Facebook y pedirles a estos que envíen el cuestionario.

2.3. TIPOS DE ENCUESTA

Las encuestas se pueden clasificar de acuerdo con sus objetivos, su soporte y su temporalidad. De
acuerdo con la finalidad, existen:

• Sondeos descriptivos: intentan retratar las opiniones y actitudes de una población en el


momento en que se desarrolla la encuesta. En estos se podrían enmarcar los estudios de
medición de audiencia de un programa.
• Sondeos analíticos: trascienden la mera descripción para interpretar las causas de un
fenómeno determinado. Intentan corroborar hipótesis o relaciones entre variables. Dentro de
estas, se podría situar un estudio que intenta relacionar los patrones de programación
televisiva con la percepción y el gusto de los telespectadores.

Según el formato de administración y de captura de la información, se habla de:

• Encuestas presenciales: cara a cara o en papel. Son las más antiguas y siguen siendo las
más utilizadas por parte de centros demoscópicos y organismos de investigación. Entre sus
principales ventajas destaca un alto control sobre la muestra, puesto que la tasa de
recopilación de respuestas es la más alta en comparación con el resto (en especial las
online). Por otro lado, la presencia y el buen entrenamiento del encuestador aumenta la
fiabilidad de los resultados. Además, los sondeos presenciales generan mayor confianza en
el encuestado y permiten dar cuenta de poblaciones que no tienen fácil acceso al teléfono o
Internet. Por otro lado, la presencia del encuestador provoca sesgos de reactividad (o
reacción) por parte de los encuestados que, por falta de intimidad y anonimato, tienden a

4
Unidad 2. Los aspectos medibles: el método cuantitativo

responder lo que consideran socialmente deseable o lo que creen que puede satisfacer al
encuestador.

• Las encuestas telefónicas: son muy utilizadas en estudios de marketing y sondeos de


opinión, aunque su uso tiende a disminuir en los últimos años. Entre sus ventajas, hay que
destacar los costos, que son menores que los de la encuesta presencial, la posibilidad de
acceder a personas muy ocupadas y, sobre todo, su alto índice de control y retorno de las
respuestas en comparación con las online. Sin embargo, requieren un equipo de
encuestadores bien entrenados que, por otra parte, deben generar confianza en una población
que muchas veces se encuentra cansada del abuso de encuestas comerciales y de
telemarketing. Además de sus costos medios, se recomienda que la longitud de las encuestas
telefónicas sea menor y que sus términos sean aún más claros que los de las encuestas
presenciales.

• Las encuestas online o autoadministradas: se diseñan y distribuyen en distintos soportes


informáticos. En los últimos años, han ganado mucha popularidad, en particular porque no
requieren la presencia de un encuestador, porque sus costes son bajos o nulos y porque
permiten recopilar respuestas anónimas, sin los sesgos de reactividad. No obstante, sus
principales desventajas son el bajo índice de retorno de respuestas y el nulo control sobre la
muestra. Asimismo son propensas a sesgos. El principal sesgo deriva de la denominada
brecha digital, o comunidades que no tienen acceso habitual a Internet.

Por último, y de acuerdo con el factor temporal con que se conciben las encuestas, cabe destacar
los sondeos puntuales y los longitudinales:

• Las encuestas puntuales, también denominadas sincrónicas o transversales, recopilan


datos una sola vez en un momento determinado.
• Los sondeos longitudinales o diacrónicos intentan recopilar datos a lo largo del tiempo a
fin de medir percepciones y actitudes en distintos momentos. Estos estudios, generalmente
analíticos, sirven para averiguar el comportamiento de un fenómenos a lo largo del tiempo o
incluso para predecirlo.

2.4. LA PREPARACIÓN DEL CUESTIONARIO

Una de las claves fundamentales para la realización de una buena encuesta es el diseño del
cuestionario para lo que conviene tener en cuenta un conjunto de premisas:

5
Unidad 2. Los aspectos medibles: el método cuantitativo

1. Tiene que estar redactado de manera clara, sencilla y concisa. Para ello es necesario que
las preguntas y posibles respuestas se planteen de manera unívoca, con términos que
signifiquen los mismo, tanto para el encuestador como para el entrevistado, evitando
ambigüedades y tecnicismos.

2. Es necesario planificar muy bien el orden y la disposición de las preguntas, contemplando


al menos tres bloques:

• Una breve presentación de la encuesta (importante: ver figura 2.2 de la página 51


como ejemplo de presentación). También hay que incluir preguntas de control en las
encuestas presenciales. Cuestiones sencillas e introductorias que atraigan el interés
del encuestado y ayuden a romper el hielo y generar un clima de confianza.
• El segundo bloque tiene como propósito averiguar los aspectos más importantes de
nuestro estudio. Se compone de una baterías de preguntas interrelacionadas que
permiten transitar ordenadamente por los distintos aspectos de un tema.
• Las averiguaciones más sensibles se deben situar al final del cuestionario, una vez
creada una atmósfera propicia. Es el caso de ciertas características
sociodemográficas (edad, formación, nivel de ingresos) y de ideologías y creencias
religiosas, que pueden suscitar incomodidad en algunos entrevistados.

3. Evaluación del cuestionario antes de ser aplicado. Esta comprobación puede partir de
expertos (también denominada prueba de jueces) o de aplicar un cuestionario preliminar a
una muestra pequeña de entrevistados (o pretest).

4. Conviene alternar distintos tipos de preguntas: las cuestiones directas abordan de manera
explícita una actitud, opinión o sentimiento, mientras que las indirectas se emplean para
obtener información sobre temáticas controvertidas o sensibles que pueden generar
incomodidad en los encuestados. También son útiles las preguntas filtro o escudo, que sirven
para filtrar o eliminar a los encuestados que no resultan útiles para las cuestiones que siguen.
Por su parte, las preguntas abiertas son similares a las de las entrevistas cualitativas y
resultan de utilidad en las primeras fases de una investigación o cuando deseamos poner a
prueba una encuesta y configurar respuestas cerradas, ajustadas y medibles. Esta tipología
plantea desventajas a la hora de su tratamiento y conversión en resultado, puesto que los
testimonios recogidos suelen ser muy dispares y, a su vez, requieren tiempo y reflexión. Por
su parte, en las preguntas cerradas las respuestas están previamente acotadas, por lo que los
encuestados deben elegir entre una o más opciones de un listado fijo. A diferencia de las

6
Unidad 2. Los aspectos medibles: el método cuantitativo

abiertas, las respuestas se registran rápidamente y son más fáciles de cuantificar y comparar.
En cualquier caso, conviene añadir la respuesta “otros”, por si existen opciones no
contempladas por el investigador, y “no sabe/no contesta” (NS/NC), por si la pregunta
suscita dudas en el entrevistado.

Dentro de las cerradas también se dan distintas tipologías. Las más fáciles y directas son las
dicotómicas, en las que hay que elegir entre dos opciones. Más complejas son las
multirrespuestas, que ofrecen la posibilidad de seleccionar entre varias opciones. Dentro de
estas es habitual presentar escalas que se orientan a medir actitudes, entre las que destacan:

• La escala Thurstone. En ella se intenta que el encuestado exprese el grado de


satisfacción o insatisfacción respecto a un enunciado y en torno a dos posiciones
categóricas distintas: de acuerdo o en desacuerdo.
• Escala Guttman. Es similar a la anterior. Las cuestiones suelen ir ordenadas de forma
acumulativa y jerárquica.
• Escala Likert. Es una escala que expresa conformidad o disconformidad con respecto
a un enunciado en torno a cinco categorías para cada ítem.
• Diferencial semántico de Osgood. Es una escala en la que se solicita marcar una
posición -entre las siete que generalmente se ofrecen- entre dos adjetivos bipolares o
que expresan posiciones distintas.

(IMPORTANTE: estudiar el cuadro 2.2. de las páginas 52 y 53 para comprender los diferentes
ejemplo de preguntas y respuestas)

Por último, conviene tener en cuenta algunas sugerencias para evitar introducir sesgos y contribuir a
la correcta formulación de un cuestionario. A continuación se expone un decálogo que puede ser
útil:

1. Es regla primordial que las preguntas sean relevantes para la investigación.


2. Hay que evitar las preguntas en exceso extensas, detalladas y complejas y pensar en las
características de la población sondeada, evitando ambigüedades, conceptos difíciles y
significados abiertos.
3. Es preciso evitar preguntas en forma negativa, que suelen comprenderse peor que en su
formulación positiva.

7
Unidad 2. Los aspectos medibles: el método cuantitativo

4. Las preguntas deben recoger única y exclusivamente una idea, por lo que hay que eliminar
preguntas de doble cuerpo, en las que se solicita una opinión por más de un asunto en el
mismo enunciado.
5. Es requisito fundamental que las respuestas planteadas sean exhaustivas y excluyentes.
6. Es necesario eliminar las preguntas tendenciosas o cargadas de juicios de valor, muchas
veces determinadas por adjetivos calificativos.
7. En las cuestiones dicotómicas, que implican la posibilidad de dos respuestas distintas, es
necesario que estas se expliciten en el enunciado.
8. En las encuestas es necesario rotar y hacer aleatorio el orden de lectura de las respuestas
para evitar los efectos primacía y recencia, es decir, la tendencia a elegir la primera o la
última de las respuestas planteadas.
9. Hay que abstenerse de formular preguntas que impliquen la realización de cálculos
mentales complejos.
10. Conviene controlar la longitud del cuestionario y evitar diseños extensos que fatiguen a los
encuestados y generen respuestas automáticas o no reflexionadas. La longitud depende
también del formato: las encuestas presenciales no deben superar los 30 ó 40 minutos,
mientras que las online y telefónicas deberían limitarse a unos 10 ó 15 minutos.

2.5. EL TRABAJO DE CAMPO Y LA EXPOSICIÓN DE LOS RESULTADOS

Tras el diseño del cuestionario, el trabajo de recogida de datos es una de las fases más costosas y
delicadas. Además de realizar un test previo, las respuestas obtenidas en las encuestas deben
supervisarse a posteriori para evitar errores. Es por ello que muchos sondeos presenciales incluyen
preguntas de control. Uno de los elementos centrales en la validación de las encuestas es la
detección de los posibles sesgos que se hayan podido producir.

Finalizado el trabajo de campo, es necesario explotar la información obtenida mediante


procedimientos estadísticos más o menos complejos. Para ello, los investigadores suelen trabajar
con software especializado y hojas de cálculo que permiten visualizar y manipular datos en forma
de tablas divididas en celdas en las que se registran los distintos valores obtenidos en cada pregunta.

Una vez registrados los resultados en la base de datos hay que administrar la información
obtenida en los cuestionarios, para lo cual es necesario emplear la estadística, o ciencia que se vale

8
Unidad 2. Los aspectos medibles: el método cuantitativo

de las matemáticas y el cálculo de probabilidades tanto para diseñar el muestreo como para
organizar e interpretar la información recopilada.

En investigaciones basadas en encuestas hay conceptos especialmente útiles. El principal es el de


variable, que es un objeto de estudio susceptible de medición y que se expresa a partir de diferentes
valores.

Las variables pueden ser cuantitativas (o métricas), las que se enuncian en cantidades numéricas,
expresan el número exacto obtenido en una respuesta (por ejemplo, edad, estatura, etc.) y se
apuntan como tal en la base de datos. Reciben un tratamiento distinto las cualitativas (o no
métricas), que expresan atributos no susceptibles de cuantificación directa, por lo que conviene
codificarlos antes de introducirlos en las bases de datos. Por ejemplo, si al final de un cuestionario
preguntamos por el estado civil, podríamos asignar números a los diferentes estados: 1=casado,
2=soltero, 3=separado, etc.

En función de los objetivos de nuestra muestra, puede ser interesante estudiar la característica de
cada respuesta de manera independiente o incluso cruzar variables a fin de compararlas y verificar,
en el caso de encuestas analíticas, cuál es la relación entre una variable dependiente y otra
independiente.

Por último, conviene apuntar que una buena encuesta no solo ofrece resultados, sino que ayuda al
lector a su interpretación y a comprobar su fiabilidad, aportando una ficha técnica o apartado en el
que se explicita cómo se realizó el sondeo, la población y geografía investigadas, el soporte de
aplicación, el tipo de muestreo, el error muestral o el intervalo de confianza (ver cuadro 2.3. de la
página 59).

9
Unidad 3. Los aspectos no medibles: el método cualitativo

Esta Unidad 3 corresponde al Capítulo 3. Los aspectos no medibles: el método cualitativo del
manual Eiroa, M. y Barranquero, A. (2017). Métodos de investigación en la comunicación y sus
medios. Madrid: Editorial Síntesis (pp. 61-86).

3.1. LAS TÉCNICAS CUALITATIVAS

El método cualitativo se utiliza cuando no se pretende conseguir datos estadísticos ni cifras. Los
investigadores recurren a él cuando precisan conocer temas en profundidad y aspectos relacionados
con las percepciones y los comportamientos humanos, tales como opiniones, reflexiones,
pensamientos o las razones que inducen a tomar determinadas decisiones.

Se entiende entonces por metodología cualitativa una estrategia de investigación basada en una
rigurosa descripción contextual de un evento, conducta o situación, garantizando la máxima
objetividad en la captación de la realidad. Debe contemplar una recogida sistemática de datos y
posibilitar la realización de un análisis que dé lugar a la obtención de conocimiento válido
(Anguera, 1986).

Entre las principales técnicas cualitativas se encuentran los diferentes tipos de observación, la
entrevista en sus distintas modalidades, las historias de vida, los grupos focales o de discusión
(focus groups) y corrientes críticas como la investigación participativa. Todas son factibles de ser
aplicadas en entornos físicos o virtuales, si bien estos últimos requieren el adiestramiento en
tecnologías y procedimientos especializados. Lo que varía en estos casos es el soporte, pero el
planteamiento de la investigación debe ser igual y pasar por fases como la delimitación de los
objetivos, la selección de la muestra, la preparación de la herramienta, el trabajo empírico de
recogida de datos, su análisis e interpretación, y la escritura de los resultados.

El diseño de la investigación cualitativa es, por lo general, abierto, emergente, en cascada y se


puede trabajar sin hipótesis formales, aunque en cualquiera de los casos conviene formularse unas
preguntas previas a modo de orientación.

3.1.1. Análisis y visualización de los datos cualitativos y cuestiones éticas

Un aspecto particular de este tipo de técnicas es el análisis de los datos, puesto que la información
cualitativa no se puede ni debe resumir en cifras. En las tareas de análisis de las entrevistas, y

1
Unidad 3. Los aspectos no medibles: el método cualitativo

considerando que la información recopilada aparece en forma textual o discursiva, se sugiere un


proceso dividido en las siguientes fases:

1. Reducción de los datos. Es decir, simplificación o selección de la información para hacerla


más abarcable y manejable. La tarea de reducción de datos constituye un procedimiento
racional consistente en establecer categorías, o sea, en dividir los textos en los grandes temas
que se hayan tratado y clasificar conceptualmente (o codificar) las unidades o fragmentos
del discurso que correspondan a un mismo tópico o significado. Para ello tenemos que
separar dichas unidades basándonos en criterios semánticos, temáticos, temporales, etc.,
identificarlas y clasificarlas con códigos o conceptos y finalmente proceder a su síntesis.

2. Disposición de datos. Consiste en organizar la información de forma cronológica, temática


o por orden de relevancia, y presentarla de modo abarcable y operativo a fin de que pueda
resolver las preguntas de investigación.

3. Transformación de datos. Puede hacerse mediante dos estrategias. Hay ocasiones en las
que se analizan con técnicas cuantitativas y pueden expresarse en forma de gráficos, tablas,
diagramas, matrices y otros formatos. Esta tarea se realiza con la ayuda de bases de datos –
como Excel, SPSS, etc.– o los programas CAQDAS –como Atlas.ti–. En ocasiones, los
datos se pueden dejar sin transformar, en cuyo caso se presentan precedidos de una síntesis
de las principales ideas y reproduciendo citas textuales, siempre entrecomilladas, citando la
autoría y acompañadas de una interpretación el significado.

Un aspecto fundamental para tener en cuenta en los métodos cualitativos es la ética. Como norma
general, el investigador debe conseguir la autorización de las personas que van a a ser objeto de
análisis a fin de utilizar la información que éstas ofrezcan con propósitos científicos. Una forma
habitual es elaborar un documento de consentimiento informado en el que se haga constar que el
uso de los contenidos será exclusivamente para fines de investigación, respetando la privacidad y la
confidencialidad y comprometiéndose a la no manipulación de los datos y a un tratamiento
adecuado de los temas sensibles.

Es necesario tener también en cuenta que una parte importante de la investigación, como el
procesamiento de datos o la difusión de los resultados, se sitúa hoy en el entorno digital, un marco
en el que el investigador pierde el control de acceso y uso. Igualmente, y a fin de reforzar la
veracidad, conviene mostrar la documentación utilizada para el estudio: las transcripciones, las
grabaciones, la reproducción del material escrito y todo tipo de evidencias sobre el proceso

2
Unidad 3. Los aspectos no medibles: el método cualitativo

metodológico e intelectual. Estos datos se suelen referenciar en notas a pie de página y, sobre todo,
en los anexos informativos.

3.2. LAS ENTREVISTAS INDIVIDUALES Y SU TIPOLOGÍA

De una manera simplificada, la entrevista se puede definir como una conversación entre una
persona (el entrevistador) y otra u otras (el entrevistado) y tiene que ver con el antiguo arte de
conversar. De forma más precisa, se puede afirmar que la entrevista es la obtención de información
mediante una conversación planificada de forma sistemática en el marco del método científico. Es
una técnica en la que todos los factores de lo humano tiene un papel importante.

Los tipos fundamentales de entrevista son dos: la entrevista abierta o no estructurada, también
denominada no estandarizada, no sistematizada, no dirigida o libre, y la entrevista cerrada o
estructurada, también llamada dirigida, estandarizada o sistematizada.

Las entrevistas abiertas o no estructuradas son un tipo de técnica que suele plantearse a
especialistas, directivos, élites y a cualquier persona que conozca con detalle y exhaustividad una
determinada cuestión. Igualmente, son una forma adecuada en la recogida de información privada,
concretamente para la elaboración de biografías e historias de vida.

Esta modalidad otorga mayor libertad a los actores en interacción. Por un lado, el entrevistador
elabora una lista de aspectos clave que necesita cubrir para cumplir sus objetivos, pero carece de un
cuestionario formalizado que guíe el orden y el contenido mismo de las preguntas. Por otro lado, las
respuestas se obtienen en un clima informal de diálogo y admiten explorar las temáticas nuevas que
surgen a raíz de la conversación mediante la introducción de preguntas que no se habían previsto en
el guión inicial. La entrevista abierta requiere que el entrevistador tenga ciertas habilidades
interpelativas que favorezcan la comunicación con el entrevistado y que provoquen sus respuestas
mediante tácticas de acercamiento y creación de un clima favorable. En su desarrollo intervienen
algunos elementos externos que pueden determinar el éxito o el fracaso de esta técnica, como la
diferencia entre culturas, la empatía, etc. Normalmente tienen larga duración y en ocasiones es
necesario reconducir al entrevistado hacia las cuestiones clave.

Las entrevistas cerradas o estructuradas son aquellas en las que se pregunta a los sujetos
mediante un cuestionario estandarizado que implica la formulación de las mismas preguntas en
igual orden a todos los sujetos. En cierto modo se asemejan a la encuesta, puesto que su propósito
es obtener los testimonios de un grupo más amplio de informantes y se plantean a partir de

3
Unidad 3. Los aspectos no medibles: el método cualitativo

cuestionarios muy formalizados, con la diferencia de que en la entrevista no se ofrecen respuestas


estandarizadas.

En ambos casos, entrevistas abiertas y cerradas, es necesario estar atento a las respuestas del
entrevistado porque pueden sugerir nuevas cuestiones y conocimiento.

3.2.1. Fases de una entrevista y tipos de preguntas

En una fase preliminar, o de preparación, debe comprobarse la pertinencia del uso de la técnica
en coherencia con los objetivos de la investigación y la función de la entrevista misma. Una vez
concretados estos aspectos, es necesario seleccionar la muestra de sujetos o informantes clave a los
que suministrar el cuestionario, así como documentarse sobre el objeto de la investigación y el
papel que cada entrevistado juega en dicha problemática. No existe un número fijo de sujetos a los
que elegir como muestra, sino que este depende de los objetivos propuestos. Los informantes deben
ser representativos del fenómeno estudiado y tiene que haber un número suficiente para obtener
información consistente y contrastada y llegar a la saturación informativa, o aquel punto en el que la
nueva información recopilada aporta poco o nada a los objetivos de la investigación. A continuación
es necesario preparar la herramienta o cuestionario, teniendo en cuenta que debe estar sujeto a
criterios de validez y a la posibilidad de réplica en otras investigaciones. Finalmente, hay que
preparar aspectos técnicos como fijar el lugar y la hora del encuentro, disponer de material para la
grabación o diseñar un documento de consentimiento para los entrevistados.

La segunda fase de desarrollo o ejecución (presencial o virtual) de la entrevista, correspondiente


al trabajo empírico, se inicia comunicando al entrevistado los propósitos del estudio y cómo se va a
estructurar la conversación. En caso de que sea necesario, conviene advertir de la grabación o
filmación de la misma e invitarle a firmar un documento de autorización para la explotación de los
datos con fines científicos. Al iniciar la conversación, el entrevistador debe favorecer un clima de
confianza con objeto de que fluya el diálogo y se generen respuestas valiosas, para lo cual se
sugiere comenzar con preguntas exploratorias y dejar aspectos más susceptibles para un momento
posterior.

Ya durante la sesión, hay que evitar las interrupciones y dar tiempo a las respuestas y los posibles
silencios, plantear cada pregunta tal y como se concibió en el cuestionario, sin giros añadidos y, por
último, atender al entrevistado por encima del cuestionario o de las notas que se puedan tomar, por
lo cual es necesario estar familiarizado con el modelo de entrevista diseñada. Otras tácticas

4
Unidad 3. Los aspectos no medibles: el método cualitativo

recomendables son la animación del entrevistado a partir de gestos o expresiones de cordialidad, la


aclaración de aspectos que no resulten muy comprensibles y, por último, aportar una recapitulación
final y ofrecer la posibilidad de que se hagan añadidos acerca de temas o problemáticas en los que
no sea haya profundizado adecuadamente durante el transcurso de la conversación.
Simultáneamente, se debe analizar la información que ofrece el informante. De hecho, algunas
entrevistas implican más de un encuentro, puesto que, tras el análisis de la primera información
recopilada, pueden surgir nuevas preguntas o resulta necesario precisar algunas declaraciones.

En una tercera etapa, o fase de transcripción e interpretación, se procede a la reducción y el


análisis de datos registrados, así como a la escritura de los resultados. La transcripción de la
entrevista se debe realizar preservando el rigor y la literalidad de las declaraciones, así como los
posibles silencios, dudas, tics y otros aspectos relevantes de la comunicación no verbal. En la
redacción e interpretación de los resultados, es viable tanto la reproducción de citas textuales como
la síntesis de las principales ideas y el citado indirecto.

En todas las modalidades de entrevistas individuales o grupales se manejan distintas clases de


preguntas que se introducen partiendo de lo general a lo particular, o viceversa, dependiendo de los
objetivos, la temática o el perfil de la persona interpelada. En todos los casos conviene seguir una
estructura ordenada, coherente y con una lógica discursiva que facilite la obtención de información
y el posterior análisis y escritura de los resultados. En el diseño de las preguntas hay que procurar
claridad, concisión y corrección, y evitar asuntos demasiado generales y abstractos, en especial en
los cuestionarios estructurados. Tampoco conviene excederse en la longitud de la entrevista, por lo
que las preguntas tienen que abordar exclusivamente aspectos que no sean susceptibles de ser
averiguados de otro modo. Los tipos de preguntas más habituales son:

1. Generales o de introducción. Inician la conversación y se basan en planteamientos


genéricos y preliminares.
2. Descriptivas. Proporcionan información sobre rasgos del entrevistado o sobre distintos
eventos y circunstancias.
3. Interpretativas o de causa-efecto. Invitan al informante a interpretar las causas y
consecuencias de determinados actos o circunstancias.
4. De ejemplificación. Exploraciones más profundas en las que se pone un antecedentes o
ejemplo y después se formula la pregunta.

5
Unidad 3. Los aspectos no medibles: el método cualitativo

5. De estructuración. El entrevistador piensa que el asunto ya ha sido respondido, o que el


entrevistado se está desviando hacia temas que no interesan, por lo que decide dar un giro a
la conversación.
6. Comparativas o de contraste. Solicitan opinión acerca de las similitudes o diferencias
respecto a diversos temas.
7. De especificación. Buscan descripciones más precisas sobre una cuestión.
8. Evaluativas. Permiten conocer las sensaciones y sentimientos que tiene un entrevistado
hacia algo o alguien.
9. De sondeo. El entrevistador, siguiendo la pista de las respuestas, explora el contenido y la
opinión del entrevistado.
10. Directas. Buscan la opinión personal y sincera y la manifestación libre y espontánea sobre
el tema objeto de la investigación. Se sugiere realizarlas al final de la entrevista cuando el
entrevistado ha cogido confianza y puede ofrecer información comprometida sobre aspectos
delicados o privados.

En la aplicación de las distintas preguntas es necesario tener en cuenta al sujeto entrevistado, su


edad, perfil personal o profesional y entorno cultural. Las habilidades del entrevistador son
fundamentales para el éxito de la conversación.

3.3. LAS HISTORIAS DE VIDA

Esta técnica es parecida a la biografía, puesto que se trata de la elaboración o reconstrucción de la


trayectoria personal o profesional de algún personaje de interés. Algunas disciplinas, la utilizan para
indagar sobre el desarrollo de determinados acontecimientos basándose en el relato de los testigos
directos de un hecho.

El investigador en comunicación debe plantear la técnica a modo de entrevista abierta y en


profundidad que proporcione datos acerca de la identidad personal, la formación, el contexto
familiar, las costumbres, los principales hitos del desarrollo vital o las motivaciones y circunstancias
ajenas que tuvieron influencia en determinadas decisiones. A esto hay que añadir otros elementos
susceptibles de análisis como el tono de la narración, los silencios, etc. Una historia de vida se suele
reproducir e interpretar como un monólogo redactado a modo de relato en el que se eliminan las
preguntas formuladas para expresar únicamente el discurso vital del informante.

6
Unidad 3. Los aspectos no medibles: el método cualitativo

Durante la entrevista, el investigador debe guardar distancia respecto a lo relatado. También hay que
procurar que el entrevistado introduzca el contexto espaciotemporal en que se produce cada
acontecimiento, detallando lugares, hechos y personajes.

La historia de vida debe complementarse con una confirmación a posteriori de los datos ofrecidos
por el biografiado, bien a través de la consulta a testimonios de su entorno, bien accediendo a
fuentes documentales. La historia de vida implica la articulación o triangulación de métodos y
técnicas diferentes como la observación, las entrevistas y el análisis documental.

El material que se genera puede estar impregnado de grandes dosis de subjetividad, de ahí que sea
necesario someter los relatos una crítica profunda mediante la formulación de preguntas que
obtengan respuestas próxima a la realidad del fenómeno investigado. Igualmente, el relato puede
estructurarse según los hitos que hayan ido marcado la trayectoria del biografiado.

Las historias de vida a veces presentan riesgos para una investigación rigurosa. Por ello, hay que
revisar de manera constante la forma en que se construye la realidad biográfica, tanto en el relato de
los testimonios como en la propia interpretación.

3.4. LA ENTREVISTA EN GRUPO Y SUS VARIANTES: GRUPOS DE DISCUSIÓN O


FOCUS GROUPS

La técnica consiste en reunir a un grupo de entre seis y doce personas relacionadas con el tema
objeto de estudio, a las que un moderador plantea preguntas o debates en un ambiente diseñado que
favorece la desinhibición y la interacción. Los sujetos entrevistados se caracterizan por contar con
ciertos rasgos comunes. Este tema en común es la base de las hipótesis o preguntas que contribuyen
a la escritura del guión.

La preparación de un focus group requiere una disposición sistemática para que tenga validez y
fiabilidad. En una fase preliminar deben definirse los objetivos, la delimitación del número de
personas que integrarán el grupo y su perfil. Es conveniente que haya un equilibrio en la
representatividad de los participantes a fin de obtener relatos variados, por lo que se recomienda que
los integrantes no se conozcan entre sí. Por otra parte, y junto a ciertas cuotas de homogeneidad
interna, es preciso contemplar cuotas de heterogeneidad para la selección de la muestra de acuerdo
con estratificaciones de edad, género, formación, ocupación, grupo étnico o nivel socioeconómico.
Igualmente hay que preparar detalles operativos como la selección del lugar y, a ser posible, en
torno a una mesa que facilite la interacción entre los participantes; los equipos y materiales

7
Unidad 3. Los aspectos no medibles: el método cualitativo

necesarios; la convocatoria d ellos participantes mediante cartas, llamadas o contacto personalizado.


Para el focus se recomienda un mínimo de una hora u hora y media y un máximo de dos horas.
Además, es necesario preparar el guión o cuestionario que se planteará al colectivo, generalmente
compuesto por preguntas abiertas que animan a exponer respuestas amplias y justificadas.

En una segunda etapa tiene lugar la ejecución de la entrevista grupal o trabajo de campo. El
moderador debe iniciar dicha tarea con una breve presentación del tema objeto de la reunión y la
advertencia de que la información expuesta será grabada y utilizada a efectos de investigación. El
papel del moderador no es demasiado directivo, puesto que, a lo sumo, plantea las preguntas y tiene
que provocar en todos los participantes el deseo de debatir e interactúa con el resto. Generalmente
no interviene en las conversaciones, sino que está atento a su desarrollo para que el grupo no se
desvíe; crea un clima permisivo y puede formular preguntas no previstas inicialmente o rehacer el
guión de acuerdo con las respuestas. La tarea de moderador de un grupo focal requiere de un
adiestramiento previo y de ciertas dosis de experiencia.

Por otro lado, en la sala suele haber otros miembros del equipo de investigación que se encargan de
observar, tomar nota de las cuestiones emergentes, detectar la opinión dominante o descubrir las
discrepancias. Pueden proporcionar al moderador un resumen final de los principales consensos
alcanzados con el fin de que los participantes verifiquen su acuerdo o no con los mismos y puedan
proporcionar información o matices en un turno de réplica final.

En una tercera fase, de análisis y escritura de los resultados, tiene lugar la transcripción de las
intervenciones, la reducción e interpretación de las mismas y la exposición de la información
obtenida, siguiendo los criterios descritos para observación y entrevistas individuales. La redacción
y difusión de los resultados daría por terminada la aplicación de esta técnica.

En el caso de la realización de grupos de discusión online, los participantes comparten información


y opinión en sus ordenadores a través de Skype o un chat. La técnica es la misma que la aplicada en
los focus groups offline y requiere la definición de los objetivos, la selección de participantes, la
preparación de un guión y el análisis y redacción de os datos obtenidos. El proceso se inicia a través
de medios electrónicos, como el correo electrónico o los mensajes y requiere instrucciones precisas
para la conexión simultánea en la fecha y hora indicadas y una atención a todos los detalles
técnicos. El guión de la discusión debe estar redactado por completo e incluir aspectos útiles para
prevenir ralentizaciones y provocar una conversación fluida. Puede celebrarse de forma sincrónica -
los integrantes del grupo chatean o interactúan online a la misma hora- o asincrónica -el moderador
realiza las preguntas y las envía por correo electrónico a los participantes-. En ambas modalidades

8
Unidad 3. Los aspectos no medibles: el método cualitativo

los informantes deben tener acceso a las preguntas y respuestas que se van produciendo en la
interacción del grupo.

3.5. OTRAS TÉCNICAS CONVERSACIONALES: PHILIPS 66, BRAINSTORMING,


DELPHI, NÚCLEOS DE INTERVENCIÓN PARTICIPATIVA, ÁRBOL DE PROBLEMAS Y
SOLUCIONES

• Philips 66. Consiste en la división de un colectivo amplio en núcleos de seis personas que, a
lo largo de seis minutos, discuten acerca de un tema determinado. El moderador se encarga
de organizar la dinámica grupal y presentar la problemática a los participantes. Cada grupo
debe nombrar un portavoz que dirige la discusión, sintetiza las aportaciones del grupo y las
expone posteriormente al resto de participantes, generalmente en una segunda fase de
discusión entre los moderadores de cada uno de los subgrupos. Lo propio es que la división
de los equipos se establezca de forma aleatoria, que sus miembros sean desconocidos o poco
conocidos entre sí y que todos participen en la discusión a partir de rondas de
intervenciones.

• Brainstorming o tormenta de ideas. Consiste en la reunión de un conjunto reducido de


personas que ponen en común su pensamiento en busca de ideas creativas, imaginativas y
novedosas o soluciones a un problema determinado. Un moderador expone la cuestión para
que los participantes se expresen sin restricciones ni censuras en un marco de espontaneidad
y cordialidad. Por su parte, un secretario anota las ideas que van surgiendo del debate a
través de dos modalidades: de forma ordenada –cada miembro expone su propuesta por
turno de palabra– o libre –cada uno habla a mediad que se le ocurren propuestas–. Las ideas
no deben ser criticadas ni reprobadas. Finalmente se analizan los testimonios a fin de
comprobar si ha habido alguna aportación válida.

• Grupos Delphi o Delfos. Se fundamentan en la realización de entrevistas sucesivas a un


panel de expertos sobre una materia determinada y tienen por objeto la predicción de las
consecuencias de un determinado fenómeno o la resolución de problemas y temas poco
explorados. Antes de iniciar el Delphi es necesario delimitar el horizonte temporal en el que
se realizará (días, semanas o meses) y seleccionar al panel de especialistas en la materia. Su
número puede oscilar entre 15 y 100 personas, aunque la cifra habitual puede ser entre 20 y
30 expertos. Las reuniones se realizan a distancia mediante correo electrónico o listados de

9
Unidad 3. Los aspectos no medibles: el método cualitativo

distribución, que favorecen el anonimato. En una primera fase, el coordinador se encarga de


hacer circular la pregunta general o un cuestionario de tipo abierto, centralizando las
respuestas de los consultados. Posteriormente las sintetiza, las agrupa por categorías o
preguntas concretas y las envía a todos. Esta acción tiene como propósito procurar la
retroalimentación entre los participantes y preparar el camino para efectuar una siguiente
ronda de circulación de un cuestionario o propuesta cada vez más cerrada. El proceso suele
repetirse varias veces, puesto que su objetivo es encontrar consensos y alcanzar una
solución, acuerdo u orientación específica sobre el problema planteado.

• Núcleos de intervención participativa (NIP). Consisten en la organización de grupos de


personas seleccionados al azar de alrededor de unos 25 miembros a quienes se solicita que
debatan durante un tiempo sobre un tema concreto, habiéndoles suministrado información
previa sobre el mismo. La técnica facilita al participación de amplios grupos de ciudadanos
de manera estructurada e intenta ofrecer respuestas consensuadas en torno a problemática
concretas que afectan a una localidad o entorno cultural. Previa a la celebración de las
reuniones, es necesario proceder a la selección de los colaboradores a través de un muestreo
aleatorio entre la población, a la que se comunica toda la información sobre el asunto, la
tarea a realizar y el lugar y duración del encuentro. El moderador se encarga de hacer
circular los cuestionarios, grabar y tomar nota de las propuestas, coordinar los resultados y,
por último, sintetizar y elaborar un informe con base en el proceso dialógico emprendido.

• Árbol de problemas y soluciones. Forman parte de las técnicas dialécticas y de creativdad


social orientadas a la identificación de problemas y posibles soluciones a través del diálogo
y la conversación. Los árboles de problemas son representaciones gráficas de una
determinada problemática, sus causas y sus consecuencias, mientras que los árboles de
soluciones presentan las posibles salidas. El primero se construye a partir de la
identificación colectiva del problema eje de una investigación, al que se va agregando un
conjunto de encadenamientos de tipo causa-efecto, a modo de ramas de un árbol. Esta
ordenación de la cadena de problemas permite visibilizarlas mejor y evaluar las posibles
soluciones, fijando una jerarquización de la cuestión principal y las secundarias.
IMPORTANTE: ver figura 3.2. de la página 81.
Las distintas posibilidades de solventar los asuntos planteados se pueden mostrar en un árbol
de soluciones. En este último caso, la elaboración es similar y consiste en trazar un eje
central parecido al anterior, pero sustituyendo las indicaciones del problema y sus
consecuencias por sugerencias de soluciones.

10
Unidad 3. Los aspectos no medibles: el método cualitativo

Por último, existen otras técnicas cualitativas muy ligadas a perspectivas críticas de
investigación. Entre ellas podemos mencionar:

• Los sociogramas o mapas en los que se exponen las relaciones entre individuos, colectivos
o instituciones de un territorio, y qué relaciones guardan entre ellos.

• El análisis DAFO, que frente a un problema, producto o idea, plantea un análisis interno de
sus debilidades y fortalezas y otro externo de las amenazas y oportunidades que facilita el
entorno.

• La sistematización es una técnica orientada a recoger y ordenar información detallada


acerca de una experiencia para generar datos que sirvan en la mejora o implementación de
otras experiencias similares.

• Los propios talleres, paneles y seminarios sirven para obtener datos relevantes a partir de
la interacción entre expertos en una materia.

3.6. LA INVESTIGACIÓN-ACCIÓN PARTICIPATIVA

Más que una técnica en sí misma, la investigación-acción participativa es una perspectiva científica
cuya finalidad es conocer la realidad para intervenir en ella con el objeto de mejorarla, contando
con la participación activa de los agentes y colectivos de una comunidad. Su componente
fundamental es la participación de las comunidades, que, a partir del diálogo libre, problematizan
sus prioridades investigadoras y las posibles vías para resolver una cuestión. Al científico se le
considera más bien un facilitador de conocimiento y un incitador del diálogo en unas comunidades
que son las protagonistas de la técnica.

Por lo general, su planificación es compleja. A grandes rasgos, la perspectiva apuesta por una
construcción dinámica y abierta a la reflexión y la acción basada en un conjunto de fases de
obligado cumplimiento. En la etapa inicial, o de exploración, el investigador toma contacto con la
comunidad e intenta ganarse su confianza mediante un proceso de observación participante. A partir
de ahí procura motivar su interés para tomar parte en la investigación e inicia un proceso colectivo
de reflexión en el que se deciden cuáles son las necesidades y problemáticas más importantes. Esta
fase suele emplear dinámicas grupales como las anteriormente expuestas –entrevistas, grupos de
discusión, Philips 66, árboles de problemas o asambleas– que permiten dar voz a grupos amplios y
heterogéneos de personas. En esta etapa, el investigador plantea una serie de preguntas a fin de que

11
Unidad 3. Los aspectos no medibles: el método cualitativo

el grupo elabore su propio análisis y consensúe cuáles son las áreas en las que es más urgente
intervenir. También suele ser habitual recabar datos secundarios, estadísticas e informes con las
características sociodemográficas de la población y del territorio. Esta fase concluye en la redacción
de un primer documento de autodiagnóstico que guiará la acción posterior.

La segunda etapa, o de intervención, consiste en el fomento de un proceso de diálogo colectivo


para encontrar soluciones a los problemas detectados. Técnicas como el árbol de problemas o el
DAFO pueden resultar útiles. También es interesante el complemento de instrumentos como la
elaboración de un sociograma, que permite la visualización de las redes entabladas en el colectivo a
fin de evaluar las relaciones entre los actores implicados en un conflicto o problema.

La investigación-acción participativa se plantea como un proceso dinámico, dialéctico y circular en


el que se parte de la práctica para generar teoría y en el que se intenta que la propia reflexión incida
en nuevas acciones. Es por ello que una buena estrategia de investigación participativa debe
concluirse con una fase de evaluación colectiva de los resultados obtenidos o incluso una
sistematización crítica del proyecto realizado. Esta evaluación generará nuevos insumos para la
reflexión-acción en los futuros procesos de esta u otra colectividad.

12
Unidad 4. Desvelar los comportamientos y las interacciones comunicativas: la observación y sus variantes

Esta Unidad 4 corresponde al Capítulo 4. Desvelar los comportamientos y las interacciones


comunicativas: la observación y sus variantes del manual Eiroa, M. y Barranquero, A. (2017).
Métodos de investigación en la comunicación y sus medios. Madrid: Editorial Síntesis (pp. 87-106).

4.1. LA OBSERVACIÓN COMO MÉTODO CIENTÍFICO

La observación puede ser considerada como una técnica propia de la metodología cualitativa,
aunque los resultados obtenidos puedan convertirse en datos cuantitativos. Consiste en la
descripción sistemática de eventos, comportamientos o interacciones en el ambiente social en el que
se desenvuelven. Puede revelar problemas implícitos y ofrecer una visión interna de las relaciones
entre sujetos que sea difícil de obtener con otras técnicas. El investigador que la realiza recoge datos
basados en conductas verbales y no verbales, registra las interacciones entre los individuos y el
medio e interpreta las conductas cotidianas o más llamativas. Para ello utiliza los cinco sentidos y
proporciona una imagen estática y dinámica de la situación objeto de estudio. A fin de que sea
científica, esta técnica ha de seguir un procedimiento sistemático, sustentado en hipótesis y marco
teórico, secuenciada a partir de protocolos de observación y susceptible de ser replicada por otro
investigador.

Los requisitos fundamentales para asegurar que se plantea un procedimiento riguroso son
básicamente dos: a) establecer el tipo de elementos que se incluirán en la observación, y b) la
medición de lo observado. Para el primer requisito es habitual recurrir a las tradicionales 5 W –who,
what, when, where, why, a las que se añade how–.

La pregunta “¿qué se observa?” se refiere a la definición de aquello que nos interesa conocer, como
los comportamientos, las costumbres, los diálogos, las reacciones, la estética, etc.; “¿a quién se
observa?” concreta la selección de los protagonistas, que en ocasiones suelen ser líderes o sujetos
destacados de una comunidad y, en otras, gente corriente en situaciones ordinarias; “¿dónde se
observa?” fija el contexto y los escenarios donde tendrá lugar la tarea observacional; “¿cuándo se
observa?” localiza el momento en que encontraremos a los individuos o el fenómeno que estamos
investigando y, finalmente, “¿cómo se observa?” especifica el posicionamiento del investigador
frente a la población observada, el número y características de observadores y la tipología concreta
de la técnica. Estas cuestiones sirven para establecer las posibles categorías que integrarán la hoja
de registro, el cuaderno de campo, el blog o la base de datos que los investigadores necesitarán para
desarrollar su trabajo.

1
Unidad 4. Desvelar los comportamientos y las interacciones comunicativas: la observación y sus variantes

El segundo requisito, la medición de lo observado, permite especificar con exactitud los datos
concretos de las conductas e interacciones examinadas. Las posibilidades de incluir diferentes
medidas de dichas conductas o interacciones son múltiples y entre las más frecuentes figuran las
siguientes:

1. Ocurrencia. Registro de la aparición o no de una conducta durante el periodo de


observación.
2. Frecuencia. Consiste en registrar el número de veces que un determinado comportamiento
aparece.
3. Latencia. Es el tiempo que transcurre desde que se observa un determinado estímulo hasta
la manifestación de su efecto.
4. Duración. Cantidad de tiempo invertido en la manifestación de una conducta.
5. Intensidad. Grado de profundidad, emoción, interés, etc., con el que el sujeto observado se
interrelaciona o ejecuta una determinada acción.

La técnica es útil cuando se pretende indagar sobre cuestiones como:

1. Rasgos de individuos y grupos.


2. Comportamientos de sujetos o de colectivos.
3. Relaciones de poder y toma de decisiones.
4. Expresiones no verbales.
5. Interactuaciones y redes entre sujetos.
6. Tiempo empleado en determinadas actividades o prácticas profesionales.
7. Modo en que se realizan dichas prácticas.
8. Análisis de eventos.
9. Análisis de problemas in situ.

4.2. EL PROCEDIMIENTO: LA PLANIFICACIÓN DE UNA OBSERVACIÓN


SISTEMÁTICA

El diseño de las herramientas de observación debe estar en estrecha concordancia con los objetivos
de la investigación y la finalidad del trabajo. En función de dichos objetivos debemos decidir el tipo
de técnica que mejor conviene, la observación directa, la participativa o la indirecta.

2
Unidad 4. Desvelar los comportamientos y las interacciones comunicativas: la observación y sus variantes

En general, el diseño se desarrolla en tres fases:

• Fase preliminar:
◦ Elección de temas que observar.
◦ Elección del tipo de observación.
◦ Determinación del grado de participación de los investigadores.
◦ Selección del escenario.
◦ Selección de los informantes y de la muestra.
◦ Elección del tipo de registro de datos.
◦ Diseño de la herramienta observacional: tabla, ficha, etc.
◦ Diseño de otras herramientas de recogida de datos como entrevistas o documentos.
◦ Gestión de permisos y autorizaciones: contactos con los directivos o líderes del grupo.
◦ Selección y preparación del instrumental técnico: vídeos, grabadoras, cámaras
fotográficas, etc.
◦ Documentación sobre el personal o el colectivo observado.

• Trabajo de campo:
◦ Presentación de los investigadores al colectivo.
◦ Elaboración de mapa o croquis del escenario.
◦ Recogida de datos con las herramientas diseñadas.
◦ Registro de los elementos observados.
◦ Ejecución de otras técnicas, como entrevistas.

• Análisis:
◦ Organización de la información: categorización y síntesis.
◦ Estudio e interpretación de los datos.
◦ Escritura de los resultados y conclusiones.
◦ Difusión.

Estas fases comprenden tres niveles implícitos de trabajo:


1. Un primer momento de observación descriptiva, en la que se inspecciona todo, asumiendo
que todo es nuevo e importante.
2. Un segundo de observación enfocada, en la que los investigadores centran su atención en
determinados aspectos.
3. Finalmente un tercero de observación selectiva, cuando el investigador lleva a cabo una
contemplación exhaustiva y prolongada en el tiempo de las interrelaciones y actividades.

3
Unidad 4. Desvelar los comportamientos y las interacciones comunicativas: la observación y sus variantes

El escenario ideal para la investigación es aquel en el que el observador obtiene fácil acceso, puede
establecer una relación inmediata con los informantes y recoge datos relacionados directamente con
los intereses del proyecto.

El registro detallado de lo observado ha de efectuarse en el momento más inmediato a la ocurrencia


de los acontecimientos, a fin de evitar problemas derivados de la memoria o la interferencia de
sucesos que puedan contaminar la información pendiente de anotación.

Una consideración fundamental en esta técnica es la ética, debido a que trata de documentar
actividades de los sujetos en un entorno de cierta privacidad o confidencialidad. Es necesario
preservar el anonimato de los participantes en la escritura final de los resultados para evitar su
identificación pública. La escritura de los resultados debe ser fiel a los distintos puntos de vista de
los sujetos y situaciones observadas. Por último, es necesario difundir los resultados con el máximo
rigor.

4.3. DIFERENTES MODALIDADES DE OBSERVACIÓN

La observación adopta diferentes tipologías dependiendo de distintos factores, entre los que cabe
citar los medios utilizados, el papel del observador, el número de observadores y el lugar donde se
realiza.

• Según el grado de estandarización:

◦ Observación estructurada: establecimiento previo de un diseño.

◦ Observación no estructurada: recogida y anotación de los hechos sin diseño ni guía.

• Según el posicionamiento del observador:

◦ Abierta: el observador es visible para los observados.

◦ Encubierta: el observador está oculto, se auxilia con medios técnicos para la


observación.

• Según el número de observadores:

◦ Individual: realizada por un solo investigador.

◦ En equipo: realizada por varios investigadores coordinados.

4
Unidad 4. Desvelar los comportamientos y las interacciones comunicativas: la observación y sus variantes

• Según el grado de participación del observador:

◦ Observación directa o no participante: el investigador permanece ajeno a la situación


que analiza.

◦ Observación participante: el investigador se integra en el grupo analizado.

◦ Observación indirecta: el investigador centra su atención en datos observados por


terceros.

• Según el lugar donde se realiza:

◦ Laboratorio: observación de un fenómeno en un lugar previsto.

◦ De campo: observación de un fenómeno en un lugar natural.

Las distintas tipologías no son incompatibles entre sí. Puede darse el caso, por ejemplo, de que la
investigación emprendida sea a la vez estructurada, directa, en equipo, abierta y de campo.

El grado de estandarización es fundamental en esta técnica y se refiere a la manera en que el


observador utiliza, bien una herramienta estructurada y categorizada o, por el contrario, escribe sus
impresiones de manera menos sistemática en documentos como un diario de campo o una plantilla.
En el primer caso la observación da resultados concretos, objetivos y cuantitativos, mientras que en
la segunda opción la obtención de información y, en consecuencia, los resultados son de carácter
interpretativo. Sin embargo, en ocasiones se dan combinaciones posibles entre los dos tipos.

En cuanto al posicionamiento encubierto o invisible del investigador, tiene que ver con la
posibilidad de observar sin ser observado. En esta situación el trabajo es realizado sin el
conocimiento del grupo analizado e implica problemas éticos. Aunque lo habitual y más procedente
suele ser informar a los sujetos de que están siendo objeto de un proceso de observación, puede
darse el caso de que sea preferible mantener a los investigadores encubiertos.

En lo que respecta al lugar donde se realiza la observación, existen diferencias entre efectuarla en
un laboratorio o estancia previamente preparada y las observaciones de campo obtenidas en el lugar
natural donde ocurre el acontecimiento. En el primer caso la observación se desarrolla en un
ambiente artificial, dispuesto por los investigadores para la ocasión, y donde los grupos observados
no están en su hábitat natural y pueden adoptar comportamientos extraños o menos naturales,
generando problemas de validez interna y externa. En el segundo caso las observaciones permiten

5
Unidad 4. Desvelar los comportamientos y las interacciones comunicativas: la observación y sus variantes

dar cuenta de los hábitos y rutinas de la población o de un grupo de sujetos en sus entornos
naturales.

4.3.1. Observación directa y observación participante

La observación directa o no participante es aquella que se efectúa directamente sobre individuos


y grupos sociales detectando y registrando sus conductas sin necesidad de que el investigador se
integre en su medio. El observador contempla la situación en un entorno natural o artificial desde el
estatus de juez último, externo al campo de observación y ajeno a la acción que se está
desarrollando. Los hechos se contemplan sin mediación y se registran en el momento en el que
ocurren.

La observación participante o participativa es el proceso en el que los investigadores se integran


y aprenden acerca de las actividades e interrelaciones de individuos y colectivos en un escenario
natural a través de dos acciones: observar y participar en sus prácticas cotidianas. El ejercicio de
observar y participar son dos procesos que se pueden describir y practicar por separado: en primer
lugar se observa el contexto en el que se interviene y posteriormente se inicia la participación.

En el momento de la observación, el conocimiento del objeto de estudio llega al investigador a


través de los sentidos. En cuanto al momento de la participación, el investigador debe pasar un
tiempo en el lugar a fin de fomentar un ambiente de cordialidad y aceptación para llegar a conocer
sus reglas de convivencia, aprender el lenguaje utilizado, establecer relaciones y evitar contactos
con personajes que representen alguna facción o subgrupo que pueda impedir la relación con otros.
La actitud que debe adoptar el investigador debe ser abierta, libre de juicios y respetuosa.
Finalmente, hay que utilizar instrumentos precisos de medición a fin de recoger, organizar, analizar
e interpretar la información. Algunas de las fórmulas para la medición de los comportamientos y
las interrelaciones más eficaces y sencillas son:

1. Escala numérica. Es aquella en que el rasgo observado se representa en números –


normalmente del 1 al 5–, a los cuales se les asigna una equivalencia de juicios de valor.
IMPORTANTE: ver figura 4.2. (p. 98).
2. Escala gráfica. Consiste en la representación de los valores en una línea o en casilleros con
conceptos opuestos en sus extremos. Generalmente se utilizan cuando se están observando
aspectos afectivos o de sociabilidad, como intereses o sentimientos. Los tramos dela escala

6
Unidad 4. Desvelar los comportamientos y las interacciones comunicativas: la observación y sus variantes

han de ser impares, de tal modo que el centro representa un punto medio o neutral, el lado
izquierdo es negativo y el derecho positivo. IMPORTANTE: ver figura 4.3. (p. 98).
3. Escala descriptiva. Supone la organización de categorías descriptivas de la situación
observada, de forma que se explican con mayor detalle y profundizan los rasgos o atributos
de los colectivos o situaciones. IMPORTANTE: ver figura 4.4. (p. 99).

Dado que el periodo de inmersión en la comunidad objeto de análisis es amplio y profundo, la


observación participante se suele triangular con otras técnicas y métodos como las entrevistas, el
análisis de contenido de los textos resultantes de la interacción, la investigación-acción participativa
o las encuestas, dependiendo del tipo y alcance de la investigación.

4.3.2. Observación indirecta o documental

En la observación indirecta o documental, el investigador hace uso de datos ya conocidos en una


investigación realizada por otros, o de datos observados por terceras personas, con el fin de obtener
nuevas interpretaciones. Generalmente se realiza sobre material escrito o audiovisual que tiene un
significado, registra el mundo social y muestra los valores, intereses y propósitos de aquellos que
los encargaron o produjeron. Dicho material forma parte de las denominadas fuentes primarias y
secundarias de una investigación, o aquellas que ayudan a contextualizar e interpretar mejor el
objeto de estudio. Entre los documentos más habituales utilizados en la observación indirecta
figuran: documentos escritos, documentos audiovisuales y documentos digitales.

En la mayor parte de los estudios, los datos obtenidos de la observación indirecta se consideran
material factible de complementar con los procedentes de la directa y participante.

Cuando se procede a la selección de material para este tipo de técnica, deben valorarse los
siguientes elementos:
1. La autenticidad del documento (autoría, fecha). Significa su identificación y la posibilidad
de evaluar si hay problemas de falsificación deliberada o errores cometidos
involuntariamente en su reproducción o transmisión.
2. La credibilidad. Si es una información veraz, si está contextualizada y si es representativa
de la realidad. Implica conocer las circunstancias de su producción.
3. La accesibilidad. Facilidad de acceso a la documentación y disponibilidad de su consulta.
4. La representatividad. Valoración de si la selección realizada es representativa.

7
Unidad 4. Desvelar los comportamientos y las interacciones comunicativas: la observación y sus variantes

La metodología aplicable dependerá del tipo de documento, pero las fichas de observación son las
herramientas más habituales en este tipo de estudios. Junto a esta técnica, el análisis de contenido y
de discurso o los balances estadísticos son los métodos más frecuentes para la documentación de
carácter cuantitativo. IMPORTANTE: ver cuadro 4.3. referente a la ficha genérica de observación de
una fotografía (p. 102).

4.4. LA OBSERVACIÓN ONLINE: ETNOGRAFÍA VIRTUAL

La recogida de datos con la técnica de la observación online, también denominada etnografía


virtual e incluso ciberetnografía, se centra en las prácticas y la interactividad que se da en las
comunidades de Internet.

La observación online o etnografía virtual se refiere al estudio de interactuaciones de carácter


sincrónico (o simultáneo), como el chat, o asincrónico como el correo electrónico y los foros en
comunidades virtuales. La información obtenida a través de esta técnica no consiste únicamente en
observar el conjunto de textos producidos por los usuarios, sino que implica también acercarse al
tipo de relaciones o intercambios que se entabla entre los integrantes de las comunidades que
colaboran y desarrollan conocimientos compartidos, dado el carácter interactivo de la web.

Esta técnica tiene lugar en espacios virtuales como las listas de distribución, listas de correo, wikis,
comentarios y otras plataformas de los medios digitales y los denominados social media. En todos
ellos participan grupos que contactan a través de correos electrónicos, respuestas o comentarios,
donde se exponen temas para el debate, ofrecen información al respecto y emiten opiniones. En
algunos casos el acceso es restringido, especialmente en las listas de correo y de distribución, o es
necesario registrarse ante un moderador o administrador del grupo.

En la etnografía virtual los investigadores deciden su grado de implicación, tanto en la


contemplación de los hechos como en la participación, y diseñan su trabajo de modo parecido a la
observación offline. Las diferencias vienen dadas, principalmente, por las características de los
medios online y de sus comunidades, entre las que cabría citar la posibilidad de incluir elementos
visuales y sonoros en los textos que se comparten. Es necesario añadir, asimismo, elementos nuevos
como la incorporación de identidades alternativas o el anonimato, es decir, la utilización de
nicknames para realizar la observación. O el hecho de que los datos observados son equivalente a
los datos registrados por los investigadores al realizarse desde su comienzo con tecnologías de la
información. El objetivo principal del observador consiste en ser aceptado en el grupo como un

8
Unidad 4. Desvelar los comportamientos y las interacciones comunicativas: la observación y sus variantes

miembro más y para ello debe ser capaz de tejer relaciones de confianza similares a las que se dan
en las interacciones cara a cara. En el terreno online estas relaciones se entablan con la construcción
de un rostro virtual o un nick que genere cordialidad y credibilidad para evitar reacciones en contra
de los miembros de la comunidad. Sin embargo, el uso de anónimos también tiene implicaciones
éticas y de fiabilidad.

La etnografía virtual no tiene un único escenario observacional, puesto que los usuarios de la red se
mueven en distintas plataformas y utilizan diversos formatos de Internet. En consecuencia, el
observador virtual debe situarse en distintos canales de comunicación, como las listas de correo, los
chats, blogs o grupos de Facebook, lo cual multiplica la recogida de datos sobre el fenómeno
estudiado. Es necesario estar atento a todas las actividades de los usuarios, a fin de conocer sus
relaciones, movimientos, reacciones y sus objetivos. Es importante recordar que dicha movilidad
obliga a introducirse en el campo observado más de lo habitual. Aunque la investigación pueda
mantenerse en la distancia, la conectividad de los websites y la multipresencia de los usuarios en
distintos sitios virtuales pueden derivar en cambios no intencionados en el papel del observador, que
en ocasiones pasa de mero observador a observador participante, o al contrario.

En general, el objetivo de esta metodología es mostrar cómo se organiza el entorno mediático a


partir de Internet y de la interacción mediada por las tecnologías, pero también ha de tenerse en
cuenta la importancia de los aspectos sociales, culturales y mediáticos fuera de la red, puesto que la
participación offline está directamente relacionada con la online. A menudo en los textos
interactivos se alude a mensajes que se dan por entendidos entre los miembros de las comunidades,
pero en realidad no son tan claros o evidentes para los investigadores. El lenguaje utilizado en
muchos lugares virtuales es generalmente abreviado y va acompañado de símbolos, dibujos y
emoticonos para lograr una comunicación más fluida y dinámica. Sin embargo, puede resultar un
lenguaje críptico para los observadores recién llegados y necesita ser aclarado en encuentros offline.
Dependiendo de la investigación, por tanto, puede ser obligado conocer personalmente a los
individuos que conforman los grupos, realizar entrevistas a los más activos, etc. En consecuencia, la
combinación de observaciones online y offline beneficia notablemente los resultados de la
investigación puesto que cada una cubre diferentes aspectos de los eventos u objetos analizados.

Las fases que hay que seguir en su diseño y práctica son las siguientes:

1. Información previa y familiarización con el entorno de los lugares online objeto de


observación.

9
Unidad 4. Desvelar los comportamientos y las interacciones comunicativas: la observación y sus variantes

2. Delimitación del campo de estudio y localización empírica de la investigación. Se


requieren respuestas a preguntas cómo “¿dónde empieza y dónde acaba el contexto de la
investigación?”, “¿durante cuánto tiempo permanece en el lugar virtual elegido?”, “¿resulta
necesario continuar la observación fuera de la pantalla del ordenador?”.

3. Delimitación de la muestra, es decir, selección de los lugares virtuales factibles de análisis


atendiendo a factores como su representatividad, dinamismo o interactividad.

4. Comprobación de los aspectos técnicos y los programas de software utilizados para entrar
en los espacios virtuales y registrar la información; gestión de permisos de acceso a las
comunidades online.

5. Diseño de la herramienta de observación, como cuaderno de campo, bases de datos con


categorías, blogs, etc. En la modalidad online el registro de la información es automático y
la mediación tecnológica –la presencia del texto, del audio, foto o vídeo– está presente en
todo el proceso. Se sugiere, por tanto, mantener los dos tipos de registro: las herramientas
online y offline a fin de contar con mayor número de evidencias y la contrastación de datos.

6. Trabajo empírico online, es decir, ejecución de la observación y la participación, si así se


acuerda, de los investigadores en el entorno digital.

7. Análisis de los datos, escritura de los resultados y difusión en entornos físicos o virtuales.

10
Unidad 5. Desvelar el contenido de los mensajes: análisis de contenido y de discurso

Esta Unidad 5 corresponde al Capítulo 5. Desvelar el contenido de los mensajes: análisis de


contenido y de discurso del manual Eiroa, M. y Barranquero, A. (2017). Métodos de investigación
en la comunicación y sus medios. Madrid: Editorial Síntesis (pp. 107-126).

5.1. INTRODUCCIÓN AL ANÁLISIS DE CONTENIDO CUANTITATIVO

La técnica de análisis de contenido está relacionada con el análisis documental, también


denominado revisión u observación documental. Sin embargo, este último instrumento procede de
la biblioteconomía y las ciencias de la documentación y se refiere más bien al conjunto de
estrategias que tienen por finalidad representar de manera resumida el contenido de un documento a
fin de su clasificación y consulta. En otras palabras, el análisis documental no está orientado a
desentrañar el significado de los textos, sino más bien ayuda a codificarlos mediante una síntesis de
sus características documentales a partir de técnicas de citado bibliográfico.

En el ámbito de las ciencias de la comunicación, el análisis de contenido ha contribuido


sustancialmente al avance de los estudios sobre imágenes y estereotipos mediáticos y publicitarios
de grupos minoritarios y vulnerables, al tratamiento informativo de diferentes temáticas o al análisis
de campañas electorales y discursos políticos. En el plano de la ficción y el entretenimiento
(películas, programas o series), ha ayudado a dar solidez a los estudios fílmicos y televisivos y a
disciplinas como la narrativa audiovisual, que profundiza en el estudio de patrones narrativos que se
repiten en cualquier historia a partir de estructuras fijas de personajes, acciones o tramas.

Por otra parte, esta técnica es susceptible de ser aplicada a muy distintos tipos de texto,
independientemente de su formato: escritos (textos periodísticos, educativos, jurídicos, científicos,
etc.) o audiovisuales, entre los que es posible examinar desde grabaciones radiofónicas a planos y
secuencias de programas y películas. Desde una perspectiva amplia, se puede utilizar asimismo para
el análisis de fenómenos como letras de canciones, estrategias de marketing comercial o como
complemento a las entrevistas, que son susceptibles de ser analizadas e incluso cuantificadas y
valoradas a partir de esta técnica.

El análisis de contenido lo podríamos definir como cualquier procedimiento sistemático orientado


a examinar y desvelar el contenido manifiesto o latente de texto y que, a su vez, permite hacer
inferencias sobre el emisor y los posibles efectos sobre las audiencias. La cuestión de las inferencias
está relacionada con la posible extrapolación de resultados a las variables emisor o audiencia. De
hecho, y si seguimos el esquema clásico de las 5 W de Lasswell, el análisis de contenido se orienta

1
Unidad 5. Desvelar el contenido de los mensajes: análisis de contenido y de discurso

a profundizar en el qué del mensaje (what), es decir, en su ADN, su arquitectura o sus aspectos más
profundos.

En otras palabras, y aunque no sea este su propósito fundamental, permite hacer averiguaciones
acerca del emisor o autor del mensaje –cuál es su intención, su estado psicológico o su emoción al
escribir algo, qué ideología implícita transmite–, acerca de las propias audiencias, puesto que ayuda
a detectar las características del público objetivo al que el mensaje va dirigido (y sus intereses,
actitudes o valores), e incluso acerca de patrones culturales imperantes en una sociedad. No
obstante, la técnica es sobre todo eficiente en la contabilización de los elementos relacionados con
el contenido, por lo que si queremos profundizar en un conocimiento más detallado y exhaustivo del
emisor o del receptor, es necesario complementarla o triangularla con otros instrumentos como
entrevistas, encuestas o revisión documental.

5.2. LA SELECCIÓN DE LA MUESTRA Y EL DISEÑO DE LAS CATEGORÍAS

El primer paso para diseñar un buen análisis de contenido consiste en la definición del universo y la
acotación de una muestra representativa para obtener resultados fiables y extrapolables. En esta
técnica en lugar de población o universo, se suele hablar de corpus, que comprende el número total
de textos que atañen al objeto de estudio. Lo más habitual es que el investigador se enfrente a tal
magnitud de materiales que le resulte imposible abarcarlo todo, por lo cual es necesario establecer
ciertos procedimientos para seleccionar una muestra o parte representativa del corpus. Tal como se
expuso en el capítulo 2, el análisis de contenido utiliza procedimientos aleatorios o intencionales
para la selección muestral.

Dentro de la muestra también es imprescindible concretar elementos como cuál es el soporte de


comunicación que se desea analizar (periódicos, películas, etc.) y, dentro de este, qué secciones o
partes (titulares, noticias completas, etc.). Tras acotarla, es necesario determinar la unidad de
análisis, también denominada unidad de registro o codificación, que puede definirse como aquellos
fragmentos o núcleos con significado propio y que se van a contabilizar o medir. La unidad de
codificación es la porción más pequeña de un análisis de contenido (por ejemplo, tweets o posts en
Twitter y Facebook que contengan tal o cual palabra), por lo que es posible que en un estudio haya
más de una unidad de análisis. Estas, por otra parte, tienen que ser fáciles de codificar y cuantificar.
Así, por ejemplo, en una investigación sobre la representación de los movimientos sociales en la

2
Unidad 5. Desvelar el contenido de los mensajes: análisis de contenido y de discurso

prensa, las unidades de análisis pueden ser titulares y leads, pero a su vez recursos visuales como
fotografías, infografías o humor gráfico.

Las unidades de análisis más habituales son:


a) La palabra.
b) La oración y el párrafo.
c) El tema o protagonistas principales de un texto y sus distintas unidades.
d) El texto completo, el cual es preciso que sea pequeño y cuantificable.

Para corregir los déficits de contextualización, las unidades de análisis suelen acompañarse a veces
de unidades de contexto, que son segmentos del mensaje que ayudan a captar su significado
exacto, dado que su tamaño es mayor que el de la propia unidad de análisis. Un mismo término
puede adoptar sentidos diferentes en función del contexto en el que se ubique. En el caso de una
palabra, la unidad de contexto suele ser el párrafo, y en el caso del párrafo, el fragmento o el texto
completo. IMPORTANTE: ver cuadro 5.2. (p. 113) para comprender la definición de corpus, muestra
y unidad de análisis en la investigación.

Por lo general, tanto para la selección de la muestra como para el diseño de las categorías es muy
aconsejable que el investigador conozca bien el objeto de estudio y que, por otra parte, haya leído
varias veces y con suma atención una muestra preliminar de los documentos que se va a estudiar.
Esto es lo que Bardin denomina la lectura flotante, o aquella fase en la que se realizan lecturas
sucesivas de un corpus variado de textos para familiarizarse con sus temas, narrativas y enfoques.

Por otro lado, en ocasiones es necesario delimitar un periodo concreto para la selección de la
muestra e incluso el propio sistema de codificación, delimitando si lo que queremos descubrir es la
presencia o ausencia de algún elemento, su frecuencia de aparición, su intensidad o incluso su
orden.

Una vez seleccionadas la muestra y la unidad de análisis, el siguiente paso consiste en el diseño de
las variables y la construcción de un protocolo o ficha de análisis de contenido, que se puede
definir como el conjunto de criterios que ayudan a sistematizar la información contenida en la
muestra para su posterior tratamiento estadístico y conversión en resultados. Por lo general, el
protocolo se suele componer de un conjunto de categorías, o preguntas que se plantean al texto, y
entre las que se pueden distinguir las estrictamente cuantitativas y cualitativas e interpretativas.

3
Unidad 5. Desvelar el contenido de los mensajes: análisis de contenido y de discurso

A su vez, cada variable se acompaña de distintas respuestas o valores que han de cumplir normas
como la exhaustividad, el carácter recíprocamente excluyente y una formulación clara, concisa y
comprensible.

Por último, los distintos valores de cada categoría suelen codificarse y numerarse a efectos de
facilitar su cuantificación, por lo que muchos protocolos y fichas suelen acompañarse del
denominado libro de códigos, un documento en el que se anotan los códigos (generalmente
números) establecidos para cada valor y en el que se explican las variables más complejas a efectos
de facilitar su sistematización. IMPORTANTE: ver cuadro 5.3. (p. 115) para comprender cómo
funciona un libro de códigos en una investigación.

Una vez diseñados el protocolo y el libro de códigos, solo queda aplicar la herramienta a una
muestra de textos y pasar posteriormente a elaborar los resultados, ya sea desde el análisis
pormenorizado de cada variable (denominado análisis univariable) o cruzando distintas variables
(multivariable).

5.2.1. Categorías y frames

La variedad de las categorías de un análisis de contenido es infinita y depende de los objetivos y


finalidades últimas de la investigación. Krippendorf (1980) señala que se pueden diseñar hasta
cinco tipos distintos de categorías:

1. Tema o tópico: de qué trata la unidad de análisis.


2. Tono: cómo es tratado el asunto (favorable o desfavorable), similar a las categorías de
enfoque (frame).
3. Ideología del emisor: relativas a los valores y creencias del propio redactor del texto.
4. De receptores: relacionadas con el destinatario de la comunicación.
5. Físicas: las que se refieren a la posición, duración o extensión de una unidad de análisis (por
ejemplo, el número de páginas o de columnas que ocupa una información en un periódico).

Los estudios de enfoque han provocado un avance sustancial en los análisis de contenido realizados
en los últimos años, en especial en investigaciones que intentan verificar de qué manera los medios
encuadran la realidad y enfatizan determinadas interpretaciones a la hora de cubrir una noticia. El
enfoque o frame ha sido definido como la idea central organizadora del contenido de un texto y el
propio hecho de enfocar tiene que ver con “seleccionar algunos aspectos de una realidad que se
percibe y darles más relevancia en un texto comunicativo, de manera que se promueva una

4
Unidad 5. Desvelar el contenido de los mensajes: análisis de contenido y de discurso

definición del problema determinado, una interpretación causal, una evaluación moral y/o una
recomendación de tratamiento para el asunto descripto” (Entman, 1993: 52).

La clasificación de frames de Neuman, Just y Crigler (1992), apunta a que en todas las noticias es
fácil percibir uno o más de los siguientes enfoques:
1. Atribución de responsabilidades, cuando la pieza imputa la responsabilidad y posible
solución de un asunto a un individuo o institución
2. Conflicto, si la información enfatiza los elementos de tensión y conflicto entre individuos,
grupos o instituciones.
3. Interés humano, cuando se incide en historias personales que despiertan la identificación
del lector.
4. Consecuencias económicas, si el asunto se presenta en términos de efectos económicos a
los que tendrá que hacer frente en el futuro determinado colectivo, institución o región.
5. Moralidad, cuando la noticia se enmarca desde prescripciones morales o principios
religiosos.

Por su parte, Iyengar y Kinder (1987) distinguen entre dos tipos de enfoques muy habituales en
televisión: los episódicos, cuando los sucesos que se narran enfatizan eventos y casos particulares,
con protagonistas, guión y cierta tensión dramática (por ejemplo, cuando se narra la historia de una
víctima del terrorismo), y los temáticos, si las noticias se abordan desde el background, las causas y
las posibles soluciones (por ejemplo, ciertos relatos de la crisis económica que enfatizan los
programas de cada partido político).

La variedad de enfoques analizables en las noticias es amplia y depende de las capacidades del
investigador a la hora de crear categorías de tipo interpretativo. Asimismo, ha sido habitual estudiar
la representación de la sociedad civil y los movimientos sociales en los medios.

5.3. EL PROCESAMIENTO DE LOS DATOS

En la actualidad hay una extensa variedad de programas dedicados a la investigación cualitativa de


tipo CAQDAS (Atlas.ti, Nvivo, Etnograph, Nudist, etc.), que destacan por su capacidad para hacer
búsquedas selectivas entre grandes cantidades de textos.

Los análisis de contenido informatizados, a diferencia de los manuales, cuentan entre sus ventajas
que los resultados se pueden comprobar fácilmente por cualquier investigador y, sobre todo, que
permiten hallar redes complejas de significado que sería difícil percibir a simple vista.

5
Unidad 5. Desvelar el contenido de los mensajes: análisis de contenido y de discurso

5.4. EL ANÁLISIS CRÍTICO DE DISCURSO

El análisis crítico se concentra en evaluar los discursos como dispositivos de transmisión de


ideología, puesto que estos siempre trabajan al servicio de algo o alguien: unas élites dominantes,
un determinado consenso político o económico, etc. La técnica se basa en una valoración del texto
desde su contexto de producción, que es una aproximación que valora dimensiones tales como
cuáles son los intereses que subyacen tras los mensajes, quién o quiénes tienen o no acceso a las
estructuras del discurso y de qué manera influyen en el mismo, cuáles son sus posibles efectos y
cómo estos contribuyen a la difusión de la ideología y valores.

El objetivo último del análisis crítico es determinar cómo el discurso contribuye a reproducir la
desigualdad y la injusticia social debido a que siempre hay ciertos grupos que tienen un acceso
privilegiado a los medios, mientras que del resto de comunidades se ofrece un retrato estereotipado,
imparcial y en razón de diferencias de género, etnia, edad, clase social, etc.

En relación con el análisis de contenido cuantitativo de tipo estándar, la primera diferencia es que el
análisis crítico suele combinar el estudio del texto con otras técnicas cualitativas, como la revisión
documental, la etnografía, la observación o las entrevistas. Dado que su objetivo es identificar los
componentes que envuelven al discurso y que hacen comprensible sus objetivos y efectos, entre las
dimensiones de análisis más habituales se cuentan el estudio del background (político, cultural,
psicológico), los agentes y pacientes implicados en cada texto y cuestiones tan diversas como el
sistema implícito de ideología y valores, la intertextualidad con otros textos, las técnicas de
persuasión empleadas o los recursos, argumentaciones y metáforas que lo sustentan.

En segundo lugar, es habitual que el censo de textos revisados sea algo menos que el de las
muestras amplias que caracterizan a los análisis cuantitativos. Esto es debido a que sus operaciones
metodológicas son mucho más complejas, puesto que incluyen la triangulación de diferentes
enfoques –narrativos, semióticos, retóricos o lingüísticos– y metodologías distintas, como las antes
señaladas. Por último, los análisis críticos parten de diseños menos rígidos y cerrados que los que se
utilizan en el análisis cuantitativo, puesto que no existen recetas universales para esta técnica, sino
solo aproximaciones metodológicas muy contextualizadas en virtud de los objetivos de cada
investigación. Por último, su perspectiva es aplicada y crítica; o, en otras palabras, la
investigación se emplea para desafiar y transformar los discursos que crean relaciones de
desigualdad en la sociedad actual.

6
Unidad 5. Desvelar el contenido de los mensajes: análisis de contenido y de discurso

5.5. OTRAS TÉCNICAS PARA EL ANÁLISIS DE LOS TEXTOS MEDIÁTICOS

Existen diversas modalidades para analizar los contenidos explícitos e implícitos en un texto, y que
se pueden combinar con las perspectivas cuantitativas o cualitativas del análisis de contenido y el
análisis crítico de discurso, respectivamente.

• En primer lugar, y especialmente relevante para los estudios audiovisuales, destacan los
abordajes de la narrativa y la narratología, que en líneas generales tienen por objeto
desvelar las historias y patrones narrativos latentes en textos de ficción y no ficción. La
teoría narrativa parte de la hipótesis de que las historias están presentes desde tiempo
ancestrales en la religión o la mitología, y que estas se han transmitido a lo largo de
generaciones hasta conformar relatos-tipo que responden a la necesidad inherente de los
seres humanos de contar historias para explicar la realidad y construir su identidad.
Los personajes de cualquier historia se definen por lo que hacen y representan, por lo que
cualquier relato acaba narrando las vicisitudes de un personaje principal (sujeto) que desea
conseguir un objeto (o complemento acusativo) de deseo (por ejemplo, el amor de una
princesa). En torno a esa búsqueda el personaje encuentra ayudantes y oponentes (o
complementos circunstanciales), motores que impulsan la acción del sujeto (o destinadores)
y sujetos que actúan a modo de complementos indirectos o de atribución a partir de la acción
del sujeto (o destinatarios). Entre estos personajes principales, destaca por encima de todos
el sujeto protagonista, puesto que todo relato es una sucesión de vaivenes entre sujeto que ha
sido separado de un objeto y que desea por tanto volver a conseguirlo o preservarlo, de
acuerdo con el esquema que representa el cuento de Caperucita (ver figura 5.1. de la página
122).
El análisis narrativo no sólo se utiliza en el ámbito de la ficción, sino que muchas noticias
que aparecen diariamente en prensa o televisión son susceptibles de ser examinadas desde
este esquema, puesto que implican estructuras similares de personajes que realizan acciones
de acuerdo con roles muy marcados.

• Otro campo interesante para construir análisis de contenidos es el derivado de la semiótica,


que sucintamente se puede definir como la ciencia de los signos. Para Barthes, las imágenes
son polisémicas, tienen múltiples significados y están abiertas, por tanto, a distintas
interpretaciones. Sin embargo, la imagen suele venir siempre acompañada de palabras o
anclajes que determinan su significado en un sentido u otro y que conviene tener en cuenta
en cualquier estudio.

7
Unidad 5. Desvelar el contenido de los mensajes: análisis de contenido y de discurso

El análisis semiótico de Barthes y sus continuadores analiza la imagen desde dos planos
interrelacionados: la connotación y la denotación. La denotación es la significación más
obvia e inmediata de un texto, puesto que en ella el significante (lo que retrata la imagen
misma) guarda una relación directa con el objeto o referente concreto que representa (por
ejemplo, la fotografía de una botella de alcohol en el ámbito publicitario). Un plano menos
obvio, latente y profundo es el de la connotación en el que la imagen ya no guarda relación
directa, sino arbitraria con el referente, por lo que el plano es susceptible de interpretaciones
subjetivas. Así, por ejemplo, una botella de alcohol en un anuncio con tonos fríos y dirigidos
al hombre puede representar la masculinidad, la virilidad y el propio orden patriarcal.

• Otras aproximaciones al análisis fílmico enfatizan en lo que Strokes (2003) denomina de


manera genérica aproximaciones tipológicas, entre las que destacan los estudios sobre
género y los de directores o estrellas. Los género marcan convenciones narrativas que las
audiencias reconocen fácilmente y constituyen una fuente interesante para el análisis
narrativo de películas, e incluso programas de entretenimiento, en los cuales también se dan
géneros como el concurso, el reality show o el talk show.

• Por otro lado, también cabe citar un conjunto de investigaciones que abordan el star system
y las celebridades que protagonizan películas o series, puesto que estas provocan
identificaciones con determinados grupos de fans y seguidores.

• Por último, nos detenemos en los aportes de la retórica al estudio del mensaje periodístico o
mediático, puesto que estos estudios acumulan una larga tradición. La retórica se puede
definir como arte (práctica oratoria), como teoría (tradición) o como método de
investigación, y en esta trayectoria se distinguen dos concepciones fundamentales: la
retórica entendida en términos de práctica persuasiva que emerge en el contexto de
audiencias poco formadas y ante las que se discuten temas contingentes y polémicos, y la
retórica como una dimensión constitutiva del lenguaje y que está presente en todo tipo de
prácticas comunicativas. Así, mientras que en el primer enfoque se entiende la retórica como
persuasión, en el segundo se concibe en términos de identificación y consustancialidad entre
posiciones textuales que dan lugar a efectos discursivos.
La retórica debe ser entendida más allá del uso popular del término como discurso
rimbombante, falso y vacío y cuyo propósito es engañar a las masas. Así, en el ámbito
anglosajón los estudios se vienen renovando desde finales del siglo XX con la apertura de
diversos programas de estudio específicos, y hoy los enfoques retóricos se pueden encontrar

8
Unidad 5. Desvelar el contenido de los mensajes: análisis de contenido y de discurso

tanto en el estudio de la publicidad, como en la construcción de noticias, las culturas


populares o incluso en el análisis de los comportamientos y conductas humanas.

9
Unidad 6. Conocer las reacciones: experimentar en comunicación

Esta Unidad 6 corresponde al Capítulo 6. Conocer las reacciones: experimentar en


comunicación del manual Eiroa, M. y Barranquero, A. (2017). Métodos de investigación en la
comunicación y sus medios. Madrid: Editorial Síntesis (pp. 127-141).

6.1. INTRODUCCIÓN A LOS EXPERIMENTOS

El fin último de los experimentos es indagar en las relaciones causales que explican los fenómenos
sociales o naturales, por lo que suelen ser propios de estudios de carácter interpretativo, evaluativo e
incluso predictivo, y no por tanto de investigaciones exploratorias o descriptivas. Esta técnica se
aplica únicamente a temas de investigación que se conocen exhaustivamente y sobre los que es
posible imaginar hipótesis de causa-efecto. De hecho, uno de sus fundamentos de partida tiene que
ver con la posibilidad de conocer la ordenación o precedencia temporal de una causa sobre su
posible consecuencia y, por lo general, los experimentos fallidos proceden de una ordenación causal
errónea o un conocimiento inadecuado de una materia.

Más que una técnica en sí misma, los experimentos se consideran más bien una estrategia de
análisis que intenta recabar datos cuantitativos o cualitativos –cuando se observan, por ejemplo,
reacciones grupales–, a partir de la combinación o triangulación de otras técnicas que sí ofrecen
esta posibilidad, como la observación, las encuestas o las entrevistas. Además, y a diferencia de los
métodos anteriores (encuesta, observación), en los que el investigador se limita a observar o indagar
en la realidad sin interferir mucho en ella, en el experimento los estudiosos adoptan una
participación muy activa, debido a que tienen que tomar decisiones acerca de la selección de los
sujetos, la disposición del entorno o el control de las variables.

El experimento suele ser habitual en investigaciones comunicacionales de tipo psicológico o


sociopsicológico, puesto que implican una observación individualizada de cada uno de los sujetos
experimentales y porque la propia sociología ha tendido a decantarse por la encuesta como método
predominante. De hecho, los experimentos son una de las técnicas de investigación más veteranas
en la investigación de la comunicación de masas.

1
Unidad 6. Conocer las reacciones: experimentar en comunicación

6.2. QUÉ ES UN EXPERIMENTO EN COMUNICACIÓN Y CUÁLES SON SUS


REQUISITOS

El experimento se puede definir de forma simplificada como un estudio en el que los investigadores
introducen una acción para estudiar su repercusión sobre un fenómeno o sobre un grupo de seres
humanos. En el campo comunicacional, este sería el caso de observar las reacciones de los
espectadores al emplear determinados eslóganes o música en un anuncio publicitario y comprobar
su reacción.

De manera más detallada, el método experimental se orienta a estudiar las relaciones de causa-
efecto y las consecuencias y reacciones que se observan al introducir o alterar una o más variables
(independientes) sobre otra variable (dependiente), entendiendo el concepto de variable como todo
aquello que puede alterarse o que es modificado a partir de esta técnica. En los experimentos se dan
dos tipos de variables fundamentales: las dependientes, que coinciden con el objeto de estudio
(una persona o un fenómeno), y las independientes, que son aquellos factores que el investigador
modifica conscientemente y que provocan reacciones en el objeto o variable dependiente. Las
variables dependientes no se manipulan, puesto que en ellas se observa o mide su reacción, mientras
que las independientes se corresponden con las acciones e intervenciones que se ejercitan durante el
estudio. Así, por ejemplo, si realizamos un experimento para mejorar la comunicación interna de la
empresa, la variable dependiente sería la plantilla de trabajadores, mientras que la independiente
podría serla introducción de un chat o un listado de distribución para comprobar si con esta
actuación las tareas se coordinan y agilizan mejor.

Dado que la finalidad del experimento es comprobar las reacciones de unas variables sobre otras,
existe un tercer elemento que conviene controlar a lo largo del estudio: las denominadas variables
contaminadoras, perturbadoras, irrelevantes o extrañas, que son factores ajenos a los propósitos
de la investigación y que pueden introducir reacciones inesperadas sobre la variable dependiente.
Esto último apunta a una de las características definitorias del método experimental: la necesidad de
manipulación y control de todas las dimensiones que intervienen en la prueba, desde la elección de
la muestra al aislamiento del objeto de estudio; de ahí que la mayor parte de los experimentos se
emprenden en laboratorios o lugares cerrados en los que se recrean situaciones artificiales. Estos
espacios son propicios para aislar al objeto de estudio de todo estímulo que no sea la variable
independiente, controlando, a la vez, factores contextuales como la temperatura, la iluminación o el
sonido, tal y como se presenta en la figura 6.1. de la página 132.

2
Unidad 6. Conocer las reacciones: experimentar en comunicación

Otra dimensión importante es la aleatorización de las muestras, que implica trabajar con muestras
aleatorias de individuos que comparten entre sí características (por ejemplo, una edad parecida, un
nivel similar de consumo televisivo), de acuerdo con las técnicas de muestreo. En este sentido, los
experimentos controlados son los más habituales, puesto que si queremos comprobar los efectos de
un factor determinado sobre un objeto de estudio, lo más preciso es establecer dos experimentos
idénticos a fin de comparar resultados: el primero, a un grupo experimental, al que se expone a la
variable independiente, y el segundo, a un grupo de control, al que no se aplica el estímulo y que
sirve para comparar si es, efectivamente, la variable independiente la que provoca o no la reacción.

La última característica de esta técnica es la necesidad de ocultar ciertos componentes del


experimento a los sujetos que participan en él. De hecho, los experimentos más efectivos son
aquellos en los que el sujeto carece o tiene un conocimiento muy limitado de los objetivos de
investigación, lo que elimina ciertos sesgos de reactividad. Por ejemplo, si queremos evaluar si un
programa de televisión provoca reacciones violentas en la audiencia, es necesario que los sujetos
desconozcan los objetivos últimos de nuestro trabajo y que se distribuyan aleatoriamente y sin
saberlo, bien en el grupo experimental, al que se expondrá a un programa violento, bien al de
control, al que se ofrecerá un programa distinto a fin de facilitar la comparación.

6.3. LA EXPERIMENTACIÓN Y SUS TIPOLOGÍAS

Las tipologías de los experimentos varían en función de factores como el entorno de aplicación, el
grado de validez interna, la elección de los sujetos experimentales o el número de grupos muestrales
que se comparan:

1. En relación con el entorno o espacio de aplicación, los experimentos más habituales son
los de laboratorio, en los que los sujetos acuden a un lugar cerrado o un espacio artificial en
el que se realiza una prueba. En este caso, el investigador tiene pleno control sobre el
espacio, las variables y la propia reacción de los sujetos, lo que le permite una evaluación
muy estricta y fiable de los posibles efectos de las variables independientes sobre el objeto
de estudio. Su desventaja es la propia artificialidad, que puede derivar en problemas de
validez interna, dado que en el laboratorio los sujetos perciben en todo momento que están
siendo observados y suelen modificar por ello su conducta.

Por el contrario, en los experimentos de campo se invierte esta relación. En este caso, son
los investigadores los que acuden al espacio natural de los sujetos investigados (lugares

3
Unidad 6. Conocer las reacciones: experimentar en comunicación

públicos, entornos laborales, etc.) y es allí donde ofrecen los estímulos e intentan controlar,
con mucha dificultad, las variables ajenas o contaminadoras. Los estudiosos suelen optar por
esta modalidad cuando necesitan examinar situaciones sociales complejas que solo es
posible observar in situ, tal y como ocurre cuando se introduce una nueva tecnología en un
entorno educativo. En los experimentos de campo no es posible realizar una selección
aleatoria de la muestra, sino que tan solo se observa a la gente en su cotidianidad, con mayor
o menos encubrimiento, pero con la posibilidad de comparar la situación anterior con la
derivada de la introducción del estímulo. Tampoco permite establecer mecanismos de
control a priori sobre el entorno o las variables, por lo que están sujetos a fallos de validez
interna. Los experimentos de campo se asemejan a la observación, con la ventaja de que en
este caso las relaciones de causa-efecto se hacen más evidentes y con la diferencia de que en
la observación el investigador no introduce acciones para comprobar las reacciones. Un
buen ejemplo de esto serían las investigaciones que evalúan los cambios producidos por la
introducción de una nueva tecnología (una smart TV) en los hogares.

2. En segundo lugar, y de acuerdo con las condiciones de control y la validez interna, es


habitual distinguir entre diseños preexperimentales, cuasiexperimentales y experimentos
puros:

◦ Los preexperimentales suelen emplearse en investigaciones de carácter exploratorio,


que no cuentan con hipótesis (sino más bien con preguntas de investigación), y en las
que no existe un punto de comparación previo ni garantías de control sobre las
variables. Sería el caso de un experimento a pequeña escala en el que invitamos a un
grupo de individuos a señalar sus reacciones frente a un programa piloto de televisión.

◦ Por su parte, los cuasiexperimentos, de acuerdo con la propia etimología de la palabra,


denotan que son experimentos casi verdaderos, pero en lo que falta algún elemento
importante, o que suponen una manipulación incompleta sobre las variables, los grupos
observados, o la medición de actitudes y comportamientos antes o después de la prueba.
Un cuasiexperimento tipo podría consistir en observar las reacciones de un grupo no
aleatorio de inmigrantes a la exposición de un programa televisivo en el que aparezcan
estereotipos raciales. Además, muchos de los experimentos de campo son también
cuasiexperimentos porque en estos casos es difícil establecer un control total de las
variables contaminadoras.

4
Unidad 6. Conocer las reacciones: experimentar en comunicación

◦ Por último, los experimentos puros son aquellos en los que no falta ningún elemento
básico –aleatorización de las muestras, control sobre las variables, realización de los test
antes y después de la prueba–, por lo que su validez interna es muy alta y permiten cierto
grado de generalización.

3. En tercer lugar, y de acuerdo con el instrumento de aplicación del estímulo y medición,


los experimentos se suelen dividir entre objetivos y subjetivos:

◦ Los objetivos hacen uso de aparatos, instrumentos o software especializados (máquinas,


programas, etc.) que permiten la administración de estímulos, el registro de las
reacciones y, en algunos casos, incluso el análisis de los efectos. Se consideran técnicas
objetivas puesto que el experimentador no puede controlar ni los estímulos ni los
resultados que arroja la máquina. Tampoco el sujeto experimental puede modificar su
respuesta a voluntad, por lo que estas estrategias son muy comunes a la hora de
investigar las reacciones físicas o las cargas emotivas que generan determinadas
campañas publicitarias, o los modos de percepción y lectura de prensa impresa o digital.
Entre los instrumentos más utilizados en el ámbito comunicacional destacan el polígrafo,
el polirreactígrafo o el taquitoscopio, entre otros.

◦ Por su parte, los experimentos subjetivos, también denominados proyectivos, consisten


en el suministro de algún estímulo (por ejemplo, mostrar dibujos, tarjetas o un grupo de
palabras o conceptos) para que el individuo o el grupo responda mediante descripciones,
asociaciones de ideas o narraciones. De esta forma, los sujetos se proyectan con sus
respuestas hacia alguna dirección que ofrece indicios útiles para la investigación,
evidenciando, por ejemplo, actitudes y prejuicios, comportamientos grupales o rasgos de
la personalidad. Aunque el listado de técnicas proyectivas es extenso, en el ámbito de la
comunicación son habituales los listados de palabras o adjetivos, las técnicas de role-
playing o las estrategias para la estimulación del recuerdo frente a determinadas
variables independientes. Por otro lado, es posible manipular determinados aspectos del
contenido de los medios (como el tratamiento o frame de una noticia, su ubicación en
una determinada sección, los elementos narrativos o personajes de un guión televisivo).
También es posible jugar con los aspectos técnicos de una noticia o un producto de
ficción, manipulando planos y movimientos de cámaras, o introduciendo determinados
efectos especiales.

5
Unidad 6. Conocer las reacciones: experimentar en comunicación

4. En cuarto lugar, en relación con el número de variables independientes que se


manipulan, se suele distinguir entre:

◦ Los experimentos univariables, en los que se analiza la reacción frente a una única
variable independiente.

◦ Los experimentos factoriales, en los que se mide la influencia causal de más de un


estímulo. En esta tipología, se puede verificar no solo los efectos de las distintas
variables, sino también de la propia interacción multiplicativa que se puede dar entre
ellas. Un tipo habitual de experimento factorial es el denominado diseño tipo 2 x 2, en el
que se conforman cuatro grupos: dos experimentales y dos de control. A uno de los
grupos experimentales y a uno de control se los mide antes y después de la aplicación
del tratamiento, mientras que al resto de los grupos se los evalúa una sola vez, al
concluir la aplicación del estímulo.

5. En quinto lugar, de acuerdo con el momento en el que se realizan las observaciones, cabe
distinguir entre:

◦ Los diseños que realizan una sola medición (generalmente un postest basado en
encuestas o entrevistas).

◦ Y aquellas que combinan pretest –antes de aplicar la manipulación– y postest –justo


después–. Esta última estrategia es más compleja que las anteriores, aunque garantiza
mediciones más precisas. No obstante, su inconveniente es que los sujetos
experimentales perciben más que nunca la finalidad del estudio, lo que aumenta los
sesgos de reactividad. En cualquier caso, estos sesgos pueden controlarse introduciendo
en los test preguntas para despistar o no estrictamente relacionadas con el objeto de
investigación. En los laboratorios también suele ser habitual obtener mediciones en
tiempos intermedios –es decir, durante la realización del experimento– o en series
temporales, o intervalos regulares cada cierto tiempo.

6. En sexto lugar, de acuerdo con el grado de ocultación de los objetivos del experimento, es
habitual distinguir entre:

◦ Experimentos abiertos, en los que existe una manipulación visible y directa –


mediante instrucciones verbales, a partir de juegos, o con el uso de una máquina–.

6
Unidad 6. Conocer las reacciones: experimentar en comunicación

◦ Experimentos encubiertos, en los que se ocultan las intenciones o en los que el


investigador se camufla haciéndose pasar por uno más de los sujetos experimentales
para plantear la manipulación desde ese rol. Esta última estrategia es altamente
efectiva, puesto que se evitan los sesgos de reactividad. Sin embargo, tiene
numerosos condicionantes éticos.

7. En séptimo lugar, de acuerdo con el número de individuos que participan en el


experimento, se diferencia entre:

◦ Los experimentos individuales, generalmente en laboratorio y en los que se emplean


instrumentos como el polígrafo.

◦ Los experimentos con grupos, en los que se pueden verificar interacciones o


mecanismos de conformación de liderazgos a partir de técnicas de simulación
(dinámicas grupales o técnicas de dramaturgia) o mediante la aplicación de instrumentos
especializados.

8. Por último y de acuerdo con el número de grupos que conforman, suele hablarse de:

◦ Experimentos intrasujetos, que, como su propio nombre indica, se realizan con un


solo grupo al que se aplica una sola variable independiente.

◦ Experimentos intersujetos, que son mucho más efectivos y que se corresponden


con los experimentos controlados, a saber, a partir de la conformación aleatoria de
dos grupos diferentes de sujetos relativamente homogéneos (experimental y de
control) a los que se aplican estímulos diferentes a fin de contrastar efectos.

6.4. EL DISEÑO PRÁCTICO DEL EXPERIMENTO

En cualquier experimento conviene tomar decisiones y precauciones acerca del entorno de


aplicación, el número de variables independientes aplicadas o la propia selección muestral. Algunos
de los requisitos más importantes a la hora de plantear adecuadamente un experimento son:

1. Cuando manipulamos una o más variables independientes es posible medir valores como la
presencia-ausencia o la intensidad. Con presencia/ausencia nos referimos a comprobar el
efecto que produce la introducción de una variable independiente sobre un grupo
experimental, lo que se garantiza si conformamos un grupo de control al que no se expone al

7
Unidad 6. Conocer las reacciones: experimentar en comunicación

estímulo o al que se aplica una variable distinta. Si en ambos grupos se dan reacciones
diferenciadas, nos encontramos frente a la presencia efectiva de la variable independiente
como factor explicativo y, en este caso, tendremos certeza de la fiabilidad de la prueba. Por
su parte, los investigadores también pueden medir la intensidad, o grado de actividad,
penetración o fuerza de una variable. En este sentido, es posible manipular en cantidades o
grados (diferentes potencias, duraciones) a fin de determinar si las distintas intensidades
provocan reacciones diferenciadas en el objeto de estudio. Por ejemplo, desde la teoría del
cultivo (Gerbner y Gross, 1976) se plantea que los efectos dependen, más que del contenido,
del número de horas que un espectador consume diariamente la televisión, concluyendo que
los espectadores con exposiciones más prolongadas y a partir de cuatro horas al día tienen a
desarrollar creencias similares a las retratadas en la televisión y una percepción mayor de la
inseguridad y la violencia que la que mantienen los consumidores menos activos.

2. Medir con precisión si la variable dependiente es directamente afectada por la


independiente o por factores contaminadores o extraños, por lo que se recomienda una
planificación muy detallada de la metodología a fin de validar resultados y desestimar
posibles efectos acumulativos y a largo plazo. Estos últimos son muy difíciles de verificar
con un simple experimento y requieren de enfoques diacrónicos o de un mayor aparataje
metodológico y en relación con costos. Nos referimos, en particular, a estudios que abordan
los efectos de socialización de la televisión sobre los niños o adolescentes, o a determinados
fenómenos de masas que no son causado por uno sino por múltiples factores (por ejemplo,
conformación de la opinión pública).

3. Garantizar la validez interna de la situación experimental, que está relacionada con un


conocimiento exacto de la interacción y secuencia temporal entre las variables
independientes y dependientes, así como con la vigilancia de los factores extraños que
pueden invalidar la metodología. En este caso, el control se garantiza mediante la
comparación de distintos grupos experimentales (dos como mínimo) y eliminando
explicaciones como acontecimientos inesperados que ocurren durante el desarrollo de la
prueba, actitudes de los participantes derivadas de la larga duración de un experimento,
como el cansancio; alteraciones o errores en los instrumentos de medición, o problemas en
la selección de la muestra y los sujetos, de tal modo que no sean representativos ni
comparables. Por último, es común la denominada mortalidad experimental, o pérdida
paulatina de participantes en los grupos analizados, en especial cuando los experimentos se
prolongan en el tiempo y abarca diferentes sesiones.

8
Unidad 7. La información digital

Esta Unidad 7 corresponde al Capítulo 7. Examinar las dinámicas periodísticas: de la prensa


escrita a la información digital del manual Eiroa, M. y Barranquero, A. (2017). Métodos de
investigación en la comunicación y sus medios. Madrid: Editorial Síntesis (pp. 143-164).

7.1. PROBLEMÁTICAS Y PROPUESTAS METODOLÓGICAS

Aunque en la presente unidad se haga un mayor hincapié en el área periodística, téngase en cuenta
que los aspectos y métodos a continuación indicados pueden aplicarse a las investigaciones
relacionadas con el ámbito de la comunicación.

Dicho esto, las investigaciones iniciales sobre el pasado informativo se realizaron, en su mayor
parte, con un diseño de carácter descriptivo y caracterizado por una profusión de nombres, datos y
fechas, desde una perspectiva erudita y de élite. No obstante, y una vez que se han elaborado
catálogos o repertorios de referencia histórica, es ineludible aplicar métodos que permitan conocer
el periodismo en profundidad, lo que implica un acercamiento a las particulares relaciones y
dinámicas que se dan entre sus autores, sus formas de producción, sus conexiones del poder o la
influencia en la sociedad donde se inserta.

7.2. LA PRENSA ONLINE: CARACTERÍSTICAS Y APROXIMACIÓN A SU ANÁLISIS

Desde finales del siglo XX, asistimos a la incorporación paulatina de Internet a los entornos
laborales, educativos o de ocio. Sus usos y potencialidades han provocado desde entonces
innumerables debates que tienen por objeto conocer las transformaciones que estas tecnologías
provocan en el ámbito de la comunicación, y en los nuevos modos de producción, distribución y
consumo informativo. De hecho, desde mitad de la década de 1990, algunos teóricos vienen
hablando del nacimiento de un nuevo tipo de periodismo: el denominado ciberperiodismo, al que
podría definirse genéricamente como aquel que se produce directamente en Internet y para las redes
digitales. En el caso español, en septiembre de 1994 comenzó a publicarse a diario la versión digital
del Boletín Oficial del Estado, un dato que no es una mera anécdota, sino que supone el punto de
partida de una nueva historia de la prensa española, en este caso desde las lógicas renovadoras que
impone la World Wide Web. Desde entonces, buena parte de las grandes cabeceras del país se han
ido sumando al universo digital, un cambio que también es apreciable en el ámbito de medios
audiovisuales como la radio y la televisión, que han transformado sus dinámicas productivas
transitando en pocos años desde lo analógico a lo digital.

1
Unidad 7. La información digital

Las aportaciones teóricas y los planteamientos metodológicos sobre los denominados cibermedios
pronto comenzaron a proliferar, e incluso se ha debatido en torno a la denominación más precisa
para el nuevo periodismo que emerge con los soportes electrónicos: desde periodismo electrónico y
digital al periodismo online, el e-periodismo o el ciberperiodismo, este último término como una
derivación de las conceptualizaciones acerca del ciberespacio. En España, la primera catalogación
de medios en Internet fue realizada por Armañanzas, Díaz-Noci y Meso (1996), mientras que la
obra Medios de comunicación en Internet (Meso y Díaz-Noci, 1997) propuso un repertorio de los
primeros cibermedios. Desde entonces, han sido mucho los autores dedicados a estudiar este
complejo fenómeno, incluso desde un enfoque retrospectivo. Así, los distintos estudios han
comprobado la notable transformación registrada en un corto periodo de tiempo a partir del uso de
las tecnologías derivadas de la web 2.0 y sus potencialidades para la interacción y la participación
en forma de social media o redes sociales. Por su parte, la crisis económica iniciada en el año 2008
acabó con algunos medios publicados en soporte papel al tiempo que incrementaba el número y la
penetración de los digitales, unos medios con menor coste económico y menores limitaciones
materiales. A todo esto cabe sumar que estallidos sociales recientes como el 15M han provocado un
nuevo revival de las plataformas de comunicación alternativa, entre las que cabe destacar el
surgimiento de nuevas cabeceras, radios, televisiones, así como el uso periodístico de plataformas
como YouTube, Bambuser o Vimeo.

La aparición de los cibermedios ha transformado en pocos años todas las dimensiones del proceso
de producción, distribución o recepción informativas, desde el perfil profesional del periodista a las
propias estructuras empresariales, pasando por formatos, lenguajes, géneros o nuevos modos de
relación con las audiencias. Por un lado, la televisión ha fragmentado poco a poco su oferta para
adaptarse a una audiencia cada vez más especializada y que demanda servicios interactivos e
individualizados. Por su parte, la radio ha registrado cambios más modestos en relación con la
tecnología digital, si bien ha renovado sus prácticas a partir de la incorporación de podcasts o los
nuevos modos de participación que facilitan las redes sociales y los soportes tecnológicos.

En lo que respecta a los periódicos online, las continuas innovaciones introducidas desde mitad de
la década de 1990 exigen un análisis del fenómeno con técnicas adecuadas a su naturaleza digital y
su carácter cambiante. Si en un principio se trató del simple volcado a los diarios tradicionales al
soporte online, las investigaciones contemporáneas han de enfrentarse a formatos híbridos e
innovadores que han llegado a constituir modos bien distintos de comunicar la información al gran
público y que abren camino inevitable hacia la transdisciplinariedad y la triangulación
metodológica.

2
Unidad 7. La información digital

Las características básicas de los nuevos medios son:

1. La multimedialidad: convergencia o integración de diferentes medios en uno solo: texto,


imagen y sonido.

2. La hipertextualidad: conjunto de enlaces que conducen al usuario a otros espacios en los


que encontrar información suplementaria a la buscada, habilitando en paralelo un modo de
lectura distinta y no secuencial.

3. La interactividad: definida como la posibilidad de relacionarse con otros usuarios y con la


información misma.

4. La actualización constante de la información: consiguiendo cotas mayores de inmediatez


y continuidad que las proporcionadas hace unos años por la radio y la televisión analógicas.

5. La personalización, que permite acceder a los usuarios a contenidos diferenciados y


adaptados a sus particulares intereses y necesidades.

Algunos autores han añadido a este esquema la memoria, relacionada con el espacio ilimitado que
proporciona Internet de cara al almacenamiento de informaciones y archivos digitales, un rasgo que
facilite la posibilidad de acumular grandes cantidades de datos (big data) susceptibles de ser
recuperados de manera instantánea y acumulativa. Estas características abren un panorama muy
complejo para la investigación venidera, que contempla cómo se multiplican los elementos de
análisis y los problemas susceptibles de abordaje. Las ventajas que Internet ofrece en cuanto al
incremento de los datos y las nuevas posibilidades de acceso a la información tienen algunas
contrapartidas:

1. Identificación. Se refiere a cuestiones relacionadas con su tipificación e individualización,


es decir, qué medios son los nuevos, cuáles aparecen y cuáles se desvanecen.

2. Localización. ¿Cómo encontrar los nuevos medios? ¿Cuáles son sus direcciones
electrónicas si ignoramos su existencia?

3. Volatilidad. Los nuevos medios a veces desaparecen o cambian de dirección. Por su parte,
los buscadores no han unificado criterios respeto a cuántos y cuáles son los medios que
existen en Internet. Las condiciones y naturaleza de la red ofrecen una contradicción para la
investigación: por un lado tenemos más medios que nunca y con un mejor acceso, pero, por
otro lado, su extrema fluidez limita conseguir una información precisa que ayude a elaborar
censos fiables por parte de investigadores, profesionales o instituciones reguladoras.

3
Unidad 7. La información digital

4. Multipicidad de versiones. La actuación mediante la lógica del cierre continuo, es decir, la


actualización, perjudica el conocimiento de la versión definitiva de una noticia e impide
conocer el transcurso de las ediciones.

5. Introducción de nuevos elementos. Entre otros, los vinculados a la participación del


usuario en el medio, que obligan a la reestructuración de las herramientas metodológicas y
su adaptación a los momentos distintos de la existencia de un cibermedio.

6. Conservación. Muchos medios online, en especial los de nueva creación no han tenido en
cuenta la preservación de contenidos para las generaciones presentes y futuras y carecen de
hemerotecas digitales que permitan analizar las secuencias editoriales completas. En su
lugar, han arbitrado sistemas de búsqueda que no garantizan una investigación rigurosa por
cuanto en muchas ocasiones presentan fallos y porque no todos los medios se han dotado de
un departamento de documentación que asuma dichas tareas. Por su parte, los medios más
antiguos disponen de hemerotecas, si bien a veces resulta muy complicado extraer o
descargar la información archivada.

Estas limitaciones afectan, entre otros, a los estudios retrospectivos de los cibermedios, que se
enfrentan a importantes limitaciones derivadas de la dificultad de hallar las distintas versiones y las
colecciones completas. En definitiva, los instrumentos de análisis deben tener en cuenta estas
limitaciones y aprovechar todas las posibilidades informativas y cognitivas que dichos medios
ofrecen.

7.2.1. Propuestas metodológicas para los medios digitales

Al igual que en otros objetos de estudio, los métodos cualitativos y cuantitativos son factibles de
aplicación a los medios online, si bien con matices diferenciadores debido a las potencialidades y
limitaciones antes señaladas. Las técnicas metodológicas deben ser capaces de afrontar todo el
proceso de la producción informativa digital, así como ahondar en las nuevas lógicas de producción
de los mensajes y las formas renovadas de interacción con los usuarios. Por otra parte, cabe abordar
la investigación desde disciplinas muy diversas o los propios enfoques que han prevalecido en la
investigación mediática y periodística: el sociológico, el jurídico, el empresarial, lingüístico,
semiótico, morfológico e incluso historiográfico.

Una cuestión fundamental a la hora de estudiar las nuevas dinámicas consiste en definir cuáles son
las unidades de análisis, teniendo en cuenta que la estructura de los medios online es hipertextual y

4
Unidad 7. La información digital

que su elemento básico es el hipervínculo, que permite moverse entre distintos documentos y nodos.
La investigación también debe incorporar la nueva dimensión participativa que ofrecen los
cibermedios, caracterizada por una colaboración cada vez más activa de los usuarios en relación con
el medio, que ha dado lugar a la popularización de términos como el de prosumidor (prosumer), un
consumidor que colabora con sus comentarios y contenidos en la construcción del medio. Por
último, hay que añadir, asimismo, las profundas transformaciones visuales, sonoras o audiovisuales
que incorporan los nuevos medios, que constituyen en sí mismas unidades de análisis.

En relación con la investigación de los nuevos entornos digitales, Rodríguez-Martínez, Codina y


Pedraza-Jiménez (2010) han propuesto el examen de tres tipos distintos de indicadores: en primer
lugar, los indicadores generales como la accesibilidad, la visibilidad, la popularidad y los puntos de
acceso a la información de cada web. En segundo lugar, plantean el examen de veintitrés
indicadores internos agrupados en tres categorías que examinan la profundización en la
información, el tipo de herramientas de interacción y la personalización informativa. Por último,
incluyen indicadores específicos externos, es decir, los que se encuentran vinculados a estos
medios, pero no aparecen en sus propios sitios web, como las nuevas plataformas 2.0 y los distintos
servicios especializados en el alojamiento y la difusión de contenidos, como los vídeos de YouTube
o los bancos de imágenes, muestra de la tendencia de las empresas informativas a captar usuarios y
a generar una comunicad en torno a ellos. Asimismo, ha de tenerse en cuenta el examen de las
cuestiones técnicas, los elementos de la noticia, las fuentes, los temas y su prelación, así como la
estructura organizacional, es decir, la relación de periodistas digitales que participan en la
elaboración de contenidos, los colaboradores y directivos. De todo ello se deduce la posibilidad de
aplicar la observación online como punto de partida y como método en sí mismo, creando
herramientas de análisis basadas en la combinación de las clásicas fichas hemerográficas a las que
cabe agregar todos los nuevos elementos digitales.

Los investigadores deben construir sus propias fichas de análisis a fin de configurar y administrar
estudios sincrónicos y diacrónicos de los medios y sus contenidos.

El estudio de la prensa online y las nuevas potencialidades informativas que esta conlleva –como
los cambios en la producción y arquitectura de la información, la cobertura de la realidad social, la
calidad, credibilidad y gestión de los contenidos, la difusión, el diseño, la rentabilidad, la
participación e interactividad, etc.– exigen la utilización de metodologías adaptabas al entorno
virtual. En cualquier caso, y dependiendo de los objetivos, se podrían aplicar versiones del análisis
de contenido, las entrevistas en sus distintos tipos, los focus groups, los estudios de caso, las

5
Unidad 7. La información digital

encuestas o cálculos cuantitativos de diverso tipo. Estas técnicas requieren una perspectiva
actualizada que implique acomodaciones al soporte digital y a la utilización de las nuevas
tecnologías infocomunicacionales, desde el correo electrónico a Skype, los foros de discusión o las
redes sociales.

Los nuevos medios se organizan en torno a una estructura nodal que facilita la lectura al usuario y
esta estructura de la noticia ha de analizarse con herramientas enfocadas a las dimensiones internas
de los cibertextos, los elementos que componen los nuevos discursos multimedia, consideraciones
en relación con el estilo, etc.

Los recursos hipertextuales requieren, asimismo, un análisis observacional que detecte el tipo de
enlace y su estructura a fin de ofrecer datos acerca del destino, el propósito y la tipología de dichos
enlaces. Por otra parte, ha de tenerse en cuenta que se trata de un texto interactivo, no es secuencial
y multilineal, con un encadenamiento de lectura variable que conlleva una desestructuración de los
textos tradicionales y que permite al usuario transformar el orden de la lectura.

6
Unidad 9. Investigación sobre Internet y las plataformas digitales

Esta Unidad 9 corresponde al Capítulo 8. Investigación sobre Internet y las plataformas


digitales del manual Eiroa, M. y Barranquero, A. (2017). Métodos de investigación en la
comunicación y sus medios. Madrid: Editorial Síntesis (pp. 169-189).

9.1. BÚSQUEDAS Y EXPLORACIÓN EN EL ENTORNO ONLINE

No es igual analizar una web que un chat o un foro, aunque en todos los casos es necesario partir de
búsquedas en los motores creados para tales aplicaciones a fin de ordenar la información que
proporcionan las gigantescas bases de datos presentes en Internet. Google se ha convertido en el
buscador más extendido, seguido de Yahoo o Bing. A este panorama cabe añadir los dedicados a la
denominada Internet profunda o Deep Web como Yippy; buscadores de buscadores como
WebCrawler y Google Web Search que examinan la información existente en enciclopedias,
diccionarios y tesauros; Google Advanced Search, que permite una búsqueda profunda de filtros
temáticos, geográficos y cronológicos, o buscadores académicos especializados como Google
Scholar.

Los motores de búsqueda sólo pueden decodificar las palabras clave que introducen los usuarios,
pero no pueden interpretarlas ni tener en cuenta los diferentes sentidos que adquieren en los
diferentes contextos. En su lugar, los buscadores rastrean las páginas en función de la frecuencia de
consulta y la localización de términos formales. Por otra parte, los resultados de las búsquedas se
adecuan a los rastreos del recorrido personal del usuario en Internet, es decir, están basados en el
historial, la localización y, en consecuencia, en cierta personalización.

Algunos de ellos, especialmente Google, cuentan con servidores de aplicaciones que aparecen
siempre entre los primeros lugares en las páginas web, como Google Maps, Google Images, Google
News o Google Ngram. Trabajar con los buscadores supone, por tanto, interactuar con instrumentos
que poseen mecanismos de selección y ordenación de una lógica mecánica que es necesario
conocer. Cuando estos no permiten el acceso a un documento, una opción que soluciona el
problema al File not found es acudir al archivo de Internet en su recurso Wayback Machine, que
proporciona al usuario la posibilidad de consultar y descargar materiales que ya no están activos o
accesibles.

Las investigaciones realizadas en este entorno digital han de ser concebidas con un diseño de
carácter exploratorio. Los elementos factibles de investigar van más allá de páginas web, puesto
que también nos encontramos con:

1
Unidad 9. Investigación sobre Internet y las plataformas digitales

• Portales o centros web.


• Websites especializados.
• Bases de datos, repositorios y directorios.
• Medios de comunicación online.
• Documentos oficiales.
• Servicios e información de organizaciones privadas.
• Redes sociales.
• Webpages personales y blogs.
• Listas de distribución, foros y grupos de discusión.

Sin embargo, no todo está accesible en el dominio público con un simple clic ni en sistema Open
Access. Más bien encontramos importantes limitaciones a las búsquedas y la consulta de la
documentación virtual, restringidas, entre otros factores, por derechos de autor, contraseñas,
requerimientos de suscripción, decisión de los emisores de excluir documentación de los motores de
búsqueda, etc. Estos materiales forman parte de la denominada Deep Web.

El procedimiento para investigar en Internet de forma sistemática sigue el método científico, es


decir, la definición de unos objetivos, la selección de un objeto de estudio, el planteamiento de
hipótesis, etc. En este ámbito virtual es necesario delimitar el objeto de estudio con mayor
concreción debido a la inmensidad de materiales y direcciones que ofrece la red, así como por el
desorden en el que aparece recogida la información. Una fórmula práctica para la búsqueda de
materiales y el objeto de estudio sería la siguiente:

1. Concretar el tema objeto de investigación y su descripción mediante palabras clave


(keywords), tesauros, listados taxonómicos o categorías que reduzcan la búsqueda.

2. Utilizar varios motores de búsqueda que proporcionen información de diferentes bases de


datos.

3. Revisar las opciones que ofrecen los buscadores. Si estos devuelven demasiadas respuestas
es necesario agregar más palabras clave para reducirlas y con el objeto de encontrar los sites
que más convengan. Si, por el contrario, restituyen pocas respuestas, se sugiere disminuir o
borrar las palabras clave o sustituirlas por otras.

4. Utilizar las opciones de “búsqueda avanzada”. Estas suelen incluir combinaciones de


palabras clave, operaciones booleanas (and, or, not, etc.), idiomas, fechas y otros filtros que
van restringiendo las posibilidades hasta encontrar lo que buscamos.

2
Unidad 9. Investigación sobre Internet y las plataformas digitales

5. Comenzar por websites o portales reconocidos y fiables, que estén especializados en el


tema objeto de investigación.

6. Comprobar la credibilidad y fiabilidad de los resultados a través del análisis de datos


como la identificación de la autoridad o responsable, la actualización o fecha de creación y
edición, la cobertura o temas que se abordan, y la diversidad de fuentes o información que
muestran.

7. Elaborar una base de datos con los hallazgos rastreados, especificando la fecha de la
consulta, su identificación, la URL de su ubicación y cualquier información que pueda ser
útil.

Existen algunas herramientas de software que ayudan en las tareas de investigación como Zotero o
Pundit. Uno de los elementos que conviene considerar en la investigación sobre la websphere es la
naturaleza dinámica de los sitios que incluye. Así, los websites pueden funcionar como unidades de
análisis micro, pero pueden llegar a convertirse en unidades macro con importantes cantidades de
datos. El análisis de la esfera web debe ser, por tanto, acometido con una estrategia que incluya el
análisis de las relaciones entre productores y usuarios de materiales digitales, los hipertextos y los
enlaces establecidos entre ellos.

9.2. APROXIMACIÓN A LA INVESTIGACIÓN DE LOS FORMATOS DIGITALES: LOS


BLOGS

Un formato que se ha popularizado mucho en Internet es el blog o weblog. La facilidad de su


gestión ha animado a miles de usuarios a la creación de unos lugares virtuales que persiguen
objetivos distintos: comerciales, autopropagandísticos, didácticos, reinvindicativos, políticos,
culturales, opinativos o informativos. En ellos es posible encontrar temas muy variados, son en su
inmensa accesibles en el recurso Blog Search Engine, y han ido conformando progresivamente un
mundo que une a millones de usuarios: la denominada blogosfera.

Los blogs se configuran como los nuevos diarios personales del siglo XXI, unos cuadernos de
bitácora que están dotados de recursos multimedia e interactivos como herramientas de auditoría
para verificar el número y procedencia de los lectores, espacios para comentarios y debates, enlaces
a otros blogs recomendados por el autor a partir del blogroll y el calendario de las publicaciones.
Sus autores publican, artículos, anotaciones o posts (entradas) ordenados cronológicamente, siendo
visible en primer lugar el más reciente. El estilo redaccional desenfadado y divulgativo y las

3
Unidad 9. Investigación sobre Internet y las plataformas digitales

posibilidades de la interactuación facilitan el diálogo con los seguidores. En Bitacoras.com se


publican informes anuales sobre la comunidad bloguera y los posts más comentados.

En el planteamiento de una investigación sobre estos diarios virtuales ha de tenerse en cuenta, en


primer lugar, su emisión y su finalidad a fin de conocer el propósito y la fiabilidad del responsable.
Dependiendo de los objetivos de la investigación, en la fase inicial del método es necesario
delimitar el periodo de análisis y el número de posts analizados. Por otra parte, la configuración
técnica tiene una estructura fijada de antemano por los propios servidores que ofrecen las plantillas,
como Wordpress o Blogger. Sin embargo, algunos bloggeros introducen elementos personalizados,
en cuyo caso habría que examinar cuáles son los componentes novedosos implantados en esos
cuadernos digitales.

Las características de un blog llevan inevitablemente a la triangulación de métodos cualitativos y


cuantitativos a fin de ofrecer una visión exhaustiva de su estructura y contenidos. La aplicación,
por ejemplo, del análisis de contenido, mostraría resultados cuantitativos acerca del promedio de
entradas diarias o semanales, la extensión y palabras predominantes en los posts, los temas
abordados, los comentarios recibidos, así como los hiperenlaces y recursos multimedia. Pero estos
datos también se pueden complementar proporcionando información acerca del estilo redaccional,
la materia de especialización o el nivel de interactividad entre blogueros y usuarios.

La observación online y la netnografía también pueden contribuir a la investigación con


elementos de carácter cualitativo que refuercen los resultados del análisis de contenido. Así, por
ejemplo, el análisis de la usabilidad podría realizarse con la aplicación de la técnica observacional,
para lo cual habría que categorizar los elementos identitarios, la temática de las entradas, el número
de seguidores y visitas, etc.

Igualmente, el uso de entrevistas estructuradas online u offline sirve para complementar y


contrastar los resultados obtenidos de las otras técnicas, además de aportar respuestas sobre la
experiencia subjetiva del emisor.

9.3. APROXIMACIÓN A MÉTODOS DE INVESTIGACIÓN DE LAS REDES SOCIALES

El avance de la tecnología y el desarrollo de dispositivos técnicos han propiciado la creación de


nuevos sistemas de comunicación como las redes sociales, denominadas en inglés social media, que
son plataformas de intercambio comunicativo en las que los usuarios se convierten, a su vez, en
productores de contenidos o pro-users. La llegada de la web 2.0, o web social, ha fomentado que

4
Unidad 9. Investigación sobre Internet y las plataformas digitales

millones de personas accedan a unas plataformas que amplían las posibilidades de interacción del
pasado y proporcionan usos tan diferentes como foros y grupos de discusión, videojuegos online,
microblogs, etc.

En la actualidad, las redes sociales son estructuras virtuales compuestas por personas conectadas
por intereses comunes y que comparten todo tipo de contenidos de acuerdo con relaciones de
carácter familiar, profesional, de amistad, ideológicas, etc. Éstas cumplen a su vez un número
importante de funciones complementarias a las relaciones interpersonales y la vida offline, tales
como la informativa, la cohesión social, el apoyo emocional, etc. No difieren mucho de las redes
naturales en cuanto a su composición y comportamiento y tienen su origen en la necesidad de
agrupación y de sociabilidad de los seres humanos. Actualmente, la interactividad es una
característica inherente a estos nuevos formatos web 2.0. Asimismo, el ámbito de lo público y lo
privado tiende a diluirse en las redes.

Existen numerosas redes sociales en función de sus objetivos: desde las más generales a las
especializadas, y desde aquellas que tienden a un uso profesional y académico (Academia.edu o
ResearchGate) a aquellas que se dedican a compartir noticias sociales generadas por sus miembros
(NowPublic o Reddit). Entre las más conocidas y con mayor número de usuarios figuran: Badoo,
Facebook, Flickr, Google+, Hi5, Instagram, linkedIn, MySpace, Pinterest, Tumblr, Twitter,
YouTube y Snapchat.

Estos grandes espacios virtuales de interrelaciones sociales resultan de una gran complejidad y
exigen la búsqueda de métodos de investigación que permitan determinar las especificidades de
cada comunidad virtual y lo que en ellas acontece: quiénes son sus responsables, cuáles son sus
actividades, qué tipo de interacción establecen los usuarios, qué lazos emocionales o ideológicos
crean, etc. También es necesario tener en cuenta que no existe un universo de redes sociales
desvinculado de los medios tradicionales que las preceden –cibermedios o radio digital–, puesto
que muchos de sus contenidos proceden de los medios.

Una técnica metodológica extendida para el estudio de las redes es la etnografía virtual propuesta
por Christine Hine (2000). Esta técnica pretende estudiar el conjunto de conexiones que se
establecen entre los diferentes espacios online y offline donde se desarrolla un determinado
fenómeno, es decir, entre los discursos y las actuaciones generados en el territorio virtual y los que
se practican en la vida cotidiana.

5
Unidad 9. Investigación sobre Internet y las plataformas digitales

Kozinets (2009) en sus estudios sobre marketing sustituyó el término por el de netnografía (de la
combinación de network y ethnography), una técnica de observación participante online que
posibilita la interpretación y la comprensión de los mensajes e interactuaciones que se dan entre los
usuarios de estas redes. La netnografía implica la participación continuada del investigador en los
escenario virtuales donde tienen lugar las actividades objeto de estudio, y es a partir de esta
participación como se obtienen conclusiones sobre el funcionamiento y los intereses de los
colectivos implicados, entre los que se pueden percibir las siguientes actuaciones (Turpo, 2006):
1. Establecer relaciones con los miembros del colectivo virtual.
2. Estudiar sus símbolos, normas y lenguaje.
3. Identificar a los miembros que integran la comunidad para comprobar sus perfiles
actitudinales, desde la detección del líder a los usuarios pasivos o aquellos que comparten
actividad de manera puntual.

Por otra parte, estudiar una comunidad digital con este método –ya sea aquella que es solo virtual o
la que comparte virtualidad y realidad– supone considerar tanto las interacciones sociales como las
propias herramientas de la mediación: mailing lists, chats, foros, etc. Dependiendo del social
media estaremos entonces ante distintos tipos de conexiones implícitas o explícitas, como pueden
ser los likes, follows, favorites, mentions, answers, mensajes instantáneos o e-mail. Una herramienta
que permite medir la influencia de un determinado usuario en las redes sociales es Klout, un
software gratuito que utiliza distintos indicadores para comprobar las interacciones, la vida social o
la popularidad que se da en cada red.

El proceso metodológico de la netnografía se inicia como el resto de métodos, es decir, con la


definición de unos objetivos y la delimitación del objeto de estudio. La definición de palabras
clave es fundamental para encontrar y registrar aquellas expresiones o temas que sean de interés.
Dependiendo de los objetivos, se puede seleccionar una muestra de los resultados obtenidos hasta
obtener un panel manejable y representativo de comunidades virtuales. A continuación, procede
tomar decisiones acerca de la duración que tendrá la fase de recogida de datos y la creación de una
herramienta para su almacenaje y posterior análisis. De nuevo, serán los objetivos los que
determinen si es convenientes hacer un seguimiento prolongado durante algunos meses o recoger
una muestra polietápica o en varios momentos distintos. Sea cual sera la duración elegida, es
necesario rastrear las actividades de los grupos y guardar los contenidos en una base de datos
creada al efecto. Muchas investigaciones sobre redes sociales y los formatos virtuales necesitan
recurrir a técnicas metodológicas offline a fin de completar la información compartida en el entorno
online, tales como las entrevistas, las encuestas y los focus groups.

6
Unidad 9. Investigación sobre Internet y las plataformas digitales

Cuando se ha finalizado la fase de recolección de información, se procede al análisis de los textos o


el material difundido a fin de comprobar cuáles han sido sus contenidos e interactuaciones. Los
resultados son, al mismo tiempo, cuantitativos y cualitativos, puesto que pueden derivar en datos
numéricos sobre las relaciones virtuales, pero también en apreciaciones de carácter más
interpretativo acerca de las opiniones o la profundidad del discurso. Asimismo, conviene comprobar
la credibilidad y fiabilidad de los discursos de quienes solo se conocen por su nombre online que, en
muchas ocasiones, no es el nombre real sino un nickname.

Los estrategas del marketing y las empresas comerciales se interesan en el estudio de redes sociales,
puesto que estas muestran información sobre las pautas de consumo y las tendencias que orientan
sobre las posibles ventas de artículos y servicios. Asimismo, los medios de comunicación utilizan
las redes como fuentes informativas, especialmente Twitter.

Un tipo de red social general y muy habitual en los medios de comunicación es el foro de
discusión, objeto de estudio en la investigación online, tanto en su versión de comunicación
sincrónica –la realizada en tiempo real entre usuarios de diversos contextos geográficos– como
asincrónica –la más habitual–. Esta última se caracteriza por un discurso más reflexivo y
estructurado que la primera, puesto que no hay presiones entre los usuarios sobre la instantaneidad
de las respuestas. En estos espacios de debate virtual se accede para conocer, producir, intercambiar
y discutir conocimiento sobre una temática de interés común. Están gestionados por un moderador
encargado de coordinar, autorizar la entrada de usuarios, dinamizar la actividad del grupo y la
aplicación informática. Las características de los foros implican un proceso de investigación
vinculado a la netnografía en el que es necesario prestar atención a sus diferentes elementos para
poder llevar a cabo su análisis:
• La figura del moderador.
• El perfil de los participantes.
• Participación y actividad de los participantes.
• Contenidos de las discusiones.
• Participación y actividad fuera del foro (e-mail o chats).

Una vez seleccionados los aspectos que se desea observar, los investigadores recopilan y
categorizan las contribuciones realizadas por los participantes en el foro. Para ello se puede aplicar
el análisis de contenido o la observación documental y realizar diversas combinaciones para
determinar la dinámica, el valor de las contribuciones individuales, la frecuencia de participación,

7
Unidad 9. Investigación sobre Internet y las plataformas digitales

etc. Programas como Atlas.ti o Etnograph permiten la categorización de la información textual y la


obtención de conclusiones.

9.3.1. Aproximación a la investigación de Twitter

Twitter puede ser definido como un microblog conversacional que permite encontrar información
y opinión, tanto para satisfacer necesidades individuales como para promocionar la actividad de
numerosas empresas mediáticas o comerciales. Su funcionalidad se basa en el envío gratuito de
mensajes en 280 caracteres en los que se puede vincular material multimedia e interactivo, y esta
misma brevedad facilita establecer hipervínculos con contenidos publicados en otros medios y
plataformas, así como su viralización y replique en otras redes sociales. No obstante, es tarea de los
profesionales e investigadores discernir qué informaciones son veraces, cuáles malintencionadas o
cuáles no tiene ninguna trascendencia. En este sentido, existen diversas vías para comprobar la
autenticidad de una cuenta en Twitter, como la identificación en los buscadores de los nombres e
imágenes contenidas en las cuentas.

Los elementos factibles de investigación en esta red social son múltiples y se pueden explorar tanto
en tiempo real como retrospectivo, si bien en este último caso las exigencias tecnológicas y de
costes son mayores. Entre los elementos más característicos de Twitter figuran los #hashtag, o
etiquetas de los mensajes en torno a un tema común, los trending topics, cuando un determinado
hashtag o tema tiene un tuiteado elevado y se convierte en agenda pública o tendencia social en ese
momento, el número de followers o seguidores de una cuenta determinada y el de followed o los
personajes seguidos, los mensajes escritos en 280 caracteres, así como el material textual o
audiovisual compartido.

El interés de este microblogging para la investigación, consiste, por tanto, en que se configura como
un canal privilegiado para el rastreo, captura, análisis y comprensión de los temas de nuestro
tiempo. Por otra parte, la red facilita la comunicación tanto masiva como interpersonal que, a su
vez, puede ser almacenada y proporciona información sobre las conexiones o acciones más
relevantes que se dan entre los usuarios, contribuyendo a detectar los líderes o personajes de
influencia en nuestros días. Twitter proporciona, a su vez, una información muy valiosa para
analizar las pautas de consumo y comportamiento de millones de personas, por lo que muchas
empresas también están dedicando recursos para investigar acerca de los temas y tendencias de esta
red social como estrategia para la comercialización de nuevos productos.

8
Unidad 9. Investigación sobre Internet y las plataformas digitales

La investigación sobre Twitter y sus interacciones es muy compleja. Se hace necesario, pues, el uso
de herramientas informáticas que faciliten el acceso a esta información como:
• Trendsmap: que sitúa en un mapa mundial los trending topics.
• Tweet Archivist: que permite monitorizar un hashtag, un usuario o un tema, los archiva,
analiza sus interacciones y características y los exporta en formato Excel o PDF.
• Tweet-Tag: un servicio que busca tweets por palabras clave, calcula la influencia, busca los
usuarios más participativos y monitoriza durante el tiempo que el investigador señale.
• Social Bearing: una herramienta gratuita en lque solo es necesario poner en su buscador el
nombre del usuario o hashtag que se desee analizar e inmediantemente arroja respuestas
numéricas cerca de los seguidores, los contenidos, los tweets de texto y los que llevan
enlace, las cuentas más activas, etc.
• Twipho: encuentra fotos y vídeos publicados bajo un determinado hashtag o palabra clave
mostrándolos en forma de gráfico ordenado cronológicamente. Para usarlo es necesario
entrar en Twitter e introducir la palabra clave que se desee monitorizar.
• TagBoard: ayuda a rastrear hashtags en diferentes redes sociales como Twitter, Facebook,
Instagram, Google+ o Vine y también es gratuita.

La captura y extracción de datos de Twitter se realiza tras obtener una conexión autorizada directa
con esta red. Al igual que en otras metodologías, es necesario delimitar el objeto de estudio a través
de una palabra clave, una frase un hashtag, y definir la muestra según el número de tweets que se
desea capturar o según un lapso temporal. A veces se plantea la recogida de miles de mensajes. En
ese caso es necesaria su monitorización o control informatizado de la dinámica del hasthag y de las
cuentas. Tras la extracción de datos se genera un fichero con la totalidad de las interacciones para su
análisis y visualización. Posteriormente, cabe la práctica del análisis de contenido, análisis
semióticos u otras fórmulas metodológicas.

8.4.2. Aproximación a la investigación de Facebook

Facebook se basa en la creación de páginas con perfiles de usuarios que forman redes unidas por
lazos de interés común, familiares, profesionales o de aficiones. El sistema permite compartir
imágenes, texto, vídeos y aplicaciones que pueden estar orientadas a fines publicitarios y
comerciales. Uno de los aspectos más importantes de Facebook es la creación de una identidad
personal a través de un proceso público que implica la exposición de asuntos privados al grupo de
amigos o seguidores de la cuenta. Los medios de comunicación y las empresas también han

9
Unidad 9. Investigación sobre Internet y las plataformas digitales

encontrado en esta red una vía de difusión de noticias y productos, así como de conocimientos de
la audiencia, cuya opinión resulta muy provechosa para averiguar las preferencias, tendencias de
consumo y otras pautas de comportamiento social.

Del mismo modo que en otras técnicas metodológicas, cuando emprendemos una investigación en
esta red social es necesario definir los objetivos y acotar adecuadamente la muestra. En Facebook
es viable el análisis de los perfiles personales, las interacciones que se entablan entre los
miembros de un grupo, sus preferencias, el material compartido o los me gusta o likes, que
suponen, a su vez, una ventaja informativa para las empresas. La opción de feedback entre el
emisor y el receptor favorece asimismo el conocimiento de las tendencias, el éxito de los posts, así
como el hecho de que el lector se sienta integrado en la producción informativa.

El software aplicado a la investigación en Facebook persigue capturar y almacenar los datos


digitales a fin de analizar las interacciones realizadas. Hay algunas aplicaciones específicas para
investigar en esta red social, como Social Network Importer, que realiza gráficos de las conexiones
entre personas, posts o likes, y Netvizz, una aplicación que se utiliza desde Facebook en la que se
puede extraer información de las redes personales o los propios grupos mostrando características
acerca de interacciones, perfil de usuarios y las conversaciones generadas. Con estos datos Netvizz
genera un fichero que se puede descargar para trabajar con los datos obtenidos.

8.5. La investigación de los hipervínculos

Los hipervínculos son enlaces entre las diferentes páginas web y constituyen una parte fundamental
de la www, aunque casi cualquier medio electrónico incluye en la actualidad estas forma de
hiperenlaces. Cuando el vínculo dirige a texto y a elementos multimedia se está navegando en un
espacio hipermedia e interactivo en el que se encontrarán muchos de los recursos y funciones que
aparta la red.

Existen, al menos, tres enfoques dominantes para el estudio de los hipervínculos: la teoría del
hipertexto de Landow (1994), el literario con estudio de análisis lingüísticos y textuales, y el
comunicativo, en el que se utilizan técnicas de estudio de redes sociales o análisis de contenido.

Para los investigadores en Internet y en redes sociales, los hipervínculos son, además, objeto de
análisis por los lazos que generan entre usuarios que se conectan a otro u otros, la secuencia que
establecen entre contenidos mediáticos, o la dirección unidireccional o bidireccional de la

10
Unidad 9. Investigación sobre Internet y las plataformas digitales

información que difunden. De alguna manera, los enlaces muestran las políticas de asociación de
aquellos medios, usuarios, redes sociales o cibermedios que los utilizan.

La investigación de los hiperenlaces requiere la aplicación de técnicas metodológicas complejas,


ya que la no linealidad implica desde el análisis de la bifurcación a la actuación del lector activo
ante la posibilidad de trasladarse a otros lugares virtuales o la democratización de la cultura, al
ofrecer la perspectiva de que numerosas voces informen y opinen sin tener la condición de líderes
de opinión o personajes populares. En este marco, los hipervínculos remiten al estudio de la
arquitectura informativa, en el sentido de cómo se ha organizado una determinada información a
través de los enlaces y de si esa estructura conforma una información rigurosa y fundamentada.
Asimismo, los enlaces pueden ser investigados desde los contenidos que aportan, es decir, si se
trata de mensajes que confirman la información, la amplían u ofrecen documentos gráficos que
contribuyen a la visualización del acontecimiento. En estos casos es necesaria la aplicación de
métodos utilizados por la semiótica, el análisis de contenido, el semántico o la retórica como
perspectiva descriptiva de los contenidos de un enlace.

Una técnica igualmente aplicable es la denominada text mining o minería de textos, definida como
una rama de la lingüística computacional cuyo propósito es obtener información y conocimiento a
partir de un conjunto de textos que no tiene orden o no están dispuestos en origen para transmitir
una información.

La metodología de investigación sobre la hipervinculación ha de ser necesariamente triangular, no


solo de técnicas cuantitativas y cualitativas, sino también de técnicas procedentes de distintas
disciplinas como la lingüística, puesto que el carácter exploratorio e incipiente de las técnicas de
investigación online exige una actitud abierta e interdisciplinar.

11
NOTAS Y EXPERIENCIAS

CRITERIOS PARA EVALUAR LA CALIDAD


Y FIABILIDAD DE LOS CONTENIDOS EN INTERNET

Ricardo Fornas Carrasco*

Introducción

Uno de los problemas comunes en el análisis de contenidos de Internet es la ca-


rencia de procedimientos de análisis que certifiquen la fiabilidad de los documentos
expuestos. La accesibilidad libre de los documentos a través de la Red obliga al usua-
rio a determinar que su contenido cumple con determinadas expectativas de certeza y
veracidad. No existe una verdad única y son las actitudes del usuario frente al docu-
mento las que definirán su valoración positiva o negativa. Los factores que intervie-
nen son:
1. Nivel de conocimientos y cognición del usuario, por ejemplo, su nivel educativo.
2. El contexto social en el que se desenvuelve el usuario: estructura socioeconó-
mica en la que se incluyen la estratificación social o las creencias.
Respecto a los profesionales de la información, no proliferan estudios suficiente-
mente representativos sobre la evaluación de los contenidos de Internet. Mencionare-
mos una encuesta elaborada por la compañía OutSell (1). Una de sus conclusiones más
interesantes, que se refleja en el cuadro 1, es que la fiabilidad y calidad de los docu-
mentos no está necesariamente ligada a los servicios de pago o de valor añadido fren-
te a los de libre acceso.
Cuadro 1
Cuestionario Gratis De pago

¿Qué servicios proporcionan mayor calidad en la información? 44% 47%


¿Qué servicios proporcionan información que es utilizada en la toma
de decisiones? 38% 52%
¿Qué servicios proporcionan información que es utilizada en la toma
de decisiones diarias? 74% 19%
¿Qué servicios proporcionan información en los que confía sin verificar? 50% 41%
¿Qué servicios contienen información de fuentes creíbles y conocidas? 53% 39%

Fuente: OutSell.

Aunque no es posible establecer reglas estrictas de fiabilidad en los contenidos de


Internet, el profesional de la información, y por extensión cualquier internauta, debe
disponer de una serie de directrices que le permitan evaluar la información para de-
terminar su calidad.
Las herramientas que se proponen para aplicar mínimos criterios de evaluación
son: autoridad, credenciales, inteligibilidad del mensaje, independencia, usabilidad, im-

* Webmaster de Buscopio: http://www.buscopio.net y Métodos de Busca: http://www.metodosdebusca.com

Rev. Esp. Doc. Cient., 26, 1, 2003 75


Notas y experiencias

parcialidad, temporalidad, utilidad y fuentes de procedencia del documento. Analiza-


remos con detalle cada una de ellas:

Autoridad
Expresa la identificación de los responsables de los contenidos de una página. Se
considera como tal a:
• Un individuo, responsable único.
• Un colectivo de personas (una asociación, una organización).
• Una entidad o institución (una empresa o un organismo de titularidad pública).
Los responsables colectivos, especialmente si pertenecen a centros de investiga-
ción, entidades oficiales o universidades, se valorarán más que los contenidos realiza-
dos por un individuo.
La página debe contener una referencia de contacto que incluya, además del co-
rreo electrónico, otro tipo de datos, como la dirección postal, número de teléfono o
número de fax.

Credenciales
Las credenciales permitirán saber cuál es el tipo de actividad o cualificación de
los autores responsables de los contenidos:
• Acreditación de aptitud profesional. Partimos del supuesto de que una titulación
se otorga a aquella persona que ha demostrado tener los suficientes conocimien-
tos para desempeñar una actividad laboral o profesional. Comprobaremos por otras
fuentes cuál es la semblanza biográfica y profesional del autor del texto.
• Las certificaciones de permisos para el desarrollo de una actividad o servicio que
otorgan las autoridades públicas para su desenvolvimiento profesional también
avalan inicialmente un tipo de contenidos con mayor grado de fiabilidad frente
a materiales u opiniones vertidas por amateurs o aficionados.
• Cuando la información se genera desde una entidad legal y representativa su cre-
dibilidad debería ser superior frente a fuentes oficiosas o extraoficiales. Por ejem-
plo, las previsiones del tiempo ofrecidas por el Instituto Nacional de Meteoro-
logía frente a las emitidas por un patronato de turismo.
• El prestigio es un concepto un tanto difuso pero otorga a su poseedor cierto cré-
dito y aval que viene a expresar un reconocimiento y recomendación dentro de
su actividad o desempeño profesional en la comunidad a la que pertenece.
• Existen sistemas de certificación que avalan la fiabilidad de la información y ex-
posición de contenidos de una página. Las áreas críticas para este tipo de certi-
ficaciones son las ciencias de la salud, finanzas e inversiones o el comercio elec-
trónico (2).

Inteligibilidad del mensaje


En este apartado se procede a un detenido análisis de contenido basado en dife-
rentes conceptos como la comprensibilidad, el razonamiento, el método científico o la
originalidad.

76 Rev. Esp. Doc. Cient., 26, 1, 2003


Notas y experiencias

A. Comprensibilidad

Todo documento deberá ser correcto ortográfica y gramaticalmente. Puede existir


ocasionalmente algún error de transcripción mecanográfica, pero la persistencia de erro-
res de lenguaje denota una seria deficiencia de formación, aunque en algunos casos se
realice de modo deliberado (por ejemplo la sustitución de la letra q por la k que por
ke). Ello se conjuga mal con la idea de transmitir credibilidad.
La estructura del texto determina en gran medida su género: no puede redactarse
del mismo modo una noticia, una opinión o una hipótesis científica. La forma de ex-
presarse deberá ser ponderada sin caer en exageraciones, por ejemplo, «la solución de-
finitiva a...», «el mejor producto para», etc. Se descartará cualquier texto que conten-
ga descalificaciones maximalistas e injustificadas (insultos, ridiculizaciones y lindezas
similares).

B. Razonamiento y método

• Los contenidos de la página deben estar estructurados de tal modo que deberá
diferenciarse claramente qué es información y qué es opinión. En este punto el
criterio es inflexible: la mínima sospecha de combinación de ambos presupon-
drá una fuerte restricción de credibilidad.
• Toda información vertida en una página deberá verificarse a través de otras fuen-
tes independientes y que presenten contenidos similares.
• Las advertencias y consejos sobre el nivel de riesgo por un uso incorrecto de la
información deben avalar su rigor y seriedad. Por ejemplo, cuando una página
sobre cuestiones farmacológicas previene contra la automedicación. Es algo pa-
recido a las advertencias que se añaden en los anuncios televisivos sobre medi-
camentos.
• Todos los contenidos que aborden un trabajo de investigación o de hipótesis cien-
tífica deberán contener un desarrollo completo de la metodología, descripción de
los procesos experimentales y fuentes bibliográficas. Su ausencia es inexcusa-
ble, porque la actual configuración de la Red permite el desarrollo y exposición
de cualquier elemento de naturaleza audiovisual (imágenes, gráficos, sonidos,
aplicaciones informáticas y filmaciones).

C. Originalidad

Todo contenido debería indicar expresamente si es original o está elaborado e ins-


pirado en otras fuentes y materiales. Desgraciadamente, esta política sólo se cumple
cuando existe la pretensión de preservar derechos de autor con una finalidad lucrati-
va, avalada por todopoderosas asociaciones en defensa de los derechos de autor (por
ejemplo los medios audiovisuales).
Un documento siempre permitirá distinguir entre los textos elaborados por el res-
ponsable de la página y aquellas partes que son citas o fragmentos extraídos de otras
fuentes. También se debe comprobar si la información que se aporta en el documen-
to es una versión definitiva de algún informe o, por el contrario, se trata de un traba-

Rev. Esp. Doc. Cient., 26, 1, 2003 77


Notas y experiencias

jo que está en elaboración o revisión. Esta precisión es importante porque en el ám-


bito universitario y científico es normal publicar «avances» de investigaciones y estu-
dios en curso. Su finalidad no sólo es divulgativa, sino que se expone para que otros
colegas y expertos emitan sus opiniones y analicen los puntos débiles del estudio para
que el autor mejore o clarifique su exposición.

D. Alteraciones y omisiones

Los contenidos deben ser publicados íntegramente y siempre se advertirá clara-


mente cuando sean resúmenes, extractos parciales o sinopsis del tema tratado.

Usabilidad

La usabilidad debería definirse como la facilidad de uso, bien se trate de una pá-
gina web, un cajero automático o cualquier sistema que interactúe con un usuario.
Aunque fiabilidad y usabilidad son conceptos que no operan entrelazados, existen al-
gunas operaciones en el uso y utilización de la página web que inducen a falsas re-
acciones o fraudes, especialmente en comercio electrónico. Respecto a los contenidos
por Internet, cualquier usuario que visite un sitio deberá ser capaz de alcanzar sus ob-
jetivos con un mínimo esfuerzo y el máximo de eficiencia. Todos los elementos de
navegación (menús, textos, formularios, opciones de ayuda, mapa de la web, etcéte-
ra), deberán ser concebidos para que el control de las acciones dependa del usuario y
no de procesos automatizados e irreversibles.

Independencia e imparcialidad

Todas las secciones que se refieran a información y contenidos deberán separarse


de mensajes publicitarios, promociones de productos y servicios, recomendaciones co-
merciales o cualquier técnica de mercadotecnia. Esta separación deberá existir siem-
pre. Cualquier atisbo de confusión entre contenidos y promoción comercial de pro-
ductos implica una grave falta de fiabilidad en los textos expuestos.
La imparcialidad puramente objetiva es utópica, pero un texto será más fiable cuan-
do exista una exposición clara y diferenciada entre las ideas, textos o teorías y que al
mismo tiempo incluya aquellos textos discrepantes o contrarios, expuestos sin tergi-
versaciones ni manipulaciones. lnternet no sólo es información, también es participa-
ción. Si hay opciones para que los usuarios puedan comentar o evaluar los contenidos
a través de foros o grupos de discusión aumenta la riqueza de información de la pá-
gina y enriquece la visión del internauta presentando otros puntos de vista.

Vigencia

Todo texto deberá reseñar su fecha de creación o de su última actualización o re-


visión. El instante en que se ha publicado el texto es importante, porque indica una

78 Rev. Esp. Doc. Cient., 26, 1, 2003


Notas y experiencias

mayor o menor renovación, atención y cuidados de los contenidos. Debe fijarse en


cuál es su periodicidad de actualización (diaria, semanal, mensual, etcétera) y su gra-
do de correlación con los contenidos presentados. No es lo mismo un servicio de no-
ticias que un informe sobre las consecuencias de la romanización en Tarragona.
Todo texto de Internet se caracteriza por ser hipertextual, es decir, contiene una
serie de enlaces que nos conducen a otras páginas. Este procedimiento nos debería re-
sultar también un buen indicador de vigencia de los contenidos. Hay que comprobar
todos los enlaces que apuntan a otras direcciones de Internet. Cuanto mayor número
de enlaces activos exista mejor valoración deberá tener la página.

Popularidad

No existe una correlación infalible entre la popularidad de una página y la fiabi-


lidad de sus contenidos, pero un número alto de consultas evidencia una cierta acep-
tación y difusión del documento. La medida de éxito de una página supone la confir-
mación de que el usuario está dispuesto a asumir sus contenidos. No obstante,
adoptaremos la precaución de evaluar si esa popularidad no está viciada por técnicas
de mercadotecnia, promoción, trucos o el efecto quiosco (se denomina efecto quiosco
a la actitud de un lector corriente que adquiere primeramente las publicaciones que
más se ven en los quioscos. En Internet serían aquellos internautas que en sus sesio-
nes de navegación se dirigen en primer lugar a los portales más conocidos).

Utilidad

Un usuario debería considerar si un contenido es útil por:

• Determinación del formato de los contenidos que se adapten a sus necesidades


informativas. Por ejemplo, no servirá de mucho un tratado de Botánica si lo que
realmente interesa son fotografías o imágenes de plantas medicinales.
• Determinación de la audiencia final a la que se destina el texto. Cuando el tra-
tamiento de la información sea más profesionalizado, mayor fiabilidad tendrá
frente a contenidos de divulgación dirigidos a un público global, ya que la sim-
plificación excesiva, omisiones o carencias de matiz pueden originar errores de
interpretación.
• Exposición de objetivos o prósotio de la publicación de contenidos, elaborado
por el propio sitio web.

Fuentes de procedencia del documento

La mayoría de las fuentes de acceso a un documento proceden de los buscadores.


No todos ellos ofrecen resultados en función directa de la pertinencia con la consulta
realizada, ya que existen resultados que se presentan según sistemas de puja o pago
de dinero que determinadas empresas abonan por ocupar los primeros puestos. Los do-
cumentos obtenidos a través de fuentes indirectas, mediante el acceso a otros enlaces,
deberán proceder de:

Rev. Esp. Doc. Cient., 26, 1, 2003 79


Notas y experiencias

• Buscadores que obtengan un alto índice de relevancia entre la pregunta realiza-


da y la respuesta obtenida.
• Los resultados deben mostrar una clara distinción entre enlaces patrocinados o
publicitarios y direcciones pertinentes.
• La mejor opción es cuando se accede desde directorios especializados o con-
feccionados por especialistas de la información (centros de documentación, bi-
bliotecas, medios de comunicación).
• Páginas realizadas por instituciones y profesionales de la materia tratada que re-
comiendan una serie de enlaces sobre el tema.

Recomendaciones finales

La aplicación de estas técnicas no garantiza que el documento evaluado sea fiable


totalmente, ya que siempre es susceptible de manipulación. Como recomendaciones fi-
nales acerca de la fiabilidad del texto sugerimos:

1. No utilizar nunca información que no pueda contrastarse, referenciarse o veri-


ficarse por otras fuentes.
2. Comprobar la veracidad de los datos de autoridad y acreditación.
3. Cerciorarse de que el documento es original y fidedigno y no corresponde a co-
pias o textos plagiados.

Referencias

1. Factiva 2002 White Paper Series: Free, Fee-Based and Value-Added lnformation Services
[.pdfl Accesible en http://factiva.com/collateral/fileslwhitepaper feevsfree 032002.pdf [con-
sultado 12 de septiembre de 2002]
2. Ejemplos de sistemas de certificación. En el área de salud, URAC Comisión Norteamerica-
na de Certificación de la Atención Médica (American Accreditation HealthCare Commis-
sion, http:llwww.urac.com. Para el sector de las finanzas y el comercio electrónico Web-
Trust http://www.cpawebtrus

Bibliografía

BALLARD SPAHR ANDREWS e INGERSOLL, LLP. (2002). Evaluating the quality of in-
formation on the Internet: groups that alert the public to lnternet fraud, fanaticism and bad
information. Accesible en: http:/Iwww.virtualchase.comlqualitv/alert.htmi [consultado 15 de
septiembre de 2002]
CODINA, L. (2000). Parámetros e indicadores de calidad para la evaluación de recursos digi-
tales. En: 7as Jornadas Españolas de Documentación. Bilbao: Universidad del País Vasco,
Servicio Editorial, p. 135-144.
COOKE, A. (2001). A guide to finding quality information on the Internet: selection and eva-
luation strategies. 2nd ed. London: Library Association
SMITH, A. Evaluation of information sources. Accesible en http://www.vuw.ac.nzl-agsmithlevain/
evain.htm [consultado 15 de septiembre de 2002]

80 Rev. Esp. Doc. Cient., 26, 1, 2003


Unidad 10. Tendencias de investigación en comunicación

Esta Unidad 9 corresponde al Capítulo 9. Tendencias de investigación en comunicación del


manual Eiroa, M. y Barranquero, A. (2017). Métodos de investigación en la comunicación y sus
medios. Madrid: Editorial Síntesis (pp. 191-205).

10.1. INTRODUCCIÓN AL PANORAMA CONTEMPORÁNEO DE LA INVESTIGACIÓN


EN COMUNICACIÓN

En el ámbito de la comunicación en los últimos años muchos investigadores han querido conocer el
funcionamiento y los efectos de las tecnologías informacionales que han ido emergiendo desde
finales del siglo XX: internet, telefonía móvil, redes sociales, televisión digital, etc. La revolución
tecnológica ha llevado a algunos investigadores a reclamar un espacio epistemológico propio para
los trabajos sobre el universo digital bajo rótulos como estudios sobre Internet o estudios sobre
ciberculturas.

Las tecnologías informacionales han introducido transformaciones sustanciales en los métodos


clásicos de adquisición y elaboración del conocimiento científico. Tanto es así que denominaciones
como e-ciencia o e-research han comenzado a popularizarse para describir las mutaciones que
atraviesan todos los campos del saber y que son resultado de la convergencia de tecnologías tan
distintas como las redes sociales, las bases de datos online o las técnicas de computación
distribuidas. En este escenario, los estudios de comunicación son un campo muy fértil para la
implementación de tecnologías digitales avanzadas.

Más en concreto, la tecnologización de la ciencia ha automatizado los procesos de recogida, registro


y tratamiento de datos, al tiempo que la difusión científica ha adquirido rasgos globales con la
digitalización de las antiguas revistas científicas en papel, muchas de las cuales apuestan hoy por
facilitar el acceso a sus fondos de manera gratuita a través de Internet (Open Access).

Así, junto a riesgos como la cibervigilancia, los filtros que imponen los algoritmos secretos de
Google o Facebook o la mercantilización de los datos privados, es preciso contemplar la existencia
de un conjunto de gaps o desfases informacionales. Por otro lado, distintos trabajos atestiguan que
hay desfases asociados a la edad por cuanto los jóvenes suelen ser los primeros en implementar las
tecnologías en el campo científico, mientras que los sectores con mayor edad encuentran verdaderas
dificultades para comprenderlas y apropiárselas.

El ciberfetichismo y la mitificación acrítica de las últimas innovaciones tecnológicas también ha


provocado que ciertos objetos clásicos de la investigación comunicacional (por ejemplo, radio o

1
Unidad 10. Tendencias de investigación en comunicación

prensa) hayan quedado relegados a un papel secundario en favor de la investigación en torno a lo


digital.

10.2. LA READAPTACIÓN DE LOS OBJETOS CLÁSICOS DE INVESTIGACIÓN


COMUNICACIONAL

Las investigaciones centradas en el discurso y los textos mediáticos siguen manteniendo su


hegemonía por encima del resto de temáticas, puesto que el análisis de contenido y sus variantes
son hoy la técnica predominante tanto en la investigación anglosajona como en la española.

En segundo lugar, la investigación de audiencias se ha fortalecido a lo largo de las primeras


décadas del siglo XXI tras incorporar las herencias de los estudios culturales anglosajones.
Enraizadas a veces en estas nociones, son frecuentes las investigaciones sobre audiencias en nuevos
soportes digitales –chat, redes sociales, videojuego, etc.–.

Asimismo, la investigación centrada en efectos sigue mostrando un excelente estado de salud,


apoyada tradicionalmente en técnicas cuantitativas como las encuestas o los experimentos.

En otro orden de cosas, las investigaciones centradas en la variable del emisor no han suscitado
nunca la atención que han recibido los objetos anteriores. Esto es debido en buena medida a su
complejidad, dado que las industrias mediáticas siguen siendo opacas a la hora de ofrecer datos
fiables acerca de su actividad, organización o finanzas.

Por último, cabe destacar que la aparición de cada nueva tecnología informacional (internet,
telefonía móvil, social media, etc.) ha venido acompañada de un contingente de estudios que tienen
por finalidad el análisis de sus potencialidades con respecto a los medios anteriores, aunque no tanto
sus posibles limitaciones y peligros. Así, a las primeras investigaciones centradas en medios
digitales se sumaron pronto las orientadas a analizar blogs o cibermedios y, ya en tiempos
recientes, un extenso contingente de trabajos en redes sociales y potencialidades de la web 2.0.
Todas ellas han valorado el potencial de Internet en la generación de modelos comunicacionales
interactivos, horizontales y en los que la ciudadanía adquiere un papel más activo en el proceso de
producción informativa frente a la lógica más vertical y jerárquica de los medios del pasado.

Si bien los medios de comunicación siguen siendo el objeto predominante de estas ciencias, hay que
destacar también que no todos los soportes vienen recibiendo la misma tensión en los últimos años.
En este sentido, la radio continúa siendo el medio invisible la investigación comunicacional,

2
Unidad 10. Tendencias de investigación en comunicación

mientras que los estudios centrados en televisión o nuevas tecnologías siguen consolidando su lugar
hegemónico entre los investigadores. Por otra parte, se observa cierto receso en los trabajos que
profundizan en la prensa papel.

Asimismo, es frecuente encontrar investigaciones centradas en exceso en el análisis exclusivo de un


solo medio de comunicación.

En otro orden de cosas, la investigación centrada en la comunicación no necesariamente


mediatizada también ha adquirido contornos renovados en los últimos años. Por un lado, los
estudios sobre comunicación organizacional y corporativa siguen demostrando plena vitalidad.

Dentro de los estudios que trascienden lo mediático, la comunicación interpersonal grupal sigue
siendo otra asignatura pendiente de la investigación comunicacional, si bien los nuevos soportes
digitales están suponiendo la conformación de entornos híbridos en los que lo masivo convive con
flujos informacionales de muchos a muchos o con los intercambios punto a punto que se dan
mediante la telefonía móvil, también denominada comunicación interpersonal mediada. No
obstante, es necesario seguir profundizando en el estudio de lo digital como nuevo espacio de
socialización, así como en los intercambios cara a cara que se ven afectados por la conectividad
permanente a las tecnologías y otros consumos culturales contemporáneos. En otras palabras, la
nueva investigación sobre el universo digital tiene que atender a los continuos trasvases y
convergencia entre lo mediado y lo no mediado, así como en la relación de los antiguos medios con
los nuevos soportes y plataformas informativas de carácter online.

10.3. LA APARICIÓN DE NUEVOS OBJETOS DE INVESTIGACIÓN

La comunicación se ha convertido en una disciplina híbrida y sujeta a un permanente proceso de


mutación y reciclaje de objetos, miradas y metodologías. Un buen reflejo de las tendencias
contemporáneas más destacables de la investigación lo ofrecen las propias revistas del área y, en
especial, los congresos académicos que organizan gremios y asociaciones científicas de carácter
general o especializado y en los que se exhiben las últimas tendencias del debate nacional o
internacional a partir de la exposición de trabajos en curso, Tesis Doctorales o proyectos de
investigación financiados.

El panorama investigador contemporáneo es muy extenso y plural, aunque aún se perciben las
mismas diferencias que marcaron el devenir de la investigación comunicacional entre los

3
Unidad 10. Tendencias de investigación en comunicación

denominados paradigma administrado y estudios de carácter más interpretativo y crítico, que a


veces incluye una orientación ética para abordar los desafíos investigadores.

10.4. INTERDISCIPLINAREIDAD Y LA HIBRIDACIÓN METODOLOGÍA

Los estudios de comunicación son unas ciencias inherentemente interdisciplinarias. Dado que la
propia noción de comunicación puede ser abordada desde sentidos muy distintos –semióticos,
retóricos, tecnológicos, etc.–, estas ciencias han ido acercándose con el paso del tiempo a
disciplinas tan diversas como la antropología, la cibernética o las ciencias del lenguaje. Y en este
proceso hacia la transversalidad han jugado un papel fundamental perspectivas híbridas como los
estudios culturales, que convocaron a la filosofía, la semiótica, la historia o las filologías a un
prometedor diálogo con objeto de comprender el carácter complejo y contradictorio de la cultura y
sus relaciones con la cultura masiva.

Desde finales del siglo XX, la profesionalización de una comunidad académica en torno a la
comunicación y la propia revolución digital han acentuado, aún más si cabe, la tendencia a abrir
estas ciencias a otros campos del saber. Así, es cada vez más habitual encontrar investigaciones que
observan los fenómenos mediáticos de prismas tan distintos como el feminismo, el ecologismo los
estudios poscoloniales, unas perspectivas que enriquecen, sin duda, la mirada clásica y la conducen
por derroteros prolíficos e innovadores.

La interdisciplinariedad convive, no obstante, como una tendencia permanente a la fragmentación


del campo en diferentes subdisciplinas, marcada tanto por las necesidades específicas de
especialización de la investigación como por modas y mecanismos de poder inherentes a la propia
lógica de los campos científicos. Este hecho ha sido evidenciado por autores como Robert Craig
(1999, 2008), quién ha observado la presencia de, al menos, 7 tradiciones distintas en el campo
comunicacional: retórica, semiótica, fenomenología, cibernética, sociosicológica, sociocultural y
crítica. Estas perspectivas han creado jergas y procedimientos muy especializados, por lo que
raramente establecen diálogos entre sí hasta perder mucho de su potencial explicativo. Es de ahí que
autores como Martínez Nicolás (2009) reclamen una unificación de las áreas de conocimiento en
torno al concepto de comunicación, puesto que, a su parecer, las distintas áreas que se creen en el
futuro deben responder a núcleos más o menos coherente de saberes científicos humanísticos y no
exclusivamente a estructuras jerarquizadas de poder en torno a perfiles y temáticas “caprichosas”.

4
Unidad 10. Tendencias de investigación en comunicación

Se trata de pensar en comunicación desde la perspectiva de la complejidad. Este nuevo paradigma,


que se inspira en la cibernética, la teoría de sistemas o el pensamiento ecológico, propone volver a
ligar ciertos conocimientos que en el pasado fueron artificialmente separados con el objeto de crear
síntesis de saberes que ayuden a centrar con éxito las incertidumbres y contradicciones de la
realidad contemporánea.

En la actualidad, uno de los debates más habituales en teoría de la comunicación tiene que ver con
la consideración del estatuto epistemológico de la disciplina, en el que existen posiciones
encontradas entre quienes consideran que esta no es una ciencia, puesto que no tiene principios
explicativos propios y sigue importando modelos de otras disciplinas, y quienes aceptan su
existencia separada de otras áreas, si bien destacan su falta de autonomía como campo de
conocimiento.

Muchos autores plantean que la comunicación debe ser considerada un campo de estudio más en el
sentido sociológico que en el epistemológico, dado que existe una comunidad académica con
objetos y miradas propias en ella, independientemente de que esos objetos sean compartidos por
otras ciencias. Esta tendencia queda de manifiesto en el hecho de que los equipos de investigación
en comunicación en todo el mundo son cada vez más interdisciplinares, en consonancia con la
valoración positiva que ciertos organismos financiadores otorgan a este rango.

Por último, en la actualidad son frecuentes los llamamientos a “desoccidentalizar” e


“internacionalizar” los estudios de comunicación, incorporando el legado de muchas regiones y
grupos humanos que han quedado tradicionalmente relegados del canon hegemónico de estos
estudios. En suma, es de prever que en el futuro seguiremos profundizando en esta tendencia
creciente a tender puentes entre regiones y disciplinas, como una vía para seguir “indisciplinando”
las ciencias sociales y de la comunicación y abrirlas a un más que prolífico diálogo interregional e
interdisciplinar.

También podría gustarte