Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Esta Unidad 1 corresponde al Capítulo 1. El método científico y sus técnicas del manual Eiroa,
M. y Barranquero, A. (2017). Métodos de investigación en la comunicación y sus medios. Madrid:
Editorial Síntesis (pp. 15-36).
2. Es objetivo. No solo porque respete un conjunto de reglas, sino porque asume que los
hechos observados son obvios y observables para los investigadores y no son solo una
creación o producto de la mente humana.
3. Es empírico o fáctico. Puesto que parte de hechos y datos medibles mediante herramientas
destinadas a recoger información de forma sistemática.
5. Es explicativo. No solo porque parte de hechos objetivados, sino porque los racionaliza, los
relaciona, los contrasta, los enmarca en una teoría y los interpreta.
1
Unidad 1. El método científico y sus técnicas
7. Es público. Puesto que debe ser conocido y divulgado a través de publicaciones que
expliciten los resultados obtenidos a fin de que otros investigadores puedan conocerlos y
fundamentar adecuadamente sus futuros trabajos.
El término diseño se refiere al bosquejo o estrategia que da forma a un trabajo científico. Se puede
definir también como la concepción del plan. El diseño no es la investigación misma, sino el dibujo
previo del trabajo, factible de sufrir modificaciones durante su ejecución. El fin del diseño es
articular la estructura fundamental de una investigación, así como lograr la máxima validez posible,
es decir, la correspondencia más ajustada de los resultados a la realidad.
En el diseño, que se denomina también memoria científica o anteproyecto, se especifican los pasos
que habrán de darse para alcanzar los objetivos propuestos y que, en definitiva, corresponden a las
fases que sigue el método científico:
2
Unidad 1. El método científico y sus técnicas
La mayoría de las ideas iniciales que se formulan para un estudio suelen ser vagas y requieren un
análisis cuidadoso antes de ser transformadas en una propuesta de investigación. Es por ello
necesario comprobar los escritos anteriores a fin de verificar si hay algún vacío al respecto o si es
conveniente volver a investigar un determinado fenómeno porque existen nuevos datos o
perspectivas.
Una vez que ha surgido la idea de investigación es necesario valorarla teniendo en cuenta los
siguientes criterios:
1. Su dimensión: no puede ser tan amplia que no se pueda abarcar, ni tan reducida que apenas
tenga presencia social.
2. Hay que pensar si es un tema relevante, si tiene trascendencia social, política, cultural o
económica, si suscita interés social o si tendrá alguna finalidad teórica o práctica.
3. Valorar si es original o se va a abordar desde una perspectiva innovadora o desconocida
de manera que genere conocimiento.
4. Plantear si el tema es viable y admite ser investigado, es decir, si contamos con fuentes y
datos, cuál es su coste económico y temporal y de qué recursos
Los objetivos de un estudio son la finalidad de la investigación, el para qué, mientras que el objeto
de estudio se corresponde con aquello que se desconoce y con la unidad documental, textual o
audiovisual que se utiliza para realizar el trabajo empírico.
Una vez definido el tema de la investigación, conviene fijar uno o varios objetivos generales que
determinan lo que se pretende hacer. Actúan como la guía que nos conducirá durante la
investigación. Es importante reflexionar qué se pretende conseguir, a quién afectará la
investigación, cuál será su contribución, y qué aspectos podrían cambiar o mejorar tras su
finalización.
3
Unidad 1. El método científico y sus técnicas
De acuerdo con los fines que se pretende lograr, se puede distinguir entre:
Una vez planteados los objetivos, procede seleccionar y afinar el objeto de estudio, el cual debe
ser:
Tanto las fuentes utilizadas para nuestra investigación como el objeto de estudio pueden ser
textuales, audiovisuales, hemerográficas, orales o digitales. Además, hay que tener en cuenta que las
fuentes se dividen en:
• Primarias: son las que han tenido una relación física directa con el tema de investigación,
han sido escritas o tomadas por personas involucradas en él o se han producido en paralelo
al transcurso de un acontecimiento.
• Secundarias: aquellas que no han estado implicadas directamente en el tema de
investigación, sino que están relacionadas con él a través de un proceso intermedio, en el
que se ha interpretado y analizado la fuente primaria.
Por otro lado, las fuentes deben ser sometidas a un análisis que determine su validez y fiabilidad.
Para ello es necesario comprobar su naturaleza, autoría y finalidad con el objetivo de detectar su
carácter y la adecuación a la propia realidad de los hechos que retratan. Las investigaciones no
suelen estar basadas en una sola fuente, sino que es necesario contar con fuentes diversas a fin de
contrastarlas y obtener así una información lo más rigurosa y exhaustiva posible.
4
Unidad 1. El método científico y sus técnicas
Una vez establecidos el objeto y los objetivos del estudio, es necesario proceder a la formulación de
las hipótesis de trabajo o, en su caso, las preguntas que se formulan en torno a la investigación.
En términos sencillos, una hipótesis es la primera idea que se tiene en torno a la explicación de un
fenómeno. Se plantea a modo de conjetura, inferencia o suposición a partir del conocimiento que
maneja el investigador y está sustentada en su propia observación, conjeturas y experiencia. Por
otro lado, y de acuerdo con los fundamentos del método científico, la hipótesis es una predicción o
explicación provisional acerca de las relaciones que se pueden establecer entre dos o más variables.
La formulación de una hipótesis exige que esta se refiera a una situación real, que sea precisa, que
siga una coherencia lógica y que pueda ser observada y medible o, al menos, interpretable con
precisión.
Las preguntas de investigación deben ser formuladas de forma simple, evitando dobles
cuestionamientos que requieran dobles respuestas, o preguntas que impliquen verdades ya
conocidas. Se sugieran frases cortas, concretas y desprovistas de presunciones previas al trabajo
empírico. Entre los tipos de preguntas de investigación más habituales se encuentran:
Generalmente es necesario responder a las preguntas descriptivas antes que a las explicativas.
El conocimiento de los estudios previos, también denominado estado de la cuestión, sirve para
conocer las aportaciones de otras investigaciones desarrolladas individualmente o en el seno de
grupos de investigación. Ayuda a conocer qué resultados y conclusiones se han obtenido, a partir de
5
Unidad 1. El método científico y sus técnicas
qué perspectivas teóricas, en qué medida se ha cubierto la totalidad de los aspectos de un fenómeno,
y si queda alguno por analizar.
Una forma adecuada para encontrar los trabajos publicados previamente es hablar con expertos e
informantes especialistas para que aconsejen cuáles son los textos básicos que han aportado lo
esencial en la materia. La acción más conveniente es buscar con palabras clave en los catálogos de
bibliotecas, repositorios, bases de datos y buscadores.
A menudo comprobamos que existen distintas teorías que podrían explicar el mismo fenómeno y no
son excluyentes, sino compatibles y complementarias. En otras ocasiones, puede darse el caso de
teorías rivales que explican los mismos fenómenos de manera incompatible. En este caso, habrá que
optar y justificar la elección de un enfoque u otro en función de las características de la
investigación.
1.2.5. La metodología
6
Unidad 1. El método científico y sus técnicas
Por lo general, los métodos de investigación funcionan a modo de herramientas para obtener
respuestas y su elección depende del tipo de objetivos, hipótesis y preguntas que se hayan
formulado. Si implica la recogida de material numérico, estadísticas, cifras o datos básicos, se
deben plantear métodos cuantitativos. En el caso de haber propuesto la generación de reacciones
ante un determinado suceso comunicativo, es necesario optar por la experimentación. Mientras que
si se ha planteado una propuesta de acercamiento a las experiencias y percepciones, bien de sujetos
o de colectivos, estamos ante la opción de la metodología cualitativa.
Los dos grandes bloques metodológicos más habituales en ciencias sociales, y por ende en
comunicación, son los métodos cualitativos y cuantitativos. Entre los cualitativos destacan las
técnicas centradas en obtener información de los sujetos, como la observación, las entrevistas en sus
distintos tipos, las historias de vida, los grupos focales, la etnografía virtual y la denominada
netnografía, así como técnicas centradas en el análisis crítico de mensajes, como el análisis
narrativo y las diferentes formas de análisis crítico y del discurso, entre otros. En cuanto a las
técnicas inherentes al método cuantitativo, sobresalen las encuestas y cuestionarios, el análisis de
contenido y la investigación experimental.
Las técnicas cuantitativas parten, sin embargo, de la idea de que a las ciencias sociales se les
pueden aplicar los principios de las ciencias naturales y tratan de resumir la realidad en números.
En la selección del método puede resultar de gran ayuda la consulta a investigaciones similares a fin
de tomar prestadas técnicas metodológicas que han resultado útiles, así como conocer sus aciertos y
errores.
En el método científico los instrumentos de investigación tienen validez en cuanto miden con
eficacia aquello que se han propuesto como objetivo. En este sentido, podemos distinguir dos
mecanismos principales de validez:
7
Unidad 1. El método científico y sus técnicas
Las fuentes primarias y secundarias, así como las lecturas utilizadas en la elaboración de una
investigación, han de ser convenientemente elegidas y citadas. Las referencias a estos datos son
imprescindibles en una investigación.
Existen numerosos estilos para citar la bibliografía utilizada en un trabajo como por ejemplo, la
normativa APA, Chicago o Harvard, entre otras.
Generalmente, una investigación necesita la aplicación de varios métodos y enfoques para que sea
lo más exhaustiva y completa posible. En este caso, se habla del concepto de triangulación, que
hace referencia a la utilización simultánea en una misma investigación de diversas perspectivas y
metodologías.
8
Unidad 1. El método científico y sus técnicas
La redacción de textos con los resultados de la investigación resulta imprescindible, puesto que es el
principal medio de difusión y divulgación.
Los resultados de una investigación son diversos y comprenden un amplio abanico de posibilidades.
Por un lado, se pueden obtener resultados directos, es decir, productos concretos que se obtienen al
alcanzar los objetivos propuestos (nuevas herramientas teóricas y metodológicas, bienes y servicios,
catálogos de medidas, planes concretos, etc.), en cuyo caso deben manifestarse de forma precisa o
verificable. Por otro lado, hay resultados indirectos que se manifiestan en la formación de nuevos
investigadores, la consolidación de redes y equipos de investigación, la construcción de acciones y
estrategias para la cooperación internacional, avances en conocimientos más amplios e incluso en
efectos a medio y largo plazo para la sociedad.
En la ética de todo científico social deben estar presentes, al menos, los siguientes principios:
9
Unidad 2. Los aspectos medibles: el método cuantitativo
Esta Unidad 2 corresponde al Capítulo 2. Los aspectos medibles: el método cuantitativo del
manual Eiroa, M. y Barranquero, A. (2017). Métodos de investigación en la comunicación y sus
medios. Madrid: Editorial Síntesis (pp. 39-60).
Los métodos cuantitativos parten de la premisa de que la ciencia es unitaria, es decir, que existe una
metodología única, derivada de las ciencias físico-naturales, que los estudiosos deben trasladar de
manera mecánica al análisis de los fenómenos psicológicos o sociales. Para ello, el investigador ha
de partir de la observación distanciada de los hechos y eliminar cualquier tipo de valoración,
preconcepción o juicio previo, consiguiendo una separación estricta entre el investigador y el objeto
de investigación. La clave de los cuantitativos es la creencia de que es posible objetivar, cuantificar
y mediar la realidad, para lo cual suele apoyarse en la estadística, en especial cuando necesitamos
analizar grandes volúmenes de datos.
La encuesta es una técnica cuantitativa que intenta medir hechos, opiniones, actitudes y
comportamientos de la población, a partir del empleo de cuestionarios estandarizados en los que se
recogen testimonios verbales o escritos de una muestra más o menos representativa de sujetos con
respecto a una población más amplia.
Resulta imposible estudiar en detalle a todos los sujetos o elementos de un universo muy amplio de
casos, por lo que las encuestas suelen trabajar con procedimientos matemáticos especializados a fin
de seleccionar un conjunto acotado que permita hacer inferencias sobre la totalidad. A esta tarea se
la conoce como inferencia estadística y requiere un trabajo previo y muy preciso de observación y
selección de universo y muestra.
1
Unidad 2. Los aspectos medibles: el método cuantitativo
Los muestreos probabilísticos, también denominados aleatorios o azarosos, son aquellos en los
que todos los individuos de la población tienen la misma posibilidad de formar parte de la muestra.
En el caso de los no probabilísticos, la muestra se elige más bien de acuerdo con criterios
intencionales del investigador, o simplemente, por razones de comodidad.
Entre las técnicas más habituales de muestreo probabilístico cabe citar las siguientes:
1. El muestreo aleatorio simple. Todos los individuos o casos tienen la misma probabilidad
de ser elegidos, algo factible cuando estudiamos poblaciones finitas, pero en extremo
complicado cuando afrontamos universos muy grandes.
2. El muestreo sistemático. Es aquel que emplea algún tipo de fórmula matemática para elegir
a los sujetos de la muestra de manera ordenada. Es especialmente útil cuando los sujetos de
un grupo se parecen entre sí.
2
Unidad 2. Los aspectos medibles: el método cuantitativo
Entre los procedimientos no probabilísticos, establecidos a juicio del investigador y que no cuentan
con la probabilidad de calcular margen de error, podemos distinguir entre:
3
Unidad 2. Los aspectos medibles: el método cuantitativo
5. El muestreo bola de nivele o por referidos. Es una variedad de la anterior en la que las
unidades muestrales se escogen a partir de las referencias aportadas por los sujetos a los que
se entrevista, siguiendo un efecto acumulativo o de bola de nieve que permite aumentar
progresivamente el tamaño de la muestra. Esta tipología es útil para investigar poblaciones
que son difíciles de identificar, como es el caso de indigentes, sectas o grupos minoritarios.
También sería válido si pretendemos localizar a los aficionados de un programa televisivo.
En este caso, podríamos situar nuestra encuesta en un foro de fans del programa en
Facebook y pedirles a estos que envíen el cuestionario.
Las encuestas se pueden clasificar de acuerdo con sus objetivos, su soporte y su temporalidad. De
acuerdo con la finalidad, existen:
• Encuestas presenciales: cara a cara o en papel. Son las más antiguas y siguen siendo las
más utilizadas por parte de centros demoscópicos y organismos de investigación. Entre sus
principales ventajas destaca un alto control sobre la muestra, puesto que la tasa de
recopilación de respuestas es la más alta en comparación con el resto (en especial las
online). Por otro lado, la presencia y el buen entrenamiento del encuestador aumenta la
fiabilidad de los resultados. Además, los sondeos presenciales generan mayor confianza en
el encuestado y permiten dar cuenta de poblaciones que no tienen fácil acceso al teléfono o
Internet. Por otro lado, la presencia del encuestador provoca sesgos de reactividad (o
reacción) por parte de los encuestados que, por falta de intimidad y anonimato, tienden a
4
Unidad 2. Los aspectos medibles: el método cuantitativo
responder lo que consideran socialmente deseable o lo que creen que puede satisfacer al
encuestador.
Por último, y de acuerdo con el factor temporal con que se conciben las encuestas, cabe destacar
los sondeos puntuales y los longitudinales:
Una de las claves fundamentales para la realización de una buena encuesta es el diseño del
cuestionario para lo que conviene tener en cuenta un conjunto de premisas:
5
Unidad 2. Los aspectos medibles: el método cuantitativo
1. Tiene que estar redactado de manera clara, sencilla y concisa. Para ello es necesario que
las preguntas y posibles respuestas se planteen de manera unívoca, con términos que
signifiquen los mismo, tanto para el encuestador como para el entrevistado, evitando
ambigüedades y tecnicismos.
3. Evaluación del cuestionario antes de ser aplicado. Esta comprobación puede partir de
expertos (también denominada prueba de jueces) o de aplicar un cuestionario preliminar a
una muestra pequeña de entrevistados (o pretest).
4. Conviene alternar distintos tipos de preguntas: las cuestiones directas abordan de manera
explícita una actitud, opinión o sentimiento, mientras que las indirectas se emplean para
obtener información sobre temáticas controvertidas o sensibles que pueden generar
incomodidad en los encuestados. También son útiles las preguntas filtro o escudo, que sirven
para filtrar o eliminar a los encuestados que no resultan útiles para las cuestiones que siguen.
Por su parte, las preguntas abiertas son similares a las de las entrevistas cualitativas y
resultan de utilidad en las primeras fases de una investigación o cuando deseamos poner a
prueba una encuesta y configurar respuestas cerradas, ajustadas y medibles. Esta tipología
plantea desventajas a la hora de su tratamiento y conversión en resultado, puesto que los
testimonios recogidos suelen ser muy dispares y, a su vez, requieren tiempo y reflexión. Por
su parte, en las preguntas cerradas las respuestas están previamente acotadas, por lo que los
encuestados deben elegir entre una o más opciones de un listado fijo. A diferencia de las
6
Unidad 2. Los aspectos medibles: el método cuantitativo
abiertas, las respuestas se registran rápidamente y son más fáciles de cuantificar y comparar.
En cualquier caso, conviene añadir la respuesta “otros”, por si existen opciones no
contempladas por el investigador, y “no sabe/no contesta” (NS/NC), por si la pregunta
suscita dudas en el entrevistado.
Dentro de las cerradas también se dan distintas tipologías. Las más fáciles y directas son las
dicotómicas, en las que hay que elegir entre dos opciones. Más complejas son las
multirrespuestas, que ofrecen la posibilidad de seleccionar entre varias opciones. Dentro de
estas es habitual presentar escalas que se orientan a medir actitudes, entre las que destacan:
(IMPORTANTE: estudiar el cuadro 2.2. de las páginas 52 y 53 para comprender los diferentes
ejemplo de preguntas y respuestas)
Por último, conviene tener en cuenta algunas sugerencias para evitar introducir sesgos y contribuir a
la correcta formulación de un cuestionario. A continuación se expone un decálogo que puede ser
útil:
7
Unidad 2. Los aspectos medibles: el método cuantitativo
4. Las preguntas deben recoger única y exclusivamente una idea, por lo que hay que eliminar
preguntas de doble cuerpo, en las que se solicita una opinión por más de un asunto en el
mismo enunciado.
5. Es requisito fundamental que las respuestas planteadas sean exhaustivas y excluyentes.
6. Es necesario eliminar las preguntas tendenciosas o cargadas de juicios de valor, muchas
veces determinadas por adjetivos calificativos.
7. En las cuestiones dicotómicas, que implican la posibilidad de dos respuestas distintas, es
necesario que estas se expliciten en el enunciado.
8. En las encuestas es necesario rotar y hacer aleatorio el orden de lectura de las respuestas
para evitar los efectos primacía y recencia, es decir, la tendencia a elegir la primera o la
última de las respuestas planteadas.
9. Hay que abstenerse de formular preguntas que impliquen la realización de cálculos
mentales complejos.
10. Conviene controlar la longitud del cuestionario y evitar diseños extensos que fatiguen a los
encuestados y generen respuestas automáticas o no reflexionadas. La longitud depende
también del formato: las encuestas presenciales no deben superar los 30 ó 40 minutos,
mientras que las online y telefónicas deberían limitarse a unos 10 ó 15 minutos.
Tras el diseño del cuestionario, el trabajo de recogida de datos es una de las fases más costosas y
delicadas. Además de realizar un test previo, las respuestas obtenidas en las encuestas deben
supervisarse a posteriori para evitar errores. Es por ello que muchos sondeos presenciales incluyen
preguntas de control. Uno de los elementos centrales en la validación de las encuestas es la
detección de los posibles sesgos que se hayan podido producir.
Una vez registrados los resultados en la base de datos hay que administrar la información
obtenida en los cuestionarios, para lo cual es necesario emplear la estadística, o ciencia que se vale
8
Unidad 2. Los aspectos medibles: el método cuantitativo
de las matemáticas y el cálculo de probabilidades tanto para diseñar el muestreo como para
organizar e interpretar la información recopilada.
Las variables pueden ser cuantitativas (o métricas), las que se enuncian en cantidades numéricas,
expresan el número exacto obtenido en una respuesta (por ejemplo, edad, estatura, etc.) y se
apuntan como tal en la base de datos. Reciben un tratamiento distinto las cualitativas (o no
métricas), que expresan atributos no susceptibles de cuantificación directa, por lo que conviene
codificarlos antes de introducirlos en las bases de datos. Por ejemplo, si al final de un cuestionario
preguntamos por el estado civil, podríamos asignar números a los diferentes estados: 1=casado,
2=soltero, 3=separado, etc.
En función de los objetivos de nuestra muestra, puede ser interesante estudiar la característica de
cada respuesta de manera independiente o incluso cruzar variables a fin de compararlas y verificar,
en el caso de encuestas analíticas, cuál es la relación entre una variable dependiente y otra
independiente.
Por último, conviene apuntar que una buena encuesta no solo ofrece resultados, sino que ayuda al
lector a su interpretación y a comprobar su fiabilidad, aportando una ficha técnica o apartado en el
que se explicita cómo se realizó el sondeo, la población y geografía investigadas, el soporte de
aplicación, el tipo de muestreo, el error muestral o el intervalo de confianza (ver cuadro 2.3. de la
página 59).
9
Unidad 3. Los aspectos no medibles: el método cualitativo
Esta Unidad 3 corresponde al Capítulo 3. Los aspectos no medibles: el método cualitativo del
manual Eiroa, M. y Barranquero, A. (2017). Métodos de investigación en la comunicación y sus
medios. Madrid: Editorial Síntesis (pp. 61-86).
El método cualitativo se utiliza cuando no se pretende conseguir datos estadísticos ni cifras. Los
investigadores recurren a él cuando precisan conocer temas en profundidad y aspectos relacionados
con las percepciones y los comportamientos humanos, tales como opiniones, reflexiones,
pensamientos o las razones que inducen a tomar determinadas decisiones.
Se entiende entonces por metodología cualitativa una estrategia de investigación basada en una
rigurosa descripción contextual de un evento, conducta o situación, garantizando la máxima
objetividad en la captación de la realidad. Debe contemplar una recogida sistemática de datos y
posibilitar la realización de un análisis que dé lugar a la obtención de conocimiento válido
(Anguera, 1986).
Entre las principales técnicas cualitativas se encuentran los diferentes tipos de observación, la
entrevista en sus distintas modalidades, las historias de vida, los grupos focales o de discusión
(focus groups) y corrientes críticas como la investigación participativa. Todas son factibles de ser
aplicadas en entornos físicos o virtuales, si bien estos últimos requieren el adiestramiento en
tecnologías y procedimientos especializados. Lo que varía en estos casos es el soporte, pero el
planteamiento de la investigación debe ser igual y pasar por fases como la delimitación de los
objetivos, la selección de la muestra, la preparación de la herramienta, el trabajo empírico de
recogida de datos, su análisis e interpretación, y la escritura de los resultados.
Un aspecto particular de este tipo de técnicas es el análisis de los datos, puesto que la información
cualitativa no se puede ni debe resumir en cifras. En las tareas de análisis de las entrevistas, y
1
Unidad 3. Los aspectos no medibles: el método cualitativo
3. Transformación de datos. Puede hacerse mediante dos estrategias. Hay ocasiones en las
que se analizan con técnicas cuantitativas y pueden expresarse en forma de gráficos, tablas,
diagramas, matrices y otros formatos. Esta tarea se realiza con la ayuda de bases de datos –
como Excel, SPSS, etc.– o los programas CAQDAS –como Atlas.ti–. En ocasiones, los
datos se pueden dejar sin transformar, en cuyo caso se presentan precedidos de una síntesis
de las principales ideas y reproduciendo citas textuales, siempre entrecomilladas, citando la
autoría y acompañadas de una interpretación el significado.
Un aspecto fundamental para tener en cuenta en los métodos cualitativos es la ética. Como norma
general, el investigador debe conseguir la autorización de las personas que van a a ser objeto de
análisis a fin de utilizar la información que éstas ofrezcan con propósitos científicos. Una forma
habitual es elaborar un documento de consentimiento informado en el que se haga constar que el
uso de los contenidos será exclusivamente para fines de investigación, respetando la privacidad y la
confidencialidad y comprometiéndose a la no manipulación de los datos y a un tratamiento
adecuado de los temas sensibles.
Es necesario tener también en cuenta que una parte importante de la investigación, como el
procesamiento de datos o la difusión de los resultados, se sitúa hoy en el entorno digital, un marco
en el que el investigador pierde el control de acceso y uso. Igualmente, y a fin de reforzar la
veracidad, conviene mostrar la documentación utilizada para el estudio: las transcripciones, las
grabaciones, la reproducción del material escrito y todo tipo de evidencias sobre el proceso
2
Unidad 3. Los aspectos no medibles: el método cualitativo
metodológico e intelectual. Estos datos se suelen referenciar en notas a pie de página y, sobre todo,
en los anexos informativos.
De una manera simplificada, la entrevista se puede definir como una conversación entre una
persona (el entrevistador) y otra u otras (el entrevistado) y tiene que ver con el antiguo arte de
conversar. De forma más precisa, se puede afirmar que la entrevista es la obtención de información
mediante una conversación planificada de forma sistemática en el marco del método científico. Es
una técnica en la que todos los factores de lo humano tiene un papel importante.
Los tipos fundamentales de entrevista son dos: la entrevista abierta o no estructurada, también
denominada no estandarizada, no sistematizada, no dirigida o libre, y la entrevista cerrada o
estructurada, también llamada dirigida, estandarizada o sistematizada.
Las entrevistas abiertas o no estructuradas son un tipo de técnica que suele plantearse a
especialistas, directivos, élites y a cualquier persona que conozca con detalle y exhaustividad una
determinada cuestión. Igualmente, son una forma adecuada en la recogida de información privada,
concretamente para la elaboración de biografías e historias de vida.
Esta modalidad otorga mayor libertad a los actores en interacción. Por un lado, el entrevistador
elabora una lista de aspectos clave que necesita cubrir para cumplir sus objetivos, pero carece de un
cuestionario formalizado que guíe el orden y el contenido mismo de las preguntas. Por otro lado, las
respuestas se obtienen en un clima informal de diálogo y admiten explorar las temáticas nuevas que
surgen a raíz de la conversación mediante la introducción de preguntas que no se habían previsto en
el guión inicial. La entrevista abierta requiere que el entrevistador tenga ciertas habilidades
interpelativas que favorezcan la comunicación con el entrevistado y que provoquen sus respuestas
mediante tácticas de acercamiento y creación de un clima favorable. En su desarrollo intervienen
algunos elementos externos que pueden determinar el éxito o el fracaso de esta técnica, como la
diferencia entre culturas, la empatía, etc. Normalmente tienen larga duración y en ocasiones es
necesario reconducir al entrevistado hacia las cuestiones clave.
Las entrevistas cerradas o estructuradas son aquellas en las que se pregunta a los sujetos
mediante un cuestionario estandarizado que implica la formulación de las mismas preguntas en
igual orden a todos los sujetos. En cierto modo se asemejan a la encuesta, puesto que su propósito
es obtener los testimonios de un grupo más amplio de informantes y se plantean a partir de
3
Unidad 3. Los aspectos no medibles: el método cualitativo
En ambos casos, entrevistas abiertas y cerradas, es necesario estar atento a las respuestas del
entrevistado porque pueden sugerir nuevas cuestiones y conocimiento.
En una fase preliminar, o de preparación, debe comprobarse la pertinencia del uso de la técnica
en coherencia con los objetivos de la investigación y la función de la entrevista misma. Una vez
concretados estos aspectos, es necesario seleccionar la muestra de sujetos o informantes clave a los
que suministrar el cuestionario, así como documentarse sobre el objeto de la investigación y el
papel que cada entrevistado juega en dicha problemática. No existe un número fijo de sujetos a los
que elegir como muestra, sino que este depende de los objetivos propuestos. Los informantes deben
ser representativos del fenómeno estudiado y tiene que haber un número suficiente para obtener
información consistente y contrastada y llegar a la saturación informativa, o aquel punto en el que la
nueva información recopilada aporta poco o nada a los objetivos de la investigación. A continuación
es necesario preparar la herramienta o cuestionario, teniendo en cuenta que debe estar sujeto a
criterios de validez y a la posibilidad de réplica en otras investigaciones. Finalmente, hay que
preparar aspectos técnicos como fijar el lugar y la hora del encuentro, disponer de material para la
grabación o diseñar un documento de consentimiento para los entrevistados.
Ya durante la sesión, hay que evitar las interrupciones y dar tiempo a las respuestas y los posibles
silencios, plantear cada pregunta tal y como se concibió en el cuestionario, sin giros añadidos y, por
último, atender al entrevistado por encima del cuestionario o de las notas que se puedan tomar, por
lo cual es necesario estar familiarizado con el modelo de entrevista diseñada. Otras tácticas
4
Unidad 3. Los aspectos no medibles: el método cualitativo
5
Unidad 3. Los aspectos no medibles: el método cualitativo
6
Unidad 3. Los aspectos no medibles: el método cualitativo
Durante la entrevista, el investigador debe guardar distancia respecto a lo relatado. También hay que
procurar que el entrevistado introduzca el contexto espaciotemporal en que se produce cada
acontecimiento, detallando lugares, hechos y personajes.
La historia de vida debe complementarse con una confirmación a posteriori de los datos ofrecidos
por el biografiado, bien a través de la consulta a testimonios de su entorno, bien accediendo a
fuentes documentales. La historia de vida implica la articulación o triangulación de métodos y
técnicas diferentes como la observación, las entrevistas y el análisis documental.
El material que se genera puede estar impregnado de grandes dosis de subjetividad, de ahí que sea
necesario someter los relatos una crítica profunda mediante la formulación de preguntas que
obtengan respuestas próxima a la realidad del fenómeno investigado. Igualmente, el relato puede
estructurarse según los hitos que hayan ido marcado la trayectoria del biografiado.
Las historias de vida a veces presentan riesgos para una investigación rigurosa. Por ello, hay que
revisar de manera constante la forma en que se construye la realidad biográfica, tanto en el relato de
los testimonios como en la propia interpretación.
La técnica consiste en reunir a un grupo de entre seis y doce personas relacionadas con el tema
objeto de estudio, a las que un moderador plantea preguntas o debates en un ambiente diseñado que
favorece la desinhibición y la interacción. Los sujetos entrevistados se caracterizan por contar con
ciertos rasgos comunes. Este tema en común es la base de las hipótesis o preguntas que contribuyen
a la escritura del guión.
La preparación de un focus group requiere una disposición sistemática para que tenga validez y
fiabilidad. En una fase preliminar deben definirse los objetivos, la delimitación del número de
personas que integrarán el grupo y su perfil. Es conveniente que haya un equilibrio en la
representatividad de los participantes a fin de obtener relatos variados, por lo que se recomienda que
los integrantes no se conozcan entre sí. Por otra parte, y junto a ciertas cuotas de homogeneidad
interna, es preciso contemplar cuotas de heterogeneidad para la selección de la muestra de acuerdo
con estratificaciones de edad, género, formación, ocupación, grupo étnico o nivel socioeconómico.
Igualmente hay que preparar detalles operativos como la selección del lugar y, a ser posible, en
torno a una mesa que facilite la interacción entre los participantes; los equipos y materiales
7
Unidad 3. Los aspectos no medibles: el método cualitativo
En una segunda etapa tiene lugar la ejecución de la entrevista grupal o trabajo de campo. El
moderador debe iniciar dicha tarea con una breve presentación del tema objeto de la reunión y la
advertencia de que la información expuesta será grabada y utilizada a efectos de investigación. El
papel del moderador no es demasiado directivo, puesto que, a lo sumo, plantea las preguntas y tiene
que provocar en todos los participantes el deseo de debatir e interactúa con el resto. Generalmente
no interviene en las conversaciones, sino que está atento a su desarrollo para que el grupo no se
desvíe; crea un clima permisivo y puede formular preguntas no previstas inicialmente o rehacer el
guión de acuerdo con las respuestas. La tarea de moderador de un grupo focal requiere de un
adiestramiento previo y de ciertas dosis de experiencia.
Por otro lado, en la sala suele haber otros miembros del equipo de investigación que se encargan de
observar, tomar nota de las cuestiones emergentes, detectar la opinión dominante o descubrir las
discrepancias. Pueden proporcionar al moderador un resumen final de los principales consensos
alcanzados con el fin de que los participantes verifiquen su acuerdo o no con los mismos y puedan
proporcionar información o matices en un turno de réplica final.
En una tercera fase, de análisis y escritura de los resultados, tiene lugar la transcripción de las
intervenciones, la reducción e interpretación de las mismas y la exposición de la información
obtenida, siguiendo los criterios descritos para observación y entrevistas individuales. La redacción
y difusión de los resultados daría por terminada la aplicación de esta técnica.
8
Unidad 3. Los aspectos no medibles: el método cualitativo
los informantes deben tener acceso a las preguntas y respuestas que se van produciendo en la
interacción del grupo.
• Philips 66. Consiste en la división de un colectivo amplio en núcleos de seis personas que, a
lo largo de seis minutos, discuten acerca de un tema determinado. El moderador se encarga
de organizar la dinámica grupal y presentar la problemática a los participantes. Cada grupo
debe nombrar un portavoz que dirige la discusión, sintetiza las aportaciones del grupo y las
expone posteriormente al resto de participantes, generalmente en una segunda fase de
discusión entre los moderadores de cada uno de los subgrupos. Lo propio es que la división
de los equipos se establezca de forma aleatoria, que sus miembros sean desconocidos o poco
conocidos entre sí y que todos participen en la discusión a partir de rondas de
intervenciones.
9
Unidad 3. Los aspectos no medibles: el método cualitativo
10
Unidad 3. Los aspectos no medibles: el método cualitativo
Por último, existen otras técnicas cualitativas muy ligadas a perspectivas críticas de
investigación. Entre ellas podemos mencionar:
• Los sociogramas o mapas en los que se exponen las relaciones entre individuos, colectivos
o instituciones de un territorio, y qué relaciones guardan entre ellos.
• El análisis DAFO, que frente a un problema, producto o idea, plantea un análisis interno de
sus debilidades y fortalezas y otro externo de las amenazas y oportunidades que facilita el
entorno.
• Los propios talleres, paneles y seminarios sirven para obtener datos relevantes a partir de
la interacción entre expertos en una materia.
Más que una técnica en sí misma, la investigación-acción participativa es una perspectiva científica
cuya finalidad es conocer la realidad para intervenir en ella con el objeto de mejorarla, contando
con la participación activa de los agentes y colectivos de una comunidad. Su componente
fundamental es la participación de las comunidades, que, a partir del diálogo libre, problematizan
sus prioridades investigadoras y las posibles vías para resolver una cuestión. Al científico se le
considera más bien un facilitador de conocimiento y un incitador del diálogo en unas comunidades
que son las protagonistas de la técnica.
Por lo general, su planificación es compleja. A grandes rasgos, la perspectiva apuesta por una
construcción dinámica y abierta a la reflexión y la acción basada en un conjunto de fases de
obligado cumplimiento. En la etapa inicial, o de exploración, el investigador toma contacto con la
comunidad e intenta ganarse su confianza mediante un proceso de observación participante. A partir
de ahí procura motivar su interés para tomar parte en la investigación e inicia un proceso colectivo
de reflexión en el que se deciden cuáles son las necesidades y problemáticas más importantes. Esta
fase suele emplear dinámicas grupales como las anteriormente expuestas –entrevistas, grupos de
discusión, Philips 66, árboles de problemas o asambleas– que permiten dar voz a grupos amplios y
heterogéneos de personas. En esta etapa, el investigador plantea una serie de preguntas a fin de que
11
Unidad 3. Los aspectos no medibles: el método cualitativo
el grupo elabore su propio análisis y consensúe cuáles son las áreas en las que es más urgente
intervenir. También suele ser habitual recabar datos secundarios, estadísticas e informes con las
características sociodemográficas de la población y del territorio. Esta fase concluye en la redacción
de un primer documento de autodiagnóstico que guiará la acción posterior.
12
Unidad 4. Desvelar los comportamientos y las interacciones comunicativas: la observación y sus variantes
La observación puede ser considerada como una técnica propia de la metodología cualitativa,
aunque los resultados obtenidos puedan convertirse en datos cuantitativos. Consiste en la
descripción sistemática de eventos, comportamientos o interacciones en el ambiente social en el que
se desenvuelven. Puede revelar problemas implícitos y ofrecer una visión interna de las relaciones
entre sujetos que sea difícil de obtener con otras técnicas. El investigador que la realiza recoge datos
basados en conductas verbales y no verbales, registra las interacciones entre los individuos y el
medio e interpreta las conductas cotidianas o más llamativas. Para ello utiliza los cinco sentidos y
proporciona una imagen estática y dinámica de la situación objeto de estudio. A fin de que sea
científica, esta técnica ha de seguir un procedimiento sistemático, sustentado en hipótesis y marco
teórico, secuenciada a partir de protocolos de observación y susceptible de ser replicada por otro
investigador.
Los requisitos fundamentales para asegurar que se plantea un procedimiento riguroso son
básicamente dos: a) establecer el tipo de elementos que se incluirán en la observación, y b) la
medición de lo observado. Para el primer requisito es habitual recurrir a las tradicionales 5 W –who,
what, when, where, why, a las que se añade how–.
La pregunta “¿qué se observa?” se refiere a la definición de aquello que nos interesa conocer, como
los comportamientos, las costumbres, los diálogos, las reacciones, la estética, etc.; “¿a quién se
observa?” concreta la selección de los protagonistas, que en ocasiones suelen ser líderes o sujetos
destacados de una comunidad y, en otras, gente corriente en situaciones ordinarias; “¿dónde se
observa?” fija el contexto y los escenarios donde tendrá lugar la tarea observacional; “¿cuándo se
observa?” localiza el momento en que encontraremos a los individuos o el fenómeno que estamos
investigando y, finalmente, “¿cómo se observa?” especifica el posicionamiento del investigador
frente a la población observada, el número y características de observadores y la tipología concreta
de la técnica. Estas cuestiones sirven para establecer las posibles categorías que integrarán la hoja
de registro, el cuaderno de campo, el blog o la base de datos que los investigadores necesitarán para
desarrollar su trabajo.
1
Unidad 4. Desvelar los comportamientos y las interacciones comunicativas: la observación y sus variantes
El segundo requisito, la medición de lo observado, permite especificar con exactitud los datos
concretos de las conductas e interacciones examinadas. Las posibilidades de incluir diferentes
medidas de dichas conductas o interacciones son múltiples y entre las más frecuentes figuran las
siguientes:
El diseño de las herramientas de observación debe estar en estrecha concordancia con los objetivos
de la investigación y la finalidad del trabajo. En función de dichos objetivos debemos decidir el tipo
de técnica que mejor conviene, la observación directa, la participativa o la indirecta.
2
Unidad 4. Desvelar los comportamientos y las interacciones comunicativas: la observación y sus variantes
• Fase preliminar:
◦ Elección de temas que observar.
◦ Elección del tipo de observación.
◦ Determinación del grado de participación de los investigadores.
◦ Selección del escenario.
◦ Selección de los informantes y de la muestra.
◦ Elección del tipo de registro de datos.
◦ Diseño de la herramienta observacional: tabla, ficha, etc.
◦ Diseño de otras herramientas de recogida de datos como entrevistas o documentos.
◦ Gestión de permisos y autorizaciones: contactos con los directivos o líderes del grupo.
◦ Selección y preparación del instrumental técnico: vídeos, grabadoras, cámaras
fotográficas, etc.
◦ Documentación sobre el personal o el colectivo observado.
• Trabajo de campo:
◦ Presentación de los investigadores al colectivo.
◦ Elaboración de mapa o croquis del escenario.
◦ Recogida de datos con las herramientas diseñadas.
◦ Registro de los elementos observados.
◦ Ejecución de otras técnicas, como entrevistas.
• Análisis:
◦ Organización de la información: categorización y síntesis.
◦ Estudio e interpretación de los datos.
◦ Escritura de los resultados y conclusiones.
◦ Difusión.
3
Unidad 4. Desvelar los comportamientos y las interacciones comunicativas: la observación y sus variantes
El escenario ideal para la investigación es aquel en el que el observador obtiene fácil acceso, puede
establecer una relación inmediata con los informantes y recoge datos relacionados directamente con
los intereses del proyecto.
Una consideración fundamental en esta técnica es la ética, debido a que trata de documentar
actividades de los sujetos en un entorno de cierta privacidad o confidencialidad. Es necesario
preservar el anonimato de los participantes en la escritura final de los resultados para evitar su
identificación pública. La escritura de los resultados debe ser fiel a los distintos puntos de vista de
los sujetos y situaciones observadas. Por último, es necesario difundir los resultados con el máximo
rigor.
La observación adopta diferentes tipologías dependiendo de distintos factores, entre los que cabe
citar los medios utilizados, el papel del observador, el número de observadores y el lugar donde se
realiza.
4
Unidad 4. Desvelar los comportamientos y las interacciones comunicativas: la observación y sus variantes
Las distintas tipologías no son incompatibles entre sí. Puede darse el caso, por ejemplo, de que la
investigación emprendida sea a la vez estructurada, directa, en equipo, abierta y de campo.
En cuanto al posicionamiento encubierto o invisible del investigador, tiene que ver con la
posibilidad de observar sin ser observado. En esta situación el trabajo es realizado sin el
conocimiento del grupo analizado e implica problemas éticos. Aunque lo habitual y más procedente
suele ser informar a los sujetos de que están siendo objeto de un proceso de observación, puede
darse el caso de que sea preferible mantener a los investigadores encubiertos.
En lo que respecta al lugar donde se realiza la observación, existen diferencias entre efectuarla en
un laboratorio o estancia previamente preparada y las observaciones de campo obtenidas en el lugar
natural donde ocurre el acontecimiento. En el primer caso la observación se desarrolla en un
ambiente artificial, dispuesto por los investigadores para la ocasión, y donde los grupos observados
no están en su hábitat natural y pueden adoptar comportamientos extraños o menos naturales,
generando problemas de validez interna y externa. En el segundo caso las observaciones permiten
5
Unidad 4. Desvelar los comportamientos y las interacciones comunicativas: la observación y sus variantes
dar cuenta de los hábitos y rutinas de la población o de un grupo de sujetos en sus entornos
naturales.
6
Unidad 4. Desvelar los comportamientos y las interacciones comunicativas: la observación y sus variantes
han de ser impares, de tal modo que el centro representa un punto medio o neutral, el lado
izquierdo es negativo y el derecho positivo. IMPORTANTE: ver figura 4.3. (p. 98).
3. Escala descriptiva. Supone la organización de categorías descriptivas de la situación
observada, de forma que se explican con mayor detalle y profundizan los rasgos o atributos
de los colectivos o situaciones. IMPORTANTE: ver figura 4.4. (p. 99).
En la mayor parte de los estudios, los datos obtenidos de la observación indirecta se consideran
material factible de complementar con los procedentes de la directa y participante.
Cuando se procede a la selección de material para este tipo de técnica, deben valorarse los
siguientes elementos:
1. La autenticidad del documento (autoría, fecha). Significa su identificación y la posibilidad
de evaluar si hay problemas de falsificación deliberada o errores cometidos
involuntariamente en su reproducción o transmisión.
2. La credibilidad. Si es una información veraz, si está contextualizada y si es representativa
de la realidad. Implica conocer las circunstancias de su producción.
3. La accesibilidad. Facilidad de acceso a la documentación y disponibilidad de su consulta.
4. La representatividad. Valoración de si la selección realizada es representativa.
7
Unidad 4. Desvelar los comportamientos y las interacciones comunicativas: la observación y sus variantes
La metodología aplicable dependerá del tipo de documento, pero las fichas de observación son las
herramientas más habituales en este tipo de estudios. Junto a esta técnica, el análisis de contenido y
de discurso o los balances estadísticos son los métodos más frecuentes para la documentación de
carácter cuantitativo. IMPORTANTE: ver cuadro 4.3. referente a la ficha genérica de observación de
una fotografía (p. 102).
Esta técnica tiene lugar en espacios virtuales como las listas de distribución, listas de correo, wikis,
comentarios y otras plataformas de los medios digitales y los denominados social media. En todos
ellos participan grupos que contactan a través de correos electrónicos, respuestas o comentarios,
donde se exponen temas para el debate, ofrecen información al respecto y emiten opiniones. En
algunos casos el acceso es restringido, especialmente en las listas de correo y de distribución, o es
necesario registrarse ante un moderador o administrador del grupo.
8
Unidad 4. Desvelar los comportamientos y las interacciones comunicativas: la observación y sus variantes
miembro más y para ello debe ser capaz de tejer relaciones de confianza similares a las que se dan
en las interacciones cara a cara. En el terreno online estas relaciones se entablan con la construcción
de un rostro virtual o un nick que genere cordialidad y credibilidad para evitar reacciones en contra
de los miembros de la comunidad. Sin embargo, el uso de anónimos también tiene implicaciones
éticas y de fiabilidad.
La etnografía virtual no tiene un único escenario observacional, puesto que los usuarios de la red se
mueven en distintas plataformas y utilizan diversos formatos de Internet. En consecuencia, el
observador virtual debe situarse en distintos canales de comunicación, como las listas de correo, los
chats, blogs o grupos de Facebook, lo cual multiplica la recogida de datos sobre el fenómeno
estudiado. Es necesario estar atento a todas las actividades de los usuarios, a fin de conocer sus
relaciones, movimientos, reacciones y sus objetivos. Es importante recordar que dicha movilidad
obliga a introducirse en el campo observado más de lo habitual. Aunque la investigación pueda
mantenerse en la distancia, la conectividad de los websites y la multipresencia de los usuarios en
distintos sitios virtuales pueden derivar en cambios no intencionados en el papel del observador, que
en ocasiones pasa de mero observador a observador participante, o al contrario.
Las fases que hay que seguir en su diseño y práctica son las siguientes:
9
Unidad 4. Desvelar los comportamientos y las interacciones comunicativas: la observación y sus variantes
4. Comprobación de los aspectos técnicos y los programas de software utilizados para entrar
en los espacios virtuales y registrar la información; gestión de permisos de acceso a las
comunidades online.
7. Análisis de los datos, escritura de los resultados y difusión en entornos físicos o virtuales.
10
Unidad 5. Desvelar el contenido de los mensajes: análisis de contenido y de discurso
Por otra parte, esta técnica es susceptible de ser aplicada a muy distintos tipos de texto,
independientemente de su formato: escritos (textos periodísticos, educativos, jurídicos, científicos,
etc.) o audiovisuales, entre los que es posible examinar desde grabaciones radiofónicas a planos y
secuencias de programas y películas. Desde una perspectiva amplia, se puede utilizar asimismo para
el análisis de fenómenos como letras de canciones, estrategias de marketing comercial o como
complemento a las entrevistas, que son susceptibles de ser analizadas e incluso cuantificadas y
valoradas a partir de esta técnica.
1
Unidad 5. Desvelar el contenido de los mensajes: análisis de contenido y de discurso
a profundizar en el qué del mensaje (what), es decir, en su ADN, su arquitectura o sus aspectos más
profundos.
En otras palabras, y aunque no sea este su propósito fundamental, permite hacer averiguaciones
acerca del emisor o autor del mensaje –cuál es su intención, su estado psicológico o su emoción al
escribir algo, qué ideología implícita transmite–, acerca de las propias audiencias, puesto que ayuda
a detectar las características del público objetivo al que el mensaje va dirigido (y sus intereses,
actitudes o valores), e incluso acerca de patrones culturales imperantes en una sociedad. No
obstante, la técnica es sobre todo eficiente en la contabilización de los elementos relacionados con
el contenido, por lo que si queremos profundizar en un conocimiento más detallado y exhaustivo del
emisor o del receptor, es necesario complementarla o triangularla con otros instrumentos como
entrevistas, encuestas o revisión documental.
El primer paso para diseñar un buen análisis de contenido consiste en la definición del universo y la
acotación de una muestra representativa para obtener resultados fiables y extrapolables. En esta
técnica en lugar de población o universo, se suele hablar de corpus, que comprende el número total
de textos que atañen al objeto de estudio. Lo más habitual es que el investigador se enfrente a tal
magnitud de materiales que le resulte imposible abarcarlo todo, por lo cual es necesario establecer
ciertos procedimientos para seleccionar una muestra o parte representativa del corpus. Tal como se
expuso en el capítulo 2, el análisis de contenido utiliza procedimientos aleatorios o intencionales
para la selección muestral.
2
Unidad 5. Desvelar el contenido de los mensajes: análisis de contenido y de discurso
prensa, las unidades de análisis pueden ser titulares y leads, pero a su vez recursos visuales como
fotografías, infografías o humor gráfico.
Para corregir los déficits de contextualización, las unidades de análisis suelen acompañarse a veces
de unidades de contexto, que son segmentos del mensaje que ayudan a captar su significado
exacto, dado que su tamaño es mayor que el de la propia unidad de análisis. Un mismo término
puede adoptar sentidos diferentes en función del contexto en el que se ubique. En el caso de una
palabra, la unidad de contexto suele ser el párrafo, y en el caso del párrafo, el fragmento o el texto
completo. IMPORTANTE: ver cuadro 5.2. (p. 113) para comprender la definición de corpus, muestra
y unidad de análisis en la investigación.
Por lo general, tanto para la selección de la muestra como para el diseño de las categorías es muy
aconsejable que el investigador conozca bien el objeto de estudio y que, por otra parte, haya leído
varias veces y con suma atención una muestra preliminar de los documentos que se va a estudiar.
Esto es lo que Bardin denomina la lectura flotante, o aquella fase en la que se realizan lecturas
sucesivas de un corpus variado de textos para familiarizarse con sus temas, narrativas y enfoques.
Por otro lado, en ocasiones es necesario delimitar un periodo concreto para la selección de la
muestra e incluso el propio sistema de codificación, delimitando si lo que queremos descubrir es la
presencia o ausencia de algún elemento, su frecuencia de aparición, su intensidad o incluso su
orden.
Una vez seleccionadas la muestra y la unidad de análisis, el siguiente paso consiste en el diseño de
las variables y la construcción de un protocolo o ficha de análisis de contenido, que se puede
definir como el conjunto de criterios que ayudan a sistematizar la información contenida en la
muestra para su posterior tratamiento estadístico y conversión en resultados. Por lo general, el
protocolo se suele componer de un conjunto de categorías, o preguntas que se plantean al texto, y
entre las que se pueden distinguir las estrictamente cuantitativas y cualitativas e interpretativas.
3
Unidad 5. Desvelar el contenido de los mensajes: análisis de contenido y de discurso
A su vez, cada variable se acompaña de distintas respuestas o valores que han de cumplir normas
como la exhaustividad, el carácter recíprocamente excluyente y una formulación clara, concisa y
comprensible.
Por último, los distintos valores de cada categoría suelen codificarse y numerarse a efectos de
facilitar su cuantificación, por lo que muchos protocolos y fichas suelen acompañarse del
denominado libro de códigos, un documento en el que se anotan los códigos (generalmente
números) establecidos para cada valor y en el que se explican las variables más complejas a efectos
de facilitar su sistematización. IMPORTANTE: ver cuadro 5.3. (p. 115) para comprender cómo
funciona un libro de códigos en una investigación.
Una vez diseñados el protocolo y el libro de códigos, solo queda aplicar la herramienta a una
muestra de textos y pasar posteriormente a elaborar los resultados, ya sea desde el análisis
pormenorizado de cada variable (denominado análisis univariable) o cruzando distintas variables
(multivariable).
Los estudios de enfoque han provocado un avance sustancial en los análisis de contenido realizados
en los últimos años, en especial en investigaciones que intentan verificar de qué manera los medios
encuadran la realidad y enfatizan determinadas interpretaciones a la hora de cubrir una noticia. El
enfoque o frame ha sido definido como la idea central organizadora del contenido de un texto y el
propio hecho de enfocar tiene que ver con “seleccionar algunos aspectos de una realidad que se
percibe y darles más relevancia en un texto comunicativo, de manera que se promueva una
4
Unidad 5. Desvelar el contenido de los mensajes: análisis de contenido y de discurso
definición del problema determinado, una interpretación causal, una evaluación moral y/o una
recomendación de tratamiento para el asunto descripto” (Entman, 1993: 52).
La clasificación de frames de Neuman, Just y Crigler (1992), apunta a que en todas las noticias es
fácil percibir uno o más de los siguientes enfoques:
1. Atribución de responsabilidades, cuando la pieza imputa la responsabilidad y posible
solución de un asunto a un individuo o institución
2. Conflicto, si la información enfatiza los elementos de tensión y conflicto entre individuos,
grupos o instituciones.
3. Interés humano, cuando se incide en historias personales que despiertan la identificación
del lector.
4. Consecuencias económicas, si el asunto se presenta en términos de efectos económicos a
los que tendrá que hacer frente en el futuro determinado colectivo, institución o región.
5. Moralidad, cuando la noticia se enmarca desde prescripciones morales o principios
religiosos.
Por su parte, Iyengar y Kinder (1987) distinguen entre dos tipos de enfoques muy habituales en
televisión: los episódicos, cuando los sucesos que se narran enfatizan eventos y casos particulares,
con protagonistas, guión y cierta tensión dramática (por ejemplo, cuando se narra la historia de una
víctima del terrorismo), y los temáticos, si las noticias se abordan desde el background, las causas y
las posibles soluciones (por ejemplo, ciertos relatos de la crisis económica que enfatizan los
programas de cada partido político).
La variedad de enfoques analizables en las noticias es amplia y depende de las capacidades del
investigador a la hora de crear categorías de tipo interpretativo. Asimismo, ha sido habitual estudiar
la representación de la sociedad civil y los movimientos sociales en los medios.
Los análisis de contenido informatizados, a diferencia de los manuales, cuentan entre sus ventajas
que los resultados se pueden comprobar fácilmente por cualquier investigador y, sobre todo, que
permiten hallar redes complejas de significado que sería difícil percibir a simple vista.
5
Unidad 5. Desvelar el contenido de los mensajes: análisis de contenido y de discurso
El objetivo último del análisis crítico es determinar cómo el discurso contribuye a reproducir la
desigualdad y la injusticia social debido a que siempre hay ciertos grupos que tienen un acceso
privilegiado a los medios, mientras que del resto de comunidades se ofrece un retrato estereotipado,
imparcial y en razón de diferencias de género, etnia, edad, clase social, etc.
En relación con el análisis de contenido cuantitativo de tipo estándar, la primera diferencia es que el
análisis crítico suele combinar el estudio del texto con otras técnicas cualitativas, como la revisión
documental, la etnografía, la observación o las entrevistas. Dado que su objetivo es identificar los
componentes que envuelven al discurso y que hacen comprensible sus objetivos y efectos, entre las
dimensiones de análisis más habituales se cuentan el estudio del background (político, cultural,
psicológico), los agentes y pacientes implicados en cada texto y cuestiones tan diversas como el
sistema implícito de ideología y valores, la intertextualidad con otros textos, las técnicas de
persuasión empleadas o los recursos, argumentaciones y metáforas que lo sustentan.
En segundo lugar, es habitual que el censo de textos revisados sea algo menos que el de las
muestras amplias que caracterizan a los análisis cuantitativos. Esto es debido a que sus operaciones
metodológicas son mucho más complejas, puesto que incluyen la triangulación de diferentes
enfoques –narrativos, semióticos, retóricos o lingüísticos– y metodologías distintas, como las antes
señaladas. Por último, los análisis críticos parten de diseños menos rígidos y cerrados que los que se
utilizan en el análisis cuantitativo, puesto que no existen recetas universales para esta técnica, sino
solo aproximaciones metodológicas muy contextualizadas en virtud de los objetivos de cada
investigación. Por último, su perspectiva es aplicada y crítica; o, en otras palabras, la
investigación se emplea para desafiar y transformar los discursos que crean relaciones de
desigualdad en la sociedad actual.
6
Unidad 5. Desvelar el contenido de los mensajes: análisis de contenido y de discurso
Existen diversas modalidades para analizar los contenidos explícitos e implícitos en un texto, y que
se pueden combinar con las perspectivas cuantitativas o cualitativas del análisis de contenido y el
análisis crítico de discurso, respectivamente.
• En primer lugar, y especialmente relevante para los estudios audiovisuales, destacan los
abordajes de la narrativa y la narratología, que en líneas generales tienen por objeto
desvelar las historias y patrones narrativos latentes en textos de ficción y no ficción. La
teoría narrativa parte de la hipótesis de que las historias están presentes desde tiempo
ancestrales en la religión o la mitología, y que estas se han transmitido a lo largo de
generaciones hasta conformar relatos-tipo que responden a la necesidad inherente de los
seres humanos de contar historias para explicar la realidad y construir su identidad.
Los personajes de cualquier historia se definen por lo que hacen y representan, por lo que
cualquier relato acaba narrando las vicisitudes de un personaje principal (sujeto) que desea
conseguir un objeto (o complemento acusativo) de deseo (por ejemplo, el amor de una
princesa). En torno a esa búsqueda el personaje encuentra ayudantes y oponentes (o
complementos circunstanciales), motores que impulsan la acción del sujeto (o destinadores)
y sujetos que actúan a modo de complementos indirectos o de atribución a partir de la acción
del sujeto (o destinatarios). Entre estos personajes principales, destaca por encima de todos
el sujeto protagonista, puesto que todo relato es una sucesión de vaivenes entre sujeto que ha
sido separado de un objeto y que desea por tanto volver a conseguirlo o preservarlo, de
acuerdo con el esquema que representa el cuento de Caperucita (ver figura 5.1. de la página
122).
El análisis narrativo no sólo se utiliza en el ámbito de la ficción, sino que muchas noticias
que aparecen diariamente en prensa o televisión son susceptibles de ser examinadas desde
este esquema, puesto que implican estructuras similares de personajes que realizan acciones
de acuerdo con roles muy marcados.
7
Unidad 5. Desvelar el contenido de los mensajes: análisis de contenido y de discurso
El análisis semiótico de Barthes y sus continuadores analiza la imagen desde dos planos
interrelacionados: la connotación y la denotación. La denotación es la significación más
obvia e inmediata de un texto, puesto que en ella el significante (lo que retrata la imagen
misma) guarda una relación directa con el objeto o referente concreto que representa (por
ejemplo, la fotografía de una botella de alcohol en el ámbito publicitario). Un plano menos
obvio, latente y profundo es el de la connotación en el que la imagen ya no guarda relación
directa, sino arbitraria con el referente, por lo que el plano es susceptible de interpretaciones
subjetivas. Así, por ejemplo, una botella de alcohol en un anuncio con tonos fríos y dirigidos
al hombre puede representar la masculinidad, la virilidad y el propio orden patriarcal.
• Por otro lado, también cabe citar un conjunto de investigaciones que abordan el star system
y las celebridades que protagonizan películas o series, puesto que estas provocan
identificaciones con determinados grupos de fans y seguidores.
• Por último, nos detenemos en los aportes de la retórica al estudio del mensaje periodístico o
mediático, puesto que estos estudios acumulan una larga tradición. La retórica se puede
definir como arte (práctica oratoria), como teoría (tradición) o como método de
investigación, y en esta trayectoria se distinguen dos concepciones fundamentales: la
retórica entendida en términos de práctica persuasiva que emerge en el contexto de
audiencias poco formadas y ante las que se discuten temas contingentes y polémicos, y la
retórica como una dimensión constitutiva del lenguaje y que está presente en todo tipo de
prácticas comunicativas. Así, mientras que en el primer enfoque se entiende la retórica como
persuasión, en el segundo se concibe en términos de identificación y consustancialidad entre
posiciones textuales que dan lugar a efectos discursivos.
La retórica debe ser entendida más allá del uso popular del término como discurso
rimbombante, falso y vacío y cuyo propósito es engañar a las masas. Así, en el ámbito
anglosajón los estudios se vienen renovando desde finales del siglo XX con la apertura de
diversos programas de estudio específicos, y hoy los enfoques retóricos se pueden encontrar
8
Unidad 5. Desvelar el contenido de los mensajes: análisis de contenido y de discurso
9
Unidad 6. Conocer las reacciones: experimentar en comunicación
El fin último de los experimentos es indagar en las relaciones causales que explican los fenómenos
sociales o naturales, por lo que suelen ser propios de estudios de carácter interpretativo, evaluativo e
incluso predictivo, y no por tanto de investigaciones exploratorias o descriptivas. Esta técnica se
aplica únicamente a temas de investigación que se conocen exhaustivamente y sobre los que es
posible imaginar hipótesis de causa-efecto. De hecho, uno de sus fundamentos de partida tiene que
ver con la posibilidad de conocer la ordenación o precedencia temporal de una causa sobre su
posible consecuencia y, por lo general, los experimentos fallidos proceden de una ordenación causal
errónea o un conocimiento inadecuado de una materia.
Más que una técnica en sí misma, los experimentos se consideran más bien una estrategia de
análisis que intenta recabar datos cuantitativos o cualitativos –cuando se observan, por ejemplo,
reacciones grupales–, a partir de la combinación o triangulación de otras técnicas que sí ofrecen
esta posibilidad, como la observación, las encuestas o las entrevistas. Además, y a diferencia de los
métodos anteriores (encuesta, observación), en los que el investigador se limita a observar o indagar
en la realidad sin interferir mucho en ella, en el experimento los estudiosos adoptan una
participación muy activa, debido a que tienen que tomar decisiones acerca de la selección de los
sujetos, la disposición del entorno o el control de las variables.
1
Unidad 6. Conocer las reacciones: experimentar en comunicación
El experimento se puede definir de forma simplificada como un estudio en el que los investigadores
introducen una acción para estudiar su repercusión sobre un fenómeno o sobre un grupo de seres
humanos. En el campo comunicacional, este sería el caso de observar las reacciones de los
espectadores al emplear determinados eslóganes o música en un anuncio publicitario y comprobar
su reacción.
De manera más detallada, el método experimental se orienta a estudiar las relaciones de causa-
efecto y las consecuencias y reacciones que se observan al introducir o alterar una o más variables
(independientes) sobre otra variable (dependiente), entendiendo el concepto de variable como todo
aquello que puede alterarse o que es modificado a partir de esta técnica. En los experimentos se dan
dos tipos de variables fundamentales: las dependientes, que coinciden con el objeto de estudio
(una persona o un fenómeno), y las independientes, que son aquellos factores que el investigador
modifica conscientemente y que provocan reacciones en el objeto o variable dependiente. Las
variables dependientes no se manipulan, puesto que en ellas se observa o mide su reacción, mientras
que las independientes se corresponden con las acciones e intervenciones que se ejercitan durante el
estudio. Así, por ejemplo, si realizamos un experimento para mejorar la comunicación interna de la
empresa, la variable dependiente sería la plantilla de trabajadores, mientras que la independiente
podría serla introducción de un chat o un listado de distribución para comprobar si con esta
actuación las tareas se coordinan y agilizan mejor.
Dado que la finalidad del experimento es comprobar las reacciones de unas variables sobre otras,
existe un tercer elemento que conviene controlar a lo largo del estudio: las denominadas variables
contaminadoras, perturbadoras, irrelevantes o extrañas, que son factores ajenos a los propósitos
de la investigación y que pueden introducir reacciones inesperadas sobre la variable dependiente.
Esto último apunta a una de las características definitorias del método experimental: la necesidad de
manipulación y control de todas las dimensiones que intervienen en la prueba, desde la elección de
la muestra al aislamiento del objeto de estudio; de ahí que la mayor parte de los experimentos se
emprenden en laboratorios o lugares cerrados en los que se recrean situaciones artificiales. Estos
espacios son propicios para aislar al objeto de estudio de todo estímulo que no sea la variable
independiente, controlando, a la vez, factores contextuales como la temperatura, la iluminación o el
sonido, tal y como se presenta en la figura 6.1. de la página 132.
2
Unidad 6. Conocer las reacciones: experimentar en comunicación
Otra dimensión importante es la aleatorización de las muestras, que implica trabajar con muestras
aleatorias de individuos que comparten entre sí características (por ejemplo, una edad parecida, un
nivel similar de consumo televisivo), de acuerdo con las técnicas de muestreo. En este sentido, los
experimentos controlados son los más habituales, puesto que si queremos comprobar los efectos de
un factor determinado sobre un objeto de estudio, lo más preciso es establecer dos experimentos
idénticos a fin de comparar resultados: el primero, a un grupo experimental, al que se expone a la
variable independiente, y el segundo, a un grupo de control, al que no se aplica el estímulo y que
sirve para comparar si es, efectivamente, la variable independiente la que provoca o no la reacción.
Las tipologías de los experimentos varían en función de factores como el entorno de aplicación, el
grado de validez interna, la elección de los sujetos experimentales o el número de grupos muestrales
que se comparan:
1. En relación con el entorno o espacio de aplicación, los experimentos más habituales son
los de laboratorio, en los que los sujetos acuden a un lugar cerrado o un espacio artificial en
el que se realiza una prueba. En este caso, el investigador tiene pleno control sobre el
espacio, las variables y la propia reacción de los sujetos, lo que le permite una evaluación
muy estricta y fiable de los posibles efectos de las variables independientes sobre el objeto
de estudio. Su desventaja es la propia artificialidad, que puede derivar en problemas de
validez interna, dado que en el laboratorio los sujetos perciben en todo momento que están
siendo observados y suelen modificar por ello su conducta.
Por el contrario, en los experimentos de campo se invierte esta relación. En este caso, son
los investigadores los que acuden al espacio natural de los sujetos investigados (lugares
3
Unidad 6. Conocer las reacciones: experimentar en comunicación
públicos, entornos laborales, etc.) y es allí donde ofrecen los estímulos e intentan controlar,
con mucha dificultad, las variables ajenas o contaminadoras. Los estudiosos suelen optar por
esta modalidad cuando necesitan examinar situaciones sociales complejas que solo es
posible observar in situ, tal y como ocurre cuando se introduce una nueva tecnología en un
entorno educativo. En los experimentos de campo no es posible realizar una selección
aleatoria de la muestra, sino que tan solo se observa a la gente en su cotidianidad, con mayor
o menos encubrimiento, pero con la posibilidad de comparar la situación anterior con la
derivada de la introducción del estímulo. Tampoco permite establecer mecanismos de
control a priori sobre el entorno o las variables, por lo que están sujetos a fallos de validez
interna. Los experimentos de campo se asemejan a la observación, con la ventaja de que en
este caso las relaciones de causa-efecto se hacen más evidentes y con la diferencia de que en
la observación el investigador no introduce acciones para comprobar las reacciones. Un
buen ejemplo de esto serían las investigaciones que evalúan los cambios producidos por la
introducción de una nueva tecnología (una smart TV) en los hogares.
4
Unidad 6. Conocer las reacciones: experimentar en comunicación
◦ Por último, los experimentos puros son aquellos en los que no falta ningún elemento
básico –aleatorización de las muestras, control sobre las variables, realización de los test
antes y después de la prueba–, por lo que su validez interna es muy alta y permiten cierto
grado de generalización.
5
Unidad 6. Conocer las reacciones: experimentar en comunicación
◦ Los experimentos univariables, en los que se analiza la reacción frente a una única
variable independiente.
5. En quinto lugar, de acuerdo con el momento en el que se realizan las observaciones, cabe
distinguir entre:
◦ Los diseños que realizan una sola medición (generalmente un postest basado en
encuestas o entrevistas).
6. En sexto lugar, de acuerdo con el grado de ocultación de los objetivos del experimento, es
habitual distinguir entre:
6
Unidad 6. Conocer las reacciones: experimentar en comunicación
8. Por último y de acuerdo con el número de grupos que conforman, suele hablarse de:
1. Cuando manipulamos una o más variables independientes es posible medir valores como la
presencia-ausencia o la intensidad. Con presencia/ausencia nos referimos a comprobar el
efecto que produce la introducción de una variable independiente sobre un grupo
experimental, lo que se garantiza si conformamos un grupo de control al que no se expone al
7
Unidad 6. Conocer las reacciones: experimentar en comunicación
estímulo o al que se aplica una variable distinta. Si en ambos grupos se dan reacciones
diferenciadas, nos encontramos frente a la presencia efectiva de la variable independiente
como factor explicativo y, en este caso, tendremos certeza de la fiabilidad de la prueba. Por
su parte, los investigadores también pueden medir la intensidad, o grado de actividad,
penetración o fuerza de una variable. En este sentido, es posible manipular en cantidades o
grados (diferentes potencias, duraciones) a fin de determinar si las distintas intensidades
provocan reacciones diferenciadas en el objeto de estudio. Por ejemplo, desde la teoría del
cultivo (Gerbner y Gross, 1976) se plantea que los efectos dependen, más que del contenido,
del número de horas que un espectador consume diariamente la televisión, concluyendo que
los espectadores con exposiciones más prolongadas y a partir de cuatro horas al día tienen a
desarrollar creencias similares a las retratadas en la televisión y una percepción mayor de la
inseguridad y la violencia que la que mantienen los consumidores menos activos.
8
Unidad 7. La información digital
Aunque en la presente unidad se haga un mayor hincapié en el área periodística, téngase en cuenta
que los aspectos y métodos a continuación indicados pueden aplicarse a las investigaciones
relacionadas con el ámbito de la comunicación.
Dicho esto, las investigaciones iniciales sobre el pasado informativo se realizaron, en su mayor
parte, con un diseño de carácter descriptivo y caracterizado por una profusión de nombres, datos y
fechas, desde una perspectiva erudita y de élite. No obstante, y una vez que se han elaborado
catálogos o repertorios de referencia histórica, es ineludible aplicar métodos que permitan conocer
el periodismo en profundidad, lo que implica un acercamiento a las particulares relaciones y
dinámicas que se dan entre sus autores, sus formas de producción, sus conexiones del poder o la
influencia en la sociedad donde se inserta.
Desde finales del siglo XX, asistimos a la incorporación paulatina de Internet a los entornos
laborales, educativos o de ocio. Sus usos y potencialidades han provocado desde entonces
innumerables debates que tienen por objeto conocer las transformaciones que estas tecnologías
provocan en el ámbito de la comunicación, y en los nuevos modos de producción, distribución y
consumo informativo. De hecho, desde mitad de la década de 1990, algunos teóricos vienen
hablando del nacimiento de un nuevo tipo de periodismo: el denominado ciberperiodismo, al que
podría definirse genéricamente como aquel que se produce directamente en Internet y para las redes
digitales. En el caso español, en septiembre de 1994 comenzó a publicarse a diario la versión digital
del Boletín Oficial del Estado, un dato que no es una mera anécdota, sino que supone el punto de
partida de una nueva historia de la prensa española, en este caso desde las lógicas renovadoras que
impone la World Wide Web. Desde entonces, buena parte de las grandes cabeceras del país se han
ido sumando al universo digital, un cambio que también es apreciable en el ámbito de medios
audiovisuales como la radio y la televisión, que han transformado sus dinámicas productivas
transitando en pocos años desde lo analógico a lo digital.
1
Unidad 7. La información digital
Las aportaciones teóricas y los planteamientos metodológicos sobre los denominados cibermedios
pronto comenzaron a proliferar, e incluso se ha debatido en torno a la denominación más precisa
para el nuevo periodismo que emerge con los soportes electrónicos: desde periodismo electrónico y
digital al periodismo online, el e-periodismo o el ciberperiodismo, este último término como una
derivación de las conceptualizaciones acerca del ciberespacio. En España, la primera catalogación
de medios en Internet fue realizada por Armañanzas, Díaz-Noci y Meso (1996), mientras que la
obra Medios de comunicación en Internet (Meso y Díaz-Noci, 1997) propuso un repertorio de los
primeros cibermedios. Desde entonces, han sido mucho los autores dedicados a estudiar este
complejo fenómeno, incluso desde un enfoque retrospectivo. Así, los distintos estudios han
comprobado la notable transformación registrada en un corto periodo de tiempo a partir del uso de
las tecnologías derivadas de la web 2.0 y sus potencialidades para la interacción y la participación
en forma de social media o redes sociales. Por su parte, la crisis económica iniciada en el año 2008
acabó con algunos medios publicados en soporte papel al tiempo que incrementaba el número y la
penetración de los digitales, unos medios con menor coste económico y menores limitaciones
materiales. A todo esto cabe sumar que estallidos sociales recientes como el 15M han provocado un
nuevo revival de las plataformas de comunicación alternativa, entre las que cabe destacar el
surgimiento de nuevas cabeceras, radios, televisiones, así como el uso periodístico de plataformas
como YouTube, Bambuser o Vimeo.
La aparición de los cibermedios ha transformado en pocos años todas las dimensiones del proceso
de producción, distribución o recepción informativas, desde el perfil profesional del periodista a las
propias estructuras empresariales, pasando por formatos, lenguajes, géneros o nuevos modos de
relación con las audiencias. Por un lado, la televisión ha fragmentado poco a poco su oferta para
adaptarse a una audiencia cada vez más especializada y que demanda servicios interactivos e
individualizados. Por su parte, la radio ha registrado cambios más modestos en relación con la
tecnología digital, si bien ha renovado sus prácticas a partir de la incorporación de podcasts o los
nuevos modos de participación que facilitan las redes sociales y los soportes tecnológicos.
En lo que respecta a los periódicos online, las continuas innovaciones introducidas desde mitad de
la década de 1990 exigen un análisis del fenómeno con técnicas adecuadas a su naturaleza digital y
su carácter cambiante. Si en un principio se trató del simple volcado a los diarios tradicionales al
soporte online, las investigaciones contemporáneas han de enfrentarse a formatos híbridos e
innovadores que han llegado a constituir modos bien distintos de comunicar la información al gran
público y que abren camino inevitable hacia la transdisciplinariedad y la triangulación
metodológica.
2
Unidad 7. La información digital
Algunos autores han añadido a este esquema la memoria, relacionada con el espacio ilimitado que
proporciona Internet de cara al almacenamiento de informaciones y archivos digitales, un rasgo que
facilite la posibilidad de acumular grandes cantidades de datos (big data) susceptibles de ser
recuperados de manera instantánea y acumulativa. Estas características abren un panorama muy
complejo para la investigación venidera, que contempla cómo se multiplican los elementos de
análisis y los problemas susceptibles de abordaje. Las ventajas que Internet ofrece en cuanto al
incremento de los datos y las nuevas posibilidades de acceso a la información tienen algunas
contrapartidas:
2. Localización. ¿Cómo encontrar los nuevos medios? ¿Cuáles son sus direcciones
electrónicas si ignoramos su existencia?
3. Volatilidad. Los nuevos medios a veces desaparecen o cambian de dirección. Por su parte,
los buscadores no han unificado criterios respeto a cuántos y cuáles son los medios que
existen en Internet. Las condiciones y naturaleza de la red ofrecen una contradicción para la
investigación: por un lado tenemos más medios que nunca y con un mejor acceso, pero, por
otro lado, su extrema fluidez limita conseguir una información precisa que ayude a elaborar
censos fiables por parte de investigadores, profesionales o instituciones reguladoras.
3
Unidad 7. La información digital
6. Conservación. Muchos medios online, en especial los de nueva creación no han tenido en
cuenta la preservación de contenidos para las generaciones presentes y futuras y carecen de
hemerotecas digitales que permitan analizar las secuencias editoriales completas. En su
lugar, han arbitrado sistemas de búsqueda que no garantizan una investigación rigurosa por
cuanto en muchas ocasiones presentan fallos y porque no todos los medios se han dotado de
un departamento de documentación que asuma dichas tareas. Por su parte, los medios más
antiguos disponen de hemerotecas, si bien a veces resulta muy complicado extraer o
descargar la información archivada.
Estas limitaciones afectan, entre otros, a los estudios retrospectivos de los cibermedios, que se
enfrentan a importantes limitaciones derivadas de la dificultad de hallar las distintas versiones y las
colecciones completas. En definitiva, los instrumentos de análisis deben tener en cuenta estas
limitaciones y aprovechar todas las posibilidades informativas y cognitivas que dichos medios
ofrecen.
Al igual que en otros objetos de estudio, los métodos cualitativos y cuantitativos son factibles de
aplicación a los medios online, si bien con matices diferenciadores debido a las potencialidades y
limitaciones antes señaladas. Las técnicas metodológicas deben ser capaces de afrontar todo el
proceso de la producción informativa digital, así como ahondar en las nuevas lógicas de producción
de los mensajes y las formas renovadas de interacción con los usuarios. Por otra parte, cabe abordar
la investigación desde disciplinas muy diversas o los propios enfoques que han prevalecido en la
investigación mediática y periodística: el sociológico, el jurídico, el empresarial, lingüístico,
semiótico, morfológico e incluso historiográfico.
Una cuestión fundamental a la hora de estudiar las nuevas dinámicas consiste en definir cuáles son
las unidades de análisis, teniendo en cuenta que la estructura de los medios online es hipertextual y
4
Unidad 7. La información digital
que su elemento básico es el hipervínculo, que permite moverse entre distintos documentos y nodos.
La investigación también debe incorporar la nueva dimensión participativa que ofrecen los
cibermedios, caracterizada por una colaboración cada vez más activa de los usuarios en relación con
el medio, que ha dado lugar a la popularización de términos como el de prosumidor (prosumer), un
consumidor que colabora con sus comentarios y contenidos en la construcción del medio. Por
último, hay que añadir, asimismo, las profundas transformaciones visuales, sonoras o audiovisuales
que incorporan los nuevos medios, que constituyen en sí mismas unidades de análisis.
Los investigadores deben construir sus propias fichas de análisis a fin de configurar y administrar
estudios sincrónicos y diacrónicos de los medios y sus contenidos.
El estudio de la prensa online y las nuevas potencialidades informativas que esta conlleva –como
los cambios en la producción y arquitectura de la información, la cobertura de la realidad social, la
calidad, credibilidad y gestión de los contenidos, la difusión, el diseño, la rentabilidad, la
participación e interactividad, etc.– exigen la utilización de metodologías adaptabas al entorno
virtual. En cualquier caso, y dependiendo de los objetivos, se podrían aplicar versiones del análisis
de contenido, las entrevistas en sus distintos tipos, los focus groups, los estudios de caso, las
5
Unidad 7. La información digital
encuestas o cálculos cuantitativos de diverso tipo. Estas técnicas requieren una perspectiva
actualizada que implique acomodaciones al soporte digital y a la utilización de las nuevas
tecnologías infocomunicacionales, desde el correo electrónico a Skype, los foros de discusión o las
redes sociales.
Los nuevos medios se organizan en torno a una estructura nodal que facilita la lectura al usuario y
esta estructura de la noticia ha de analizarse con herramientas enfocadas a las dimensiones internas
de los cibertextos, los elementos que componen los nuevos discursos multimedia, consideraciones
en relación con el estilo, etc.
Los recursos hipertextuales requieren, asimismo, un análisis observacional que detecte el tipo de
enlace y su estructura a fin de ofrecer datos acerca del destino, el propósito y la tipología de dichos
enlaces. Por otra parte, ha de tenerse en cuenta que se trata de un texto interactivo, no es secuencial
y multilineal, con un encadenamiento de lectura variable que conlleva una desestructuración de los
textos tradicionales y que permite al usuario transformar el orden de la lectura.
6
Unidad 9. Investigación sobre Internet y las plataformas digitales
No es igual analizar una web que un chat o un foro, aunque en todos los casos es necesario partir de
búsquedas en los motores creados para tales aplicaciones a fin de ordenar la información que
proporcionan las gigantescas bases de datos presentes en Internet. Google se ha convertido en el
buscador más extendido, seguido de Yahoo o Bing. A este panorama cabe añadir los dedicados a la
denominada Internet profunda o Deep Web como Yippy; buscadores de buscadores como
WebCrawler y Google Web Search que examinan la información existente en enciclopedias,
diccionarios y tesauros; Google Advanced Search, que permite una búsqueda profunda de filtros
temáticos, geográficos y cronológicos, o buscadores académicos especializados como Google
Scholar.
Los motores de búsqueda sólo pueden decodificar las palabras clave que introducen los usuarios,
pero no pueden interpretarlas ni tener en cuenta los diferentes sentidos que adquieren en los
diferentes contextos. En su lugar, los buscadores rastrean las páginas en función de la frecuencia de
consulta y la localización de términos formales. Por otra parte, los resultados de las búsquedas se
adecuan a los rastreos del recorrido personal del usuario en Internet, es decir, están basados en el
historial, la localización y, en consecuencia, en cierta personalización.
Algunos de ellos, especialmente Google, cuentan con servidores de aplicaciones que aparecen
siempre entre los primeros lugares en las páginas web, como Google Maps, Google Images, Google
News o Google Ngram. Trabajar con los buscadores supone, por tanto, interactuar con instrumentos
que poseen mecanismos de selección y ordenación de una lógica mecánica que es necesario
conocer. Cuando estos no permiten el acceso a un documento, una opción que soluciona el
problema al File not found es acudir al archivo de Internet en su recurso Wayback Machine, que
proporciona al usuario la posibilidad de consultar y descargar materiales que ya no están activos o
accesibles.
Las investigaciones realizadas en este entorno digital han de ser concebidas con un diseño de
carácter exploratorio. Los elementos factibles de investigar van más allá de páginas web, puesto
que también nos encontramos con:
1
Unidad 9. Investigación sobre Internet y las plataformas digitales
Sin embargo, no todo está accesible en el dominio público con un simple clic ni en sistema Open
Access. Más bien encontramos importantes limitaciones a las búsquedas y la consulta de la
documentación virtual, restringidas, entre otros factores, por derechos de autor, contraseñas,
requerimientos de suscripción, decisión de los emisores de excluir documentación de los motores de
búsqueda, etc. Estos materiales forman parte de la denominada Deep Web.
3. Revisar las opciones que ofrecen los buscadores. Si estos devuelven demasiadas respuestas
es necesario agregar más palabras clave para reducirlas y con el objeto de encontrar los sites
que más convengan. Si, por el contrario, restituyen pocas respuestas, se sugiere disminuir o
borrar las palabras clave o sustituirlas por otras.
2
Unidad 9. Investigación sobre Internet y las plataformas digitales
7. Elaborar una base de datos con los hallazgos rastreados, especificando la fecha de la
consulta, su identificación, la URL de su ubicación y cualquier información que pueda ser
útil.
Existen algunas herramientas de software que ayudan en las tareas de investigación como Zotero o
Pundit. Uno de los elementos que conviene considerar en la investigación sobre la websphere es la
naturaleza dinámica de los sitios que incluye. Así, los websites pueden funcionar como unidades de
análisis micro, pero pueden llegar a convertirse en unidades macro con importantes cantidades de
datos. El análisis de la esfera web debe ser, por tanto, acometido con una estrategia que incluya el
análisis de las relaciones entre productores y usuarios de materiales digitales, los hipertextos y los
enlaces establecidos entre ellos.
Los blogs se configuran como los nuevos diarios personales del siglo XXI, unos cuadernos de
bitácora que están dotados de recursos multimedia e interactivos como herramientas de auditoría
para verificar el número y procedencia de los lectores, espacios para comentarios y debates, enlaces
a otros blogs recomendados por el autor a partir del blogroll y el calendario de las publicaciones.
Sus autores publican, artículos, anotaciones o posts (entradas) ordenados cronológicamente, siendo
visible en primer lugar el más reciente. El estilo redaccional desenfadado y divulgativo y las
3
Unidad 9. Investigación sobre Internet y las plataformas digitales
4
Unidad 9. Investigación sobre Internet y las plataformas digitales
millones de personas accedan a unas plataformas que amplían las posibilidades de interacción del
pasado y proporcionan usos tan diferentes como foros y grupos de discusión, videojuegos online,
microblogs, etc.
En la actualidad, las redes sociales son estructuras virtuales compuestas por personas conectadas
por intereses comunes y que comparten todo tipo de contenidos de acuerdo con relaciones de
carácter familiar, profesional, de amistad, ideológicas, etc. Éstas cumplen a su vez un número
importante de funciones complementarias a las relaciones interpersonales y la vida offline, tales
como la informativa, la cohesión social, el apoyo emocional, etc. No difieren mucho de las redes
naturales en cuanto a su composición y comportamiento y tienen su origen en la necesidad de
agrupación y de sociabilidad de los seres humanos. Actualmente, la interactividad es una
característica inherente a estos nuevos formatos web 2.0. Asimismo, el ámbito de lo público y lo
privado tiende a diluirse en las redes.
Existen numerosas redes sociales en función de sus objetivos: desde las más generales a las
especializadas, y desde aquellas que tienden a un uso profesional y académico (Academia.edu o
ResearchGate) a aquellas que se dedican a compartir noticias sociales generadas por sus miembros
(NowPublic o Reddit). Entre las más conocidas y con mayor número de usuarios figuran: Badoo,
Facebook, Flickr, Google+, Hi5, Instagram, linkedIn, MySpace, Pinterest, Tumblr, Twitter,
YouTube y Snapchat.
Estos grandes espacios virtuales de interrelaciones sociales resultan de una gran complejidad y
exigen la búsqueda de métodos de investigación que permitan determinar las especificidades de
cada comunidad virtual y lo que en ellas acontece: quiénes son sus responsables, cuáles son sus
actividades, qué tipo de interacción establecen los usuarios, qué lazos emocionales o ideológicos
crean, etc. También es necesario tener en cuenta que no existe un universo de redes sociales
desvinculado de los medios tradicionales que las preceden –cibermedios o radio digital–, puesto
que muchos de sus contenidos proceden de los medios.
Una técnica metodológica extendida para el estudio de las redes es la etnografía virtual propuesta
por Christine Hine (2000). Esta técnica pretende estudiar el conjunto de conexiones que se
establecen entre los diferentes espacios online y offline donde se desarrolla un determinado
fenómeno, es decir, entre los discursos y las actuaciones generados en el territorio virtual y los que
se practican en la vida cotidiana.
5
Unidad 9. Investigación sobre Internet y las plataformas digitales
Kozinets (2009) en sus estudios sobre marketing sustituyó el término por el de netnografía (de la
combinación de network y ethnography), una técnica de observación participante online que
posibilita la interpretación y la comprensión de los mensajes e interactuaciones que se dan entre los
usuarios de estas redes. La netnografía implica la participación continuada del investigador en los
escenario virtuales donde tienen lugar las actividades objeto de estudio, y es a partir de esta
participación como se obtienen conclusiones sobre el funcionamiento y los intereses de los
colectivos implicados, entre los que se pueden percibir las siguientes actuaciones (Turpo, 2006):
1. Establecer relaciones con los miembros del colectivo virtual.
2. Estudiar sus símbolos, normas y lenguaje.
3. Identificar a los miembros que integran la comunidad para comprobar sus perfiles
actitudinales, desde la detección del líder a los usuarios pasivos o aquellos que comparten
actividad de manera puntual.
Por otra parte, estudiar una comunidad digital con este método –ya sea aquella que es solo virtual o
la que comparte virtualidad y realidad– supone considerar tanto las interacciones sociales como las
propias herramientas de la mediación: mailing lists, chats, foros, etc. Dependiendo del social
media estaremos entonces ante distintos tipos de conexiones implícitas o explícitas, como pueden
ser los likes, follows, favorites, mentions, answers, mensajes instantáneos o e-mail. Una herramienta
que permite medir la influencia de un determinado usuario en las redes sociales es Klout, un
software gratuito que utiliza distintos indicadores para comprobar las interacciones, la vida social o
la popularidad que se da en cada red.
6
Unidad 9. Investigación sobre Internet y las plataformas digitales
Los estrategas del marketing y las empresas comerciales se interesan en el estudio de redes sociales,
puesto que estas muestran información sobre las pautas de consumo y las tendencias que orientan
sobre las posibles ventas de artículos y servicios. Asimismo, los medios de comunicación utilizan
las redes como fuentes informativas, especialmente Twitter.
Un tipo de red social general y muy habitual en los medios de comunicación es el foro de
discusión, objeto de estudio en la investigación online, tanto en su versión de comunicación
sincrónica –la realizada en tiempo real entre usuarios de diversos contextos geográficos– como
asincrónica –la más habitual–. Esta última se caracteriza por un discurso más reflexivo y
estructurado que la primera, puesto que no hay presiones entre los usuarios sobre la instantaneidad
de las respuestas. En estos espacios de debate virtual se accede para conocer, producir, intercambiar
y discutir conocimiento sobre una temática de interés común. Están gestionados por un moderador
encargado de coordinar, autorizar la entrada de usuarios, dinamizar la actividad del grupo y la
aplicación informática. Las características de los foros implican un proceso de investigación
vinculado a la netnografía en el que es necesario prestar atención a sus diferentes elementos para
poder llevar a cabo su análisis:
• La figura del moderador.
• El perfil de los participantes.
• Participación y actividad de los participantes.
• Contenidos de las discusiones.
• Participación y actividad fuera del foro (e-mail o chats).
Una vez seleccionados los aspectos que se desea observar, los investigadores recopilan y
categorizan las contribuciones realizadas por los participantes en el foro. Para ello se puede aplicar
el análisis de contenido o la observación documental y realizar diversas combinaciones para
determinar la dinámica, el valor de las contribuciones individuales, la frecuencia de participación,
7
Unidad 9. Investigación sobre Internet y las plataformas digitales
Twitter puede ser definido como un microblog conversacional que permite encontrar información
y opinión, tanto para satisfacer necesidades individuales como para promocionar la actividad de
numerosas empresas mediáticas o comerciales. Su funcionalidad se basa en el envío gratuito de
mensajes en 280 caracteres en los que se puede vincular material multimedia e interactivo, y esta
misma brevedad facilita establecer hipervínculos con contenidos publicados en otros medios y
plataformas, así como su viralización y replique en otras redes sociales. No obstante, es tarea de los
profesionales e investigadores discernir qué informaciones son veraces, cuáles malintencionadas o
cuáles no tiene ninguna trascendencia. En este sentido, existen diversas vías para comprobar la
autenticidad de una cuenta en Twitter, como la identificación en los buscadores de los nombres e
imágenes contenidas en las cuentas.
Los elementos factibles de investigación en esta red social son múltiples y se pueden explorar tanto
en tiempo real como retrospectivo, si bien en este último caso las exigencias tecnológicas y de
costes son mayores. Entre los elementos más característicos de Twitter figuran los #hashtag, o
etiquetas de los mensajes en torno a un tema común, los trending topics, cuando un determinado
hashtag o tema tiene un tuiteado elevado y se convierte en agenda pública o tendencia social en ese
momento, el número de followers o seguidores de una cuenta determinada y el de followed o los
personajes seguidos, los mensajes escritos en 280 caracteres, así como el material textual o
audiovisual compartido.
El interés de este microblogging para la investigación, consiste, por tanto, en que se configura como
un canal privilegiado para el rastreo, captura, análisis y comprensión de los temas de nuestro
tiempo. Por otra parte, la red facilita la comunicación tanto masiva como interpersonal que, a su
vez, puede ser almacenada y proporciona información sobre las conexiones o acciones más
relevantes que se dan entre los usuarios, contribuyendo a detectar los líderes o personajes de
influencia en nuestros días. Twitter proporciona, a su vez, una información muy valiosa para
analizar las pautas de consumo y comportamiento de millones de personas, por lo que muchas
empresas también están dedicando recursos para investigar acerca de los temas y tendencias de esta
red social como estrategia para la comercialización de nuevos productos.
8
Unidad 9. Investigación sobre Internet y las plataformas digitales
La investigación sobre Twitter y sus interacciones es muy compleja. Se hace necesario, pues, el uso
de herramientas informáticas que faciliten el acceso a esta información como:
• Trendsmap: que sitúa en un mapa mundial los trending topics.
• Tweet Archivist: que permite monitorizar un hashtag, un usuario o un tema, los archiva,
analiza sus interacciones y características y los exporta en formato Excel o PDF.
• Tweet-Tag: un servicio que busca tweets por palabras clave, calcula la influencia, busca los
usuarios más participativos y monitoriza durante el tiempo que el investigador señale.
• Social Bearing: una herramienta gratuita en lque solo es necesario poner en su buscador el
nombre del usuario o hashtag que se desee analizar e inmediantemente arroja respuestas
numéricas cerca de los seguidores, los contenidos, los tweets de texto y los que llevan
enlace, las cuentas más activas, etc.
• Twipho: encuentra fotos y vídeos publicados bajo un determinado hashtag o palabra clave
mostrándolos en forma de gráfico ordenado cronológicamente. Para usarlo es necesario
entrar en Twitter e introducir la palabra clave que se desee monitorizar.
• TagBoard: ayuda a rastrear hashtags en diferentes redes sociales como Twitter, Facebook,
Instagram, Google+ o Vine y también es gratuita.
La captura y extracción de datos de Twitter se realiza tras obtener una conexión autorizada directa
con esta red. Al igual que en otras metodologías, es necesario delimitar el objeto de estudio a través
de una palabra clave, una frase un hashtag, y definir la muestra según el número de tweets que se
desea capturar o según un lapso temporal. A veces se plantea la recogida de miles de mensajes. En
ese caso es necesaria su monitorización o control informatizado de la dinámica del hasthag y de las
cuentas. Tras la extracción de datos se genera un fichero con la totalidad de las interacciones para su
análisis y visualización. Posteriormente, cabe la práctica del análisis de contenido, análisis
semióticos u otras fórmulas metodológicas.
Facebook se basa en la creación de páginas con perfiles de usuarios que forman redes unidas por
lazos de interés común, familiares, profesionales o de aficiones. El sistema permite compartir
imágenes, texto, vídeos y aplicaciones que pueden estar orientadas a fines publicitarios y
comerciales. Uno de los aspectos más importantes de Facebook es la creación de una identidad
personal a través de un proceso público que implica la exposición de asuntos privados al grupo de
amigos o seguidores de la cuenta. Los medios de comunicación y las empresas también han
9
Unidad 9. Investigación sobre Internet y las plataformas digitales
encontrado en esta red una vía de difusión de noticias y productos, así como de conocimientos de
la audiencia, cuya opinión resulta muy provechosa para averiguar las preferencias, tendencias de
consumo y otras pautas de comportamiento social.
Del mismo modo que en otras técnicas metodológicas, cuando emprendemos una investigación en
esta red social es necesario definir los objetivos y acotar adecuadamente la muestra. En Facebook
es viable el análisis de los perfiles personales, las interacciones que se entablan entre los
miembros de un grupo, sus preferencias, el material compartido o los me gusta o likes, que
suponen, a su vez, una ventaja informativa para las empresas. La opción de feedback entre el
emisor y el receptor favorece asimismo el conocimiento de las tendencias, el éxito de los posts, así
como el hecho de que el lector se sienta integrado en la producción informativa.
Los hipervínculos son enlaces entre las diferentes páginas web y constituyen una parte fundamental
de la www, aunque casi cualquier medio electrónico incluye en la actualidad estas forma de
hiperenlaces. Cuando el vínculo dirige a texto y a elementos multimedia se está navegando en un
espacio hipermedia e interactivo en el que se encontrarán muchos de los recursos y funciones que
aparta la red.
Existen, al menos, tres enfoques dominantes para el estudio de los hipervínculos: la teoría del
hipertexto de Landow (1994), el literario con estudio de análisis lingüísticos y textuales, y el
comunicativo, en el que se utilizan técnicas de estudio de redes sociales o análisis de contenido.
Para los investigadores en Internet y en redes sociales, los hipervínculos son, además, objeto de
análisis por los lazos que generan entre usuarios que se conectan a otro u otros, la secuencia que
establecen entre contenidos mediáticos, o la dirección unidireccional o bidireccional de la
10
Unidad 9. Investigación sobre Internet y las plataformas digitales
información que difunden. De alguna manera, los enlaces muestran las políticas de asociación de
aquellos medios, usuarios, redes sociales o cibermedios que los utilizan.
Una técnica igualmente aplicable es la denominada text mining o minería de textos, definida como
una rama de la lingüística computacional cuyo propósito es obtener información y conocimiento a
partir de un conjunto de textos que no tiene orden o no están dispuestos en origen para transmitir
una información.
11
NOTAS Y EXPERIENCIAS
Introducción
Fuente: OutSell.
Autoridad
Expresa la identificación de los responsables de los contenidos de una página. Se
considera como tal a:
• Un individuo, responsable único.
• Un colectivo de personas (una asociación, una organización).
• Una entidad o institución (una empresa o un organismo de titularidad pública).
Los responsables colectivos, especialmente si pertenecen a centros de investiga-
ción, entidades oficiales o universidades, se valorarán más que los contenidos realiza-
dos por un individuo.
La página debe contener una referencia de contacto que incluya, además del co-
rreo electrónico, otro tipo de datos, como la dirección postal, número de teléfono o
número de fax.
Credenciales
Las credenciales permitirán saber cuál es el tipo de actividad o cualificación de
los autores responsables de los contenidos:
• Acreditación de aptitud profesional. Partimos del supuesto de que una titulación
se otorga a aquella persona que ha demostrado tener los suficientes conocimien-
tos para desempeñar una actividad laboral o profesional. Comprobaremos por otras
fuentes cuál es la semblanza biográfica y profesional del autor del texto.
• Las certificaciones de permisos para el desarrollo de una actividad o servicio que
otorgan las autoridades públicas para su desenvolvimiento profesional también
avalan inicialmente un tipo de contenidos con mayor grado de fiabilidad frente
a materiales u opiniones vertidas por amateurs o aficionados.
• Cuando la información se genera desde una entidad legal y representativa su cre-
dibilidad debería ser superior frente a fuentes oficiosas o extraoficiales. Por ejem-
plo, las previsiones del tiempo ofrecidas por el Instituto Nacional de Meteoro-
logía frente a las emitidas por un patronato de turismo.
• El prestigio es un concepto un tanto difuso pero otorga a su poseedor cierto cré-
dito y aval que viene a expresar un reconocimiento y recomendación dentro de
su actividad o desempeño profesional en la comunidad a la que pertenece.
• Existen sistemas de certificación que avalan la fiabilidad de la información y ex-
posición de contenidos de una página. Las áreas críticas para este tipo de certi-
ficaciones son las ciencias de la salud, finanzas e inversiones o el comercio elec-
trónico (2).
A. Comprensibilidad
B. Razonamiento y método
• Los contenidos de la página deben estar estructurados de tal modo que deberá
diferenciarse claramente qué es información y qué es opinión. En este punto el
criterio es inflexible: la mínima sospecha de combinación de ambos presupon-
drá una fuerte restricción de credibilidad.
• Toda información vertida en una página deberá verificarse a través de otras fuen-
tes independientes y que presenten contenidos similares.
• Las advertencias y consejos sobre el nivel de riesgo por un uso incorrecto de la
información deben avalar su rigor y seriedad. Por ejemplo, cuando una página
sobre cuestiones farmacológicas previene contra la automedicación. Es algo pa-
recido a las advertencias que se añaden en los anuncios televisivos sobre medi-
camentos.
• Todos los contenidos que aborden un trabajo de investigación o de hipótesis cien-
tífica deberán contener un desarrollo completo de la metodología, descripción de
los procesos experimentales y fuentes bibliográficas. Su ausencia es inexcusa-
ble, porque la actual configuración de la Red permite el desarrollo y exposición
de cualquier elemento de naturaleza audiovisual (imágenes, gráficos, sonidos,
aplicaciones informáticas y filmaciones).
C. Originalidad
D. Alteraciones y omisiones
Usabilidad
La usabilidad debería definirse como la facilidad de uso, bien se trate de una pá-
gina web, un cajero automático o cualquier sistema que interactúe con un usuario.
Aunque fiabilidad y usabilidad son conceptos que no operan entrelazados, existen al-
gunas operaciones en el uso y utilización de la página web que inducen a falsas re-
acciones o fraudes, especialmente en comercio electrónico. Respecto a los contenidos
por Internet, cualquier usuario que visite un sitio deberá ser capaz de alcanzar sus ob-
jetivos con un mínimo esfuerzo y el máximo de eficiencia. Todos los elementos de
navegación (menús, textos, formularios, opciones de ayuda, mapa de la web, etcéte-
ra), deberán ser concebidos para que el control de las acciones dependa del usuario y
no de procesos automatizados e irreversibles.
Independencia e imparcialidad
Vigencia
Popularidad
Utilidad
Recomendaciones finales
Referencias
1. Factiva 2002 White Paper Series: Free, Fee-Based and Value-Added lnformation Services
[.pdfl Accesible en http://factiva.com/collateral/fileslwhitepaper feevsfree 032002.pdf [con-
sultado 12 de septiembre de 2002]
2. Ejemplos de sistemas de certificación. En el área de salud, URAC Comisión Norteamerica-
na de Certificación de la Atención Médica (American Accreditation HealthCare Commis-
sion, http:llwww.urac.com. Para el sector de las finanzas y el comercio electrónico Web-
Trust http://www.cpawebtrus
Bibliografía
BALLARD SPAHR ANDREWS e INGERSOLL, LLP. (2002). Evaluating the quality of in-
formation on the Internet: groups that alert the public to lnternet fraud, fanaticism and bad
information. Accesible en: http:/Iwww.virtualchase.comlqualitv/alert.htmi [consultado 15 de
septiembre de 2002]
CODINA, L. (2000). Parámetros e indicadores de calidad para la evaluación de recursos digi-
tales. En: 7as Jornadas Españolas de Documentación. Bilbao: Universidad del País Vasco,
Servicio Editorial, p. 135-144.
COOKE, A. (2001). A guide to finding quality information on the Internet: selection and eva-
luation strategies. 2nd ed. London: Library Association
SMITH, A. Evaluation of information sources. Accesible en http://www.vuw.ac.nzl-agsmithlevain/
evain.htm [consultado 15 de septiembre de 2002]
En el ámbito de la comunicación en los últimos años muchos investigadores han querido conocer el
funcionamiento y los efectos de las tecnologías informacionales que han ido emergiendo desde
finales del siglo XX: internet, telefonía móvil, redes sociales, televisión digital, etc. La revolución
tecnológica ha llevado a algunos investigadores a reclamar un espacio epistemológico propio para
los trabajos sobre el universo digital bajo rótulos como estudios sobre Internet o estudios sobre
ciberculturas.
Así, junto a riesgos como la cibervigilancia, los filtros que imponen los algoritmos secretos de
Google o Facebook o la mercantilización de los datos privados, es preciso contemplar la existencia
de un conjunto de gaps o desfases informacionales. Por otro lado, distintos trabajos atestiguan que
hay desfases asociados a la edad por cuanto los jóvenes suelen ser los primeros en implementar las
tecnologías en el campo científico, mientras que los sectores con mayor edad encuentran verdaderas
dificultades para comprenderlas y apropiárselas.
1
Unidad 10. Tendencias de investigación en comunicación
En otro orden de cosas, las investigaciones centradas en la variable del emisor no han suscitado
nunca la atención que han recibido los objetos anteriores. Esto es debido en buena medida a su
complejidad, dado que las industrias mediáticas siguen siendo opacas a la hora de ofrecer datos
fiables acerca de su actividad, organización o finanzas.
Por último, cabe destacar que la aparición de cada nueva tecnología informacional (internet,
telefonía móvil, social media, etc.) ha venido acompañada de un contingente de estudios que tienen
por finalidad el análisis de sus potencialidades con respecto a los medios anteriores, aunque no tanto
sus posibles limitaciones y peligros. Así, a las primeras investigaciones centradas en medios
digitales se sumaron pronto las orientadas a analizar blogs o cibermedios y, ya en tiempos
recientes, un extenso contingente de trabajos en redes sociales y potencialidades de la web 2.0.
Todas ellas han valorado el potencial de Internet en la generación de modelos comunicacionales
interactivos, horizontales y en los que la ciudadanía adquiere un papel más activo en el proceso de
producción informativa frente a la lógica más vertical y jerárquica de los medios del pasado.
Si bien los medios de comunicación siguen siendo el objeto predominante de estas ciencias, hay que
destacar también que no todos los soportes vienen recibiendo la misma tensión en los últimos años.
En este sentido, la radio continúa siendo el medio invisible la investigación comunicacional,
2
Unidad 10. Tendencias de investigación en comunicación
mientras que los estudios centrados en televisión o nuevas tecnologías siguen consolidando su lugar
hegemónico entre los investigadores. Por otra parte, se observa cierto receso en los trabajos que
profundizan en la prensa papel.
Dentro de los estudios que trascienden lo mediático, la comunicación interpersonal grupal sigue
siendo otra asignatura pendiente de la investigación comunicacional, si bien los nuevos soportes
digitales están suponiendo la conformación de entornos híbridos en los que lo masivo convive con
flujos informacionales de muchos a muchos o con los intercambios punto a punto que se dan
mediante la telefonía móvil, también denominada comunicación interpersonal mediada. No
obstante, es necesario seguir profundizando en el estudio de lo digital como nuevo espacio de
socialización, así como en los intercambios cara a cara que se ven afectados por la conectividad
permanente a las tecnologías y otros consumos culturales contemporáneos. En otras palabras, la
nueva investigación sobre el universo digital tiene que atender a los continuos trasvases y
convergencia entre lo mediado y lo no mediado, así como en la relación de los antiguos medios con
los nuevos soportes y plataformas informativas de carácter online.
El panorama investigador contemporáneo es muy extenso y plural, aunque aún se perciben las
mismas diferencias que marcaron el devenir de la investigación comunicacional entre los
3
Unidad 10. Tendencias de investigación en comunicación
Los estudios de comunicación son unas ciencias inherentemente interdisciplinarias. Dado que la
propia noción de comunicación puede ser abordada desde sentidos muy distintos –semióticos,
retóricos, tecnológicos, etc.–, estas ciencias han ido acercándose con el paso del tiempo a
disciplinas tan diversas como la antropología, la cibernética o las ciencias del lenguaje. Y en este
proceso hacia la transversalidad han jugado un papel fundamental perspectivas híbridas como los
estudios culturales, que convocaron a la filosofía, la semiótica, la historia o las filologías a un
prometedor diálogo con objeto de comprender el carácter complejo y contradictorio de la cultura y
sus relaciones con la cultura masiva.
Desde finales del siglo XX, la profesionalización de una comunidad académica en torno a la
comunicación y la propia revolución digital han acentuado, aún más si cabe, la tendencia a abrir
estas ciencias a otros campos del saber. Así, es cada vez más habitual encontrar investigaciones que
observan los fenómenos mediáticos de prismas tan distintos como el feminismo, el ecologismo los
estudios poscoloniales, unas perspectivas que enriquecen, sin duda, la mirada clásica y la conducen
por derroteros prolíficos e innovadores.
4
Unidad 10. Tendencias de investigación en comunicación
En la actualidad, uno de los debates más habituales en teoría de la comunicación tiene que ver con
la consideración del estatuto epistemológico de la disciplina, en el que existen posiciones
encontradas entre quienes consideran que esta no es una ciencia, puesto que no tiene principios
explicativos propios y sigue importando modelos de otras disciplinas, y quienes aceptan su
existencia separada de otras áreas, si bien destacan su falta de autonomía como campo de
conocimiento.
Muchos autores plantean que la comunicación debe ser considerada un campo de estudio más en el
sentido sociológico que en el epistemológico, dado que existe una comunidad académica con
objetos y miradas propias en ella, independientemente de que esos objetos sean compartidos por
otras ciencias. Esta tendencia queda de manifiesto en el hecho de que los equipos de investigación
en comunicación en todo el mundo son cada vez más interdisciplinares, en consonancia con la
valoración positiva que ciertos organismos financiadores otorgan a este rango.