Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1 Introducción ................................... 2
Lior Gideon
Robert W. Oldendick
1
Gideon (ed.), Handbook of Survey Methodology for the Social Sciences, DOI: 10.1007/978-1-4614-
3876-2_1, Springer Science+Business Media New York 2012
2
Gideon (&) Department of Law, Police Science and CJA John Jay College of Criminal Justice, 899 Tenth
Ave, New York, NY 10019, USA e-mail: lgideon@jjay.cuny.edu
1
1.1. Introducción
Las encuestas se han convertido en una parte importante de nuestras vidas. En una era
en la que hay una gran cantidad de información altamente accesible y rápidamente
cambiante, muchos son los investigadores que usan encuestas para actualizar el
conocimiento, cuestionar las suposiciones existentes y dar forma a las políticas públicas.
Las encuestas son utilizadas por muchas personas para muchos propósitos diferentes, lo
que daría la impresión de que la realización de una encuesta es tan fácil como una
caminata en el parque. Muchos investigadores principiantes piensan que las encuestas
son simplemente una forma de recolectar información haciendo preguntas, nada
sofisticado o difícil, solo “pregunte y lo sabrá”.
Es en este contexto que se ha sido escrito el presente manual, para proporcionar a los
científicos sociales un punto de referencia simple y para educar sobre los aspectos
prácticos de este importante método. El objetivo de este libro es examinar las varias
cuestiones relacionadas con la metodología de Encuesta, y no hay mejor manera de
arrojarnos a ello que comenzar con el concepto de error total de Encuesta (en inglés,
2
TSE3), el corazón teórico de la metodología de encuesta, así como los capítulos que
siguen. Mientras hay muchos libros y guías disponibles sobre este tema, muchos de
ellos son demasiado difíciles para los estudiantes o parecen ser un poco hostiles a “no
estadísticos”4.
Muchos que usan las Encuestas como su método primario de recolección de datos fallan
en pensar el proceso como un método científico. “¿Cuál es el gran tema sobre hacer
preguntas?”, la gente dirá encogiéndose de hombros. En cambio, el foco de la
investigación es usualmente la muestra y el número de preguntas que se va a realizar.
El error total de encuesta, como el total combinado del error muestral y los errores no
muestrales, debería ser el principal paradigma para desarrollar, analizar y comprender
encuestas y sus resultados. Entre investigadores que utilizan encuestas como el método
principal para la recopilación de datos, muchos han asumido que las personas
responderán honestamente a las preguntas presentadas. También hay una suposición
básica de que las personas generalmente están dispuestas a compartir sus puntos de
vista, opiniones, experiencias y actitudes con investigadores y por lo tanto, los
investigadores lo que tienen que hacer es hacer las preguntas. Tales suposiciones, sin
embargo, han sido reveladas como falsas. Como resultado, los investigadores que
utilizan encuestas han mostrado recientemente un mayor interés en cuáles son los otros
factores que causan el sesgo en las encuestas. Volviendo a la metáfora del iceberg, los
investigadores que utilizan encuestas han sido desde entonces capaces de identificar y
enfocarse en la parte sumergida del iceberg: el núcleo del error no relacionado con la
muestra, que anteriormente estaba oculto a la vista. Este esfuerzo, junto a la
3
N. del T.
4
Encomillado del T.
3
acumulación de gran experiencia en encuestas en las últimas décadas, ha resultado en
una mejor comprensión de las múltiples fuentes de sesgo en una encuesta. La Figura 1.1
ilustra el concepto de error total de encuesta utilizando el conocido Teorema de
Pitágoras como una metáfora: La suma de los cuadrados de ambos, el error muestral y el
error no muestral, es igual al error cuadrado total de la encuesta; en resumen, el error
total de la encuesta se vuelve mucho más grande que cada uno de sus componentes. En
una forma diferente, cuando ambos, los errores de muestreo y no de muestreo, ocurren
en una Encuesta, el error total de encuesta es exponencialmente más alto. De Por
supuesto que no puedes ubicar valores reales para cada error y calcular este teorema
para saber el error total de encuesta, pero debería dar a los lectores una buena idea de
cuál es el problema real.
Los errores de muestreo se derivan del método de muestreo utilizado. Es así que los
investigadores deben inicialmente identificar su población de interés y luego definir
claramente su unidad de análisis y qué elementos servirán mejor al objetivo de su
estudio. Una vez que se resuelven estos problemas, los investigadores avanzan a
seleccionar el método de muestreo, ya sea probabilístico o no probabilístico. Se
entiende que mediante el uso del muestreo no probabilístico, el sesgo es naturalmente
introducido en la investigación, y no será posible la generalización. Esto no es para
decir que uno nunca debería usar tales técnicas de muestreo, pero simplemente para
indicar su saliente debilidad y su correspondiente crítica. Por otro lado, usando el
muestreo probabilístico que se basa en el principio de aleatoriedad, se proporcionará
una muestra más representativa, una que refleja mejor la población target y por lo tanto
que permite generalizaciones de la muestra a una población más grande. Sin embargo,
dependiendo del tipo de muestreo probabilístico utilizado (por ejemplo, aleatorio
simple, aleatorio sistemático, estratificado proporcional, estratificado no proporcional,
conglomerados), el nivel de error de muestreo en el modelo puede aumentar o
disminuir. Utilizando tales métodos, un investigador puede estimar el error muestral y
advertir a la potencial audiencia de la fuente y la magnitud del error. (En el capítulo 5,
Hibberts, Johnson y Hudson discuten el muestreo con más detalle, mientras se enfocan
en las ventajas y desventajas de cada método de muestreo en relación con la capacidad
de generalizar del investigador)
Los errores no muestrales, por otro lado, tienden a ser más complejos y requieren de los
investigadores una atención detallada, ya que pueden entrar en todas y cada una de las
etapas de la recopilación de datos. Como se ilustra en la Figura 1.1, su efecto en los
resultados puede ser exponencialmente más perjudicial para los resultados del estudio.
Los errores no muestrales pueden provenir de un multitud de fuentes; es seguro decir
que pueden comprender aproximadamente el 95% del Error Total de la Encuesta. Como
se ilustra en la figura 1.2, los errores no muestrales están divididos en errores de
respuesta y no respuesta, y cada una de estas categorías luego alberga múltiples fuentes
adicionales de error. Por ejemplo, el error de respuesta puede provenir de, entre otras
cosas, deseabilidad social, visibilidad, el grado de la sensibilidad de un tema específico,
el orden de las preguntas, la forma en que un tema específico es construido (ver capítulo
4
7 de Gideon) o incluso todo el tema de la encuesta. (La VI parte de este manual trata
sobre temas sensibles y poblaciones que son difíciles de localizar.) Los problemas
pueden también derivar del modo en que es utilizado el cuestionario: En una encuesta
cara a cara, un entrevistador involuntariamente puede aumentar la deseabilidad social,
por ejemplo. (En el capítulo 10, Billiet y Matsuo discuten la variedad de errores de
respuesta y cómo pueden ser controlados.) Por otro lado, los errores de falta de
respuesta pueden derivar de simples negativas para responder preguntas (ver Stoop y
Harrison, Cap. 9; Albaum y Smith, Cap. 11; y Glaser, Cap. 12). O ellos pueden venir
como resultado de una falla para localizar a los participantes que fueron muestreados
originalmente cuando llega el momento de completar el estudio. La falta de respuesta
puede ser para toda la encuesta, pero también puede ser para elementos específicos del
cuestionario. Es importante monitorearlos y examinarlos, ya que su efecto puede ser
perjudicial para los resultados del estudio. La falta de respuesta a elementos específicos
puede afectar posteriormente la escala y también puede reducir la fiabilidad de la
encuesta.
Referencias:
Weisberg, H. F. (2005). The Total survey error approach: A guide to the new science of survey research.
Chicago: University of Chicago Press.
5
Capítulo 2: Clasificación de las encuestas
En “El lenguaje analítico de John Wilkins”, Borges describe ”cierta enciclopedia china,
el Emporio Celestial del Conocimiento Benevolente “, en la cual está escrito que los
animales están divididos en:
• los que pertenecen al Emperador,
• embalsamados,
• aquellos que están entrenados,
• cochinillos,
• sirenas,
• fabulosos,
• perros callejeros,
• los incluidos en la presente clasificación,
• aquellos que tiemblan como si estuvieran locos,
• innumerables,
• aquellos dibujados con un pincel de pelo de camello muy fino,
• otros,
• aquellos que acaban de romper un jarrón de flores,
• aquellos que desde muy lejos parecen moscas.
Para los lectores modernos esta clasificación puede parece algo fortuita, poco
sistemática y ciertamente no exhaustiva (aunque la categoría “Otros” compensa una
gran cantidad de lagunas) En realidad, Borges no encontró esta clasificación en una
enciclopedia china: la inventó. Componer una clasificación de encuestas a veces parece
tan desafiante como inventar una clasificación de animales. Una breve investigación
sobre los tipos de encuestas arrojan muestras aleatorias, encuestas telefónicas, encuestas
de boca de urna, encuestas de múltiples actores, encuestas de negocios, encuestas
longitudinales, encuestas de opinión (aunque algunos podrían argumentar que las
encuestas de opinión no son encuestas), encuestas ómnibus, etc. Quedará claro que los
tipos de encuestas mencionadas en esta lista no son exhaustivas ni mutuamente
excluyentes. El “tipo” de encuesta puede referir al modo de encuestar, a la población
objetivo, al tipo de información que debe recopilarse y a un número de otras
características. A veces estas diferentes características interactúan, pero algunas
combinaciones rara vez se encuentran juntas. Por ejemplo, las encuestas de personas de
edad rara vez son encuestas web, y las encuestas de boca de urna nunca son
longitudinales.
Este capítulo presenta una breve descripción de las diferentes formas en que se pueden
clasificar las encuestas. Primero, sin embargo, debemos considerar qué es una encuesta.
5
Stoop (&) The Netherlands Institute for Social Research/SCP, P.O. Box 16164, 2500 BD, The Hague, The
Netherlands e-mail: i.stoop@scp.nl E. Harrison Centre for Comparative Social Surveys, City University,
Northampton Square, London, EC1V 0HB, UK e-mail: eric.harrison.1@city.ac.uk
6
A continuación se brinda una versión abreviada de la sección “Qué es una encuesta” del
folleto redactado por Fritz Scheuren de NORC.6
En la siguiente sección, las encuestas se clasifican de acuerdo con una serie de criterios.
Debajo de esto clasificación es el siguiente poema de Rudyard Kipling:
Groves (1989, capítulo 3) comienza su teoría general de las poblaciones (de personas)
con el concepto de población de inferencia, por ejemplo, estadounidense ciudadanos en
2011. La población objetivo es el conjunto finito de los elementos (generalmente
personas) que serán estudiados en una encuesta. Generalmente aquellas personas que no
pueden ser contactadas o no podrán participar, como las personas que viven en el
6
www.whatisasurvey.info/overview.htm
7
extranjero y los que viven en instituciones (cuidado residencial y hogares de ancianos,
prisiones) son excluidas de la población objetivo. La población marco es el conjunto de
personas para quienes se puede hacer una enumeración antes de la selección de la
muestra de la encuesta, es decir quién se puede enumerar en el marco de la muestra.
Después de que la muestra ha sido extraída, las unidades no elegibles tienen que ser
eliminadas, como direcciones incorrectas o personas que no son ciudadanos
estadounidenses. Aquellos que luego responden a la encuesta son la población de la
encuesta, el conjunto de personas que, si han sido seleccionadas para la encuesta,
podrían ser encuestados. La unidad sin respuesta es el fracaso para recolectar datos de
las unidades pertenecientes a la población marco y seleccionadas para estar en una
muestra. La tasa de respuesta es el porcentaje de unidades de análisis (unidades de
muestreo)7 seleccionadas que participan en la encuesta.
• Una muestra general de 2.500 lugares de trabajo, combinando 1.700 lugares de trabajo
nuevos para el estudio y 800 entrevistas repetidas a lugares de trabajo que fueron
encuestados por primera vez en 2004.
• En cada lugar de trabajo, se llevó a cabo una entrevista con el gerente más alto
responsable de relaciones laborales y personal problemas. Una encuesta
autoadministrada sobre el desempeño financiero fue distribuido a todos los sectores
comerciales de los lugares de trabajo.
7
N. del T.
8
N. del T.
8
• Se realizó una entrevista con un empleado representantivo del sindicato de los
empleados y un empleado representativo que no fuera sindical (aproximadamente 900
entrevistas).
Cuadro 2.2: Una encuesta entre personas con problemas de aprendizaje (ver Stoop
et al. 2002)
9
cada uno. Además, las instituciones a veces consisten en ubicaciones principales y sitios
satélite, lo que complica aún más el procedimiento de muestreo.
10
habilidades de afrontamiento y actividades diarias. Finalmente, preguntas sobre
servicios e instalaciones provistas tuvieron que ser respondidas por la administración de
las instituciones que brindan instalaciones o apoyo, guarderías y talleres protegidos. La
combinación de las fuentes se consideró necesaria para obtener una imagen completa de
la calidad de vida y el uso de las instalaciones de las personas de la muestra. Eso hizo la
encuesta particularmente complicada porque se usaron siete cuestionarios diferentes y
todo el mundo involucrado tuvo que cooperar para obtener una imagen completa.
Una encuesta también puede tener como objetivo representar un grupo especial, como
personas mayores, miembros de un grupo étnico minoritario, estudiantes, usuarios de un
particular producto o servicio público, personas con discapacidad intelectual, adictos a
las drogas, habitantes de una barrio en particular, gays y lesbianas. En algunos casos, un
marco del muestreo es fácil de construir (habitantes de un barrio en particular), y en
otros casos, la encuesta deberá ir precedida por una fase de selección para identificar la
población marco (lesbianas y gays).
Las encuestas de pasajeros intentan establecer lo que se percibe sobre la calidad del
viaje. En el Reino Unido, esto se complica por la existencia de compañías de tren con
franquicias regionales. La encuesta sobre el pasajero nacional (ferroviario) del Reino
Unido (NPS) utiliza un clúster de dos etapas con un diseño de muestra para cada
Compañía de tren (TOC, según sus siglas en inglés9). El unidad de muestreo de la
primera etapa es una estación de tren y los cuestionarios son luego distribuidos a los
pasajeros que usan esta estación en un día particular durante un día especificado a través
de un periodo de tiempo. Las estaciones se seleccionan para cada TOC con una
probabilidad proporcional al tamaño, utilizando el número estimado de pasajeros como
la medida de tamaño. Una gran estación puede ser seleccionada varias veces. Los días
de la semana y las horas del día se asignan a cada estación seleccionada, usando perfiles
para diferentes tipos de estación. Finalmente, los puntos de muestreo se asignan a
semanas al azar durante el período de la encuesta. Cada dos años se genera un plan
nuevo completamente, utilizando datos sobre volúmenes de pasajeros provistos por la
Oficina de Regulación Ferroviaria (Passenger Focus 2010).
9
N. del T.
11
Como se menciona en la Secc. 2.1, buenas prácticas de encuesta prescriben una muestra
para ser seleccionada al azar de la población marco. Los marcos de Muestreo pueden
comprender individuos (una población registrada, lista de estudiantes o registros del
censo), hogares, direcciones, negocios o instituciones. En muchos casos, se requiere un
procedimiento de muestreo en dos etapas, por ejemplo, primeros hogares, luego
individuos, o primero instituciones, luego individuos.
Hay muchas formas de diseñar una muestra probabilística, y de acuerdo con Kish (1997,
ver también Häder y Lynn 2007) todas son suficientes mientras el mecanismo de
probabilidad es claro, lo que significa que cada miembro de la población objetivo tiene
que tener una probabilidad conocida (mayor que cero) de ser seleccionada para la
muestra. Incluso hay más formas de seleccionar una muestra no probabilística. Solo
daremos algunos ejemplos aquí. En muchos países, la muestra por cuotas es bastante
popular. En este caso, una población primero se segmenta en Subgrupos mutuamente
excluyentes. Los entrevistadores entonces tiene que entrevistar a un número específico
de personas dentro de cada subgrupo (para un debate más profundo sobre las técnicas de
muestreo y muestras no probabilísticas, ver Hibbert Johnson y Hudson, Cap. 5). La
manera en que se selecciona a estas personas es imposible de rastrear.
Hoy en día los paneles en línea, discutidos en mayor longitud por Toepoel en el Cap.
20, se están volviendo bastante populares (ver también Sección 2.2.4 y Cuadro 2.5). En
raros casos, estos se basan en muestras probabilísticas, como el panel holandés LISS
(www.lissdata.nl), pero la gran mayoría no se construye con un reclutamiento basado en
la probabilidad (La Asociación Americana para la investigación en Opinión Pública
2011). Los paneles de acceso en línea ofrecen a los posibles miembros del panel la
oportunidad de ganar dinero, hacer escuchar su opinión o participar en encuestas por
diversión. En muestreos corrientes “... los encuestados son reclutados directamente para
encuestas específicas usando métodos similares a la manera en el que se construyen los
paneles no probabilísticos. Una vez que el encuestado acepta realizar una encuesta, él o
ella responde algunas preguntas de calificación y luego es reclutado a una encuesta de
espera. A veces, pero no siempre, a estos encuestados se les ofrece la oportunidad de
unirse a un panel en línea '(La Asociación Americana para la Investigación de Opinión
Pública 2011).
10
N. del T.
12
2.2.2 Qué: el tema
Una encuesta ómnibus no tiene ningún tema específico: los datos se recogen sobre una
amplia variedad de temas durante la misma entrevista, usualmente pagado por múltiples
clientes. Hoy en día, las encuestas ómnibus son reemplazadas cada vez más por los
paneles de acceso en línea donde los clientes pagan por una encuesta en particular
mientras comparten características de fondo.
A menudo se hace una distinción entre preguntas objetivas y preguntas subjetivas. Las
preguntas objetivas son la base de las estadísticas oficiales y cubren temas como la
situación laboral, educación, condiciones de vida, salud, etc. Las preguntas subjetivas
recopilan información sobre valores, actitudes y similares. En la práctica, esta distinción
no puede ser sostenida. Evaluaciones de salud y preferencias laborales tienen un claro
aspecto subjetivo, por ejemplo. Además, las estadísticas oficiales se centran cada vez
más en problemas como la satisfacción e incluso la felicidad. La Oficina Nacional de
Estadísticas del Reino Unido (ONS, según sus siglas en inglés11), por ejemplo,
regularmente recopila datos y publica estadísticas de “Midiendo el Bienestar Subjetivo
en el Reino Unido”. Finalmente, incluso estadísticas objetivas y duras tener un
componente subjetivo (por ejemplo, cuántas habitaciones hay en tu casa, ¿cuánto
tiempo gastas en jardinería?).
11
N. del T.
13
Los investigadores de mercado estudian el seguimiento de marcas y medios,
satisfacción del consumidor y el efecto de la publicidad. Como se mencionó
anteriormente, los gobiernos también están interesados en la satisfacción del
consumidor y usan encuestas para evaluar la necesidad de servicios públicos. Ambos,
como académicos, están interesados en factores que determinan la toma de decisiones.
Algunas encuestas requieren que los encuestados mantengan un diario, por ejemplo, las
encuestas de uso del tiempo, encuestas de viaje o encuestas de gastos. Otras encuestas
son complementadas cada vez más (o incluso parcialmente reemplazadas) por datos de
otras fuentes, como datos GIS12 o datos de registros públicos y registros
administrativos. Como parte de algunas encuestas, se recopilan datos sobre marcadores
biológicos, como la prensión, el índice de masa corporal y el flujo máximo en SHARE
(ver Apéndice 1) o colesterol en sangre y saliva cortisol en el panel LISS (Avendabo et
al., 2010). Las encuestas electorales predicen los resultados de las elecciones, al igual
que las encuestas boca de urna, donde los votantes responden preguntas sobre su voto.
Desde esta perspectiva general, quedará claro que casi cualquier tema puede ser parte de
una encuesta, pero también que hay una relación entre la población objetivo y el tema, y
la agencia encuestadora y patrocinadora y el tema.
Las encuestas son encargadas por una amplia gama de organizaciones: gobiernos,
medios de comunicación, comunidades locales, sindicatos, universidades, instituciones,
ONG y muchas otras organizaciones diversas. Las agencias de encuestas pueden
subdividirse aproximadamente en cuatro grupos: institutos nacionales de estadística,
universidades, agencias de investigación de mercado y organizaciones sin fines de
lucro. Al igual que con el tema, hay una amplia evidencia que el tipo de patrocinador
tiene un impacto en el tasa de respuesta (ver Cap. 9 de Stoop). La mayoría de los
estudios en esta área sugieren que las personas son más propensas a participar en una
encuesta académica o gubernamental que en una encuesta comercial. Además, el tema
de una encuesta está claramente relacionada con el tipo de patrocinador: los institutos
nacionales de estadística no realizan encuestas de boca de urna, y las organizaciones de
investigación de mercado llevan a cabo una gran cantidad de Investigación del
consumidor.
12
https://www.caliper.com/maptitude/gis_software/default.htm
14
www.europeansocialsurvey.org: “Información del proyecto”- países participantes). Sin
embargo, se argumenta que en el mundo de las encuestas, estadísticas, academia e
investigación de mercado son tres continentes diferentes (y organizaciones sin fines de
lucro una especie de isla en el medio). En el mundo de las estadísticas (oficiales), el
muestreo es el elemento clave de las encuestas (ver, por ejemplo, la historia de la
Asociación Internacional de Encuesta Estadísticos (http://isi.cbs.nl/iass/allUK.htm). Las
encuestas administradas por institutos nacionales de estadística son casi siempre
basadas en muestras probabilísticas, mientras que las organizaciones de investigación de
mercado usan muestras no probabilísticas de paneles en línea (véase, por ejemplo,
Yeager et al., 2011). Un visión instructiva de las diferencias entre academia y agencias
de investigación encuesta la da Smith (2009, 2011), resumido en el Cuadro 2.4. En los
Países Bajos y Flandes, una iniciativa reciente está tratando de reunir a los diferentes
enfoques para la investigación mediante encuesta en la Plataforma de Lengua
Holandesa para Investigación de Encuestas (www.npso.net).
Smith (2009) ve una gran división en el Reino Unido entre dos tipos de conocimientos
sostenidos por la encuesta de expertos en agencias de investigación por un lado y en la
academia por el otro, y siente que esto es para el detrimento de la investigación de
encuestas. Él contesta que los profesionales de las agencias son fuertes en saber el cómo
mientras que los académicos son fuertes en saber el qué. Los investigadores de mercado
tienen habilidades prácticas, pero carecen de conocimiento teórico mientras que los
académicos conocen la teoría pero carecen de habilidades prácticas y, por lo tanto,
pueden tener expectativas poco realistas sobre los géneros de datos se pueden recoger
de una encuesta. Smith (2009, p.720) señala tres problemas importantes:
2. La mayor parte de las encuestas en el Reino Unido (las que no utilizan muestras de
probabilidad aleatorias para empezar) no reciben casi ningún interés por la academia, y
terminan sufriendo como resultado.
3. Los comentarios académicos y las expectativas pueden ser muy poco realistas.
15
• Alentar a los académicos y a los practicantes de las agencias para ser coautores de
papers.
En muchas encuestas de hoy, se usan modos múltiples. Esto podría implicar un uso del
cuestionario autoadministrado después de una encuesta cara a cara, o un enfoque de
modo mixto en la web, teléfono y cara a cara desplegados secuencialmente para
maximizar la cobertura y minimizar costos. De Leeuw (2005) ofrece una útil visión
general de diferentes modalidades de mezcla de modos.
16
(cuotas). La organización del Reino Unido YouGov fue una pionera en este campo (ver
Cuadro 2.5).
Registro
Para registrarse con YouGov, cada el miembro del panel completa un perfil detallado y
configura una cuenta con nombre y contraseña. Este cuestionario permite a YouGov
seleccionar una muestra que refleje la población. Por ejemplo, el grupo se divide en un
56% de hombres, un 44% de mujeres; pero en una muestra para encuestas políticas
nacionales, 52% mujeres y 48% hombres son seleccionados.
Reclutamiento e Incentivos
Realización de encuestas
Cuando YouGov realiza una encuesta, los miembros seleccionados del panel son
invitados por correo electrónico para completar la encuesta haciendo clic en un enlace
de Internet. Para completar la encuesta deben iniciar sesión y proporcionar su
contraseña. Esto asegura que las personas correctas completan la encuesta y que sus
respuestas coincidan con los datos demográficos que proporcionaron al registrarse con
YouGov.
Aunque los paneles de acceso en línea son bastante populares entre las agencias
comerciales (y son baratos en comparación con las encuestas basadas en el muestreo
probabilístico), las preocupaciones sobre los procedimientos del muestreo no
probabilístico están creciendo (ver la Sección 2.2; Yeager et al. 2011; La Asociación
17
Americana de Investigación en Opinión Pública 2011). Mientras no haya evidencia de
que “...los factores que determinan la presencia o ausencia de un miembro de la
población en la muestra no están correlacionados con las variables de interés en un
estudio, o si pueden ser explicados por ajustes antes o después de la recolección de
datos...” (Yeager et al., 2011, p.711), la suposición de que una muestra de un panel en
línea representa a la población objetivo no puede ser sostenida.
Por otro lado, muestras en línea basadas en la probabilidad, como el panel holandés de
LISS (www.lissdata.nl), son una adición útil para investigación científica. El panel LISS
consiste en 5,000 hogares, que comprenden 8,000 personas. El panel se basa en una
muestra probabilística real de hogares extraídos del registro de población por Statistics
Netherlands. Hogares que de lo contrario no podría participar son provistos de una
computadora y conexión a Internet. Un panel especial de inmigrantes está disponible en
adición del panel LISS. Este panel de inmigrantes comprende alrededor de 1.600
hogares (2.400 individuos), de los cuales 1.100 hogares (1.700 individuos) son de
origen no holandés.
Para algunas encuestas, los datos solo se recopilan una vez. Estos generalmente se
llaman estudios transversales. En muchos casos, sin embargo, los cambios a través del
tiempo son una parte importante de la pregunta de investigación. En estos casos la
encuesta se repite a intervalos regulares; esto puede ser todos los meses, todos los años
o cada algunos años. Esto generalmente se llama un estudio transversal repetido, lo que
significa que una muestra diferente se utilizó cada vez. A veces esto también es llamado
encuesta longitudinal, destacando el hecho que el foco está en la comparación
longitudinal. Técnicamente, sin embargo, el término "longitudinal" es mejor reservado
para un panel longitudinal. Aquí el mismo grupo de encuestados es encuestado a
intervalos de tiempo. Esto hace posible medir el cambio a nivel individual. Ya que los
miembros del panel tienden a abandonar, y porque panel ya no representa la población
objetivo después de unos años, puede ser utilizado un diseño de panel giratorio (ver
Cuadro 2.6). Nuevos miembros del panel participan en un número fijo de olas. Un
grupo de miembros nuevos del panel son reclutados para cada ola, haciendo posible
sacar conclusiones sobre cambios en el individuo y en la población en un momento
dado.
Cuadro 2.6: Diseño del panel giratorio, Encuesta de población activa (Eurostat
2011, pág. 7)
18
entrevistadas por dos trimestres consecutivos, luego se quedan fuera de la muestra para
las próximas dos olas y son incluido de nuevo dos veces más. Otros patrones de
rotación comunes, cada uno utilizado por seis países, están “dentro de 5” y “dentro de
6” olas, donde se entrevista a cada panel consecutivamente durante cinco o seis
trimestres antes de dejar permanentemente la muestra. Otros tres esquemas de rotación
son utilizados por uno o como máximo dos países.
Una encuesta entre los habitantes de una comunidad específica se puede llamar encuesta
regional. Cuando todos los habitantes de un país pertenecen a la población objetivo, esto
se puede llamar encuesta nacional. Al estratificar regiones, es posible asegurarse de que
pueden ser publicados los resultados del estudio tanto para las regiones y como para
toda la nación.
El Apéndice 1 brinda una descripción general de las encuestas comparativas. Una de las
ventajas de estas encuestas es que en la mayoría de los casos los datos están disponibles
para partidos externos, o al menos para uso académico.
19
Cuadro 2.7: 500 familias: migración historias de turcos en Europa (tomado de
http://www.norface.org/migration11.html, 18 de enero de 2012)
Aún así, no hay dos encuestas iguales (incluso cuando se intenta que lo sean). Como
cualquier otro producto, la forma de una encuesta será afectada por un gran número de
consideraciones de diseño. Al igual que muchos productos, será creada con un claro
propósito en mente. En este sentido, para pedir prestado la famosa sentencia de Le
Corbusier, “La forma [al menos parcialmente] sigue a la función”. Esto está relacionado
con uno de los criterios de calidad de encuesta más importantes: que sea adecuado para
el propósito. Una encuesta es buena cuando sirve al propósito para el cual ha sido
diseñada. A veces la velocidad es predominante, a veces la precisión de los resultados y,
a veces la comparabilidad de países. Cada propósito tiene un impacto en la forma final
de la encuesta.
20
Sin embargo, hay otros factores que también influyen en la figura y la forma de las
encuestas. Los aspiraciones y caprichos de los arquitectos de la encuesta o los
diseñadores serán visibles en su apariencia. La encuesta puede tratar de resolver
problemas conocidos o debilidades mediante el uso de diferentes materiales o un nuevo
proceso de producción. Se podría construir sobre el éxito de productos similares, o
podría ser experimental de alguna manera, probando la viabilidad de un nuevo proceso,
producto o precio. Y, en común con la mayoría de los procesos de producción que
involucran a seres humanos, las cosas van mal con las encuestas.
ISSP
www.gesis.org/en/issp/overview/
Eurobarometer
http://ec.europa.eu/public_opinion/index_en.htm
www.gesis.org/en/eurobarometer-data-service
Afrobarometer
www.afrobarometer.org
Latinobarómetro
www.latinobarometro.org
AsiaBarometer
21
www.asiabarometer.org
Europe SHARE
www.share-project.org
EUROFOUND
www.eurofound.europa.eu/surveys
• European Working Conditions Survey (EWCS)
• European Quality of Life Survey (EQLS)
• European Company Survey (ECS)
Eurostat microdata
http://epp.eurostat.ec.europa.eu/portal/page/portal/microdata/introduction
• European Community Household Panel (ECHP)
• Labour Force Survey (LFS)
• Community Innovation Survey (CIS)
• Adult Education Survey(AES)
• European Union Survey on Income and Living Conditions
(EU-SILC)
• Structure of Earnings Survey (SES)
• Farm Structure Survey (FSS)
PIAAC
www.oecd.org/piaac
22
TIMSS
Progress in International Reading Literacy
PIRLS
http://timss.bc.edu/
www.cses.org
PIREDEU
www.gesis.org/en/institute/competence-centers/rdc-international-survey-
programmes/piredeu
Referencias:
Avendabo, M., Mackenbach, J. P., & Scherpenzeel, A. (2010). Can biomarkers be collected in an internet
survey? A pilot study in the LISS panel. In M. Das, P. Ester & L. Kaczmirek (Eds.), Social and
behavioral research and the internet: Advances in applied methods and research strategies. Routledge:
Taylor and Francis Group.
De Leeuw Edith, E. D. (2005). To mix or not to mix data collection modes in surveys. Journal of Official
Statistics, 21(2), 233–255.
Eurostat. (2009). Harmonised European time use surveys. 2008 Guidelines. Luxembourg: Publications
Office of the European Union.
Eurostat. (2011). Quality report of the European Union Labour Force Survey 2009. Luxembourg:
Publications Office of the European Union.
Groves, R. M. (1989). Survey errors and survey costs. New York: Wiley.
Häder, S., & Lynn, P. (2007). How representative can a multi-nation survey be? In J. Roger, R. Caroline,
F. Rory & E. Gillian (Eds.) Measuring attitudes crossnationally. Lessons from the European Social
Survey (pp. 33–52). London: Sage.
Kish, L. (1997). ‘Foreword’. In T. Lê & V. Verma, DHS Analytical Reports No. 3: An Analysis of
Sample Designs and Sampling Errors of the Demographic and Health Surveys, Calverton, Maryland
USA: Macro International Inc.
Körner, T., & Meyer, I. (2005). Harmonising sociodemographic information in household surveys of
official statistics: Experiences from the Federal Statistical Office Germany. In J. H. P. Hoffmeyer-Zlotnik
& J. A. Harkness (Eds.) Methodological aspects in cross-national research. ZUMA-Nachrichten spezial
band 11. pp. 149–162. Mannheim
Passenger Focus. (2010). National passenger survey: Detailed technical survey overview. Autumn 2010
(Wave 23), London.
Smith, P. (2009). Survey research: Two types of knowledge. Viewpoint. International Journal of Market
Research, 51(6), 719–721.
Smith, P. (2011). Lessons from Academia. Viewpoint. International Journal of Market Research, 53(4),
451–453.
Stoop, I., Spit, J., de Klerk, M., & Woittiez, I. (2002). In pursuit of an elusive population. A survey
among persons with a mental handicap. Paper presented at the International Conference on Improving
Surveys, Copenhagen, August 2002.
23
AAPOR. The American Association for Public Opinion Research. (2011). AAPOR Report on Online
Panels. Prepared for the AAPOR Executive Council by a Task Force operating under the auspices of the
AAPOR Standards Committee. AAPOR. Retrieved from
www.aapor.org/Content/aapor/Resources/ForMedia/PressReleases/AAPORReleasesReportonOnlineSurv
eyPanels/default.htm.
Yeager, D. S., Krosnick, J. A., Chang, L., Javitz, H. S., Levendusky, M. S., Simpser, A., et al. (2011).
Comparing the accuracy of RDD telephone surveys and internet surveys conducted with probability and
non-probability samples. Public Opinion Quarterly, 75(4), 709–747.
Robert W. Oldendick13
13
R. W. Oldendick (&) Institute for Public Service and Policy Research, University of South Carolina, 1600 Hampton St.,
Room 411, Columbia, SC 29208, USA e-mail: roldendi@mailbox.sc.edu
24
sífilis nunca recibieron tratamiento suficiente para su enfermedad. En 1947, cuando la
penicilina se convirtió en la ampliamente aceptada tratamiento para la sífilis, la opción
de tal tratamiento no fue ofrecido a estas personas.
Otro conjunto de estudios que plantearon preguntas sobre los aspectos éticos de la
investigación en ciencias sociales fueron los realizados por Milgram (1974). El interés
de Milgram, provocado por las acciones de los criminales de guerra nazis cuya defensa
era que solo estaban siguiendo órdenes, fue por qué tanta gente parecía obedecer
instrucciones de una figura de autoridad. A pesar de que los experimentos de Milgram
involucraron una cantidad de variaciones de diseño, el elemento central de estos
estudios fue un '' generador de choque '' con interruptores de voltaje que varían en
incrementos de 15 V desde 15 a 450 V. Estos interruptores incluyen etiquetas como ''
Moderado '' (75-120 V) y '' Fuerte '' (135-180 V). Los interruptores de 375 a 420 V
fueron etiquetados como "Peligro: Choque severo", mientras que interruptores de 435 y
450 V fueron etiquetados como '' XXX '' (Milgram 1974, p 28).
A los participantes en estos experimentos se les dijo que el estudio era sobre “memoria
y aprendizaje”. Los procedimientos implicaban tener un sujetos que “enseña” a un
“Aprendiz “/ “estudiante” (que era descrito como otro sujeto, pero que en realidad
estaba trabajando con el experimentador) pares de palabras con las cuales el aprendiz
sería probado. Cuando el aprendiz hubiera cometido un error, el sujeto administraría un
choque y con cada error aumentaría el nivel de choque por 15 V. Aunque los resultados
de estos experimentos fueron controversiales y algo sorprendentes en términos del
porcentaje de sujetos que administraron el voltaje máximo, una consideración crítica
desde una perspectiva ética implica la decepción de los sujetos.
Otro evento importante en reacción a estos abusos percibidos por seres humanos fue en
1974 la formación de una Comisión Nacional de la protección de sujetos humanos de
25
Biomedicina e Investigación conductivista. La Comisión de 1979 del informe Belmont
estableció las pautas a seguir en la realización de investigaciones con sujetos humanos.
Como se señala en el Informe Belmont, los principios de ética básica se refieren a esos
juicios generales que sirven como una justificación básica para las muchas
prescripciones y evaluaciones éticas particulares de las acciones humanas. Tres
principios éticos culturales básicos particularmente relevantes para la investigación que
involucra a sujetos humanos son: respeto por las personas, beneficencia y justicia.
El Informe Belmont explica que el respeto por las personas significa que las personas
deben ser tratadas como agentes autónomos que son capaces de deliberación sobre los
objetivos personales y actuar bajo la dirección de tal deliberación. Además, dado que no
todos los individuos, por ejemplo, los niños o los mentalmente incompetentes son
capaces de autodeterminación, el principio de respeto por las personas dicta que se les
brindará protección especial contra el daño cuando la investigación que involucra a tales
grupos está en cuestión.
La aplicación del principio de respeto por las personas conduce a la exigencia de que los
investigadores proporcionen a los posibles sujetos la información adecuada sobre lo que
está involucrado en la participación, incluyendo los riesgos y beneficios potenciales y el
requisito de que obtengan el consentimiento voluntario e informado de los participantes.
La información provista a los participantes debe incluir los procedimientos de la
investigación, sus propósitos, riesgos y beneficios anticipados, procedimientos
alternativos y una declaración ofreciendo al sujeto la oportunidad de hacer preguntas y
retirarse en cualquier momento de la investigación. El acuerdo para participar debe ser
dado voluntariamente, y sin coacción, como por ejemplo de una persona en una
posición de autoridad instando a la cooperación u ofreciendo un incentivo excesivo para
participar. En resumen, los sujetos deben entender claramente el rango de riesgo y la
naturaleza voluntaria de la participación.
26
El principio de justicia requiere investigadores que muestren imparcialidad en la
selección de participantes. Al diseñar un estudio, un investigador debe considerar qué
grupos recibirán los beneficios de la investigación y que grupos soportarán sus cargas.
El Informe Belmont identifica dos niveles de justicia, lo social y lo individual. Como se
señala en este informe, la justicia individual requiere que los investigadores “No
ofrezcan beneficios a algunos pacientes que están a su favor o seleccionen solo personas
“indeseables” para investigaciones riesgosas.” La justicia social requiere que los
investigadores no tracen una distinción “entre las clases de sujetos que deberían, y no
deberían, participar en cualquier tipo de investigación, basada en la capacidad de
miembros de esa clase para llevar cargas y en el conveniencia de imponer cargas
adicionales a personas ya agobiadas”. En el contexto de investigación, justicia no
implica que todos los grupos se consideran iguales para la participación en
investigación. Las clases de sujetos, como adultos, pueden ser preferidos como sujetos
de investigación sobre las clases que ya están cargados, como niños o poblaciones
institucionalizadas y los investigadores deberían evitar emplear sujetos de poblaciones
vulnerables simplemente porque pueden estar más disponibles en la configuración
donde se realiza la investigación. Como se señaló anteriormente, el Informe Belmont
lideró el desarrollo de la política federal para protección de sujetos humanos, 45 CFR
46. Quince departamentos y agencias federales adoptaron el mismo idioma, conocido
como el Regla común: para abordar este problema
(http://www.hhs.gov/ohrp/humansubjects/commonrule/index.html). Estas regulaciones
consisten en cuatro subpartes: subparte A, que establece la base de las reglas para
realizar investigaciones con sujetos humanos; Subparte B, que proporciona protecciones
adicionales para mujeres embarazadas, fetos y recién nacidos; subparte C, que
proporciona protecciones para los prisioneros; y la subparte D, que ofrece protecciones
adicionales para los niños.
(1) Revisión completa de la junta, que se aplica a la investigación que presenta riesgos
posibles para los sujetos, por ejemplo, pruebas de drogas o dispositivos médicos o
encuestas que involucran a niños o personas con problemas de salud.
(2) Revisión expedita, que se aplica a estudios que presentan un riesgo mínimo para los
sujetos, definido como “la probabilidad y magnitud del daño o la incomodidad
anticipada en la investigación no mayores en sí mismos que los encontrados en la vida
diaria o en la realización de exámenes físicos o psicológicos de rutina o tests”
(http://ohsr.od.nih.gov/guidelines/45cfr46.html). Por ejemplo, la revisión acelerada se
aplicaría a los estudios que impliquen la recolección de muestras de sangre o el ejercicio
moderado por voluntarios sanos.
27
(3) Exención de revisión, en la cual la participación de sujetos humanos no involucra a
niños o poblaciones “en riesgo” y en la cual participa, por ejemplo, el uso de encuestas
de procedimientos en las cuales los datos se registran de una manera en que los sujetos
no pueden ser identificados y para los cuales la divulgación de las respuestas de un
individuo no los pondría en riesgo de delincuencia o civilizabilidad o dañaría su
posición financiera, empleabilidad o reputación. Muchos de los estudios que usan
investigación mediante encuestas que se llevan a cabo actualmente en los Estados
Unidos cumplen con los criterios de revisión exenta.
El 45 CFR 46 establece las reglas formales bajo las cuales los investigadores deberían
realizar investigación involucrando sujetos humanos. Una cantidad de implicaciones
prácticas para la conducta ética de la investigación mediante encuesta se basa en estos
principios generales, incluyendo:
• Los participantes también deben saber que puede retirarse del estudio en cualquier
momento.
• Los participantes deben ser informados de que negarse a participar o retirarse del
estudio no tendrá ningún consecuencias negativas. Esta consideración es
particularmente importante en situaciones donde el encuestado puede tener algún tipo
de relación con el patrocinador de la encuesta, como en una evaluación de un programa
de prestación de servicios, en el que un posible encuestado puede ser preocupado
porque la falta de cooperación podría afectar negativamente los servicios que reciben.
• La solicitud para participar debe incluir una descripción realista de los beneficios
potenciales. Muchos proyectos de encuestas proporcionan beneficios para la sociedad
en general y proporcionar un mínimo, si alguno, beneficios directos para los
participantes; los encuestados deben ser informados de esto.
• Cualquier costo para los participantes debe ser minimizado. La encuesta debe
diseñarse de manera que esa participación no resulta en ningún gasto adicional para los
sujetos. Un costo involucrado en cualquier encuesta es el tiempo requerido para
completar la entrevista, y ética consideraciones de diseño dictan esa información los
procedimientos de recopilación se esfuerzan por minimizar tiempo requerido de los
sujetos. Cualquier costo potencial para los participantes, incluido el tiempo requerido
para completar la entrevista, debería dejar en claro al hacerse la solicitud de
participación.
28
participantes debería ser dada la oportunidad de elegir participar, y tener un
asentimiento obtenido. Permiso para participar también se debe obtener de un tercero
que entiende el potencial de la situación del sujeto y es capaz de actuar en su mejor
interés.
• Cualquier riesgo potencial para los participantes debe ser minimizado. El daño físico
rara vez es un problema en participación en la encuesta, aunque en algunos aspectos de
encuestas de salud se pueden tomar muestras de sangre que podría causar malestar
físico. El daño emocional puede ser causado por pedir preguntas sensibles o sobre
situaciones, como el abuso físico, que causa que los encuestados se vuelvan incómodos.
La obligación del investigador es hacer que los encuestados no se sientan avergonzados,
ridiculizados, menospreciados o generalmente sometidos a angustia mental (Sudman
1998).
3. Minimice el engaño
• A los individuos a quienes se les pide que participen en una encuesta tiene el derecho
de saber sobre lo que se estudia y no ser engañados. Los participantes deben
proporcionarse con (a) información sobre el propósito de la investigación; (b) el
patrocinador de la investigación; y (c) la duración aproximada de la entrevista.
29
probar la hipótesis bajo consideración, una razón para tal engaño debe incluirse en los
materiales revisados por el IRB, que analizará detenidamente cualquiera de esas
solicitudes.
• En aquellos casos en los que los encuestados respondieron son engañados como parte
de la investigación, deben ser minuciosamente informados en el fin de la recolección de
datos, con una explicación proporcionada sobre cómo fueron engañados y por qué esto
era necesario para los propósitos de la investigación.
Las personas que participan en una encuesta tienen la expectativa de que lo hacen de
manera confidencial y de que la información contenida en los archivos y archivos de
datos de la encuesta se producirá de una manera que no permitirá identificar las
respuestas de ninguna persona. Hay una distinción entre anonimato y confidencialidad.
Las respuestas anónimas son las obtenidas de los participantes de la encuesta cuando no
hay forma de vincular las respuestas al entrevistado individual. En muchas situaciones
de encuesta, el investigador tiene datos que podrían identificar potencialmente al
encuestado, como el número de teléfono e información sobre características de fondo,
como edad, raza y sexo, o incluso el nombre de la persona en estudios basados en
muestras de listas. La práctica ética de la encuesta requiere que dicha información sea
tratada de manera que asegure que las personas no puedan menospreciar sus respuestas.
Para proteger la confidencialidad, los investigadores deben:
• En los estudios en que los archivos electrónicos que se utilizan para el muestreo o para
contactar a los encuestados contienen información de identificación, deben estar
protegidos por contraseña. Si dichos archivos se restauran en una red, la ubicación en la
que se almacenan también debe estar protegida por contraseña para que solo el personal
autorizado pueda acceder a ellos. Cualquier intercambio electrónico de tales archivos
también debe protegerse para prevenir cualquier revelación no intencional de
información relacionada con la participación en el estudio.
30
crear un identificador único para cada individuo que permita vincular los datos de estas
múltiples fuentes. La información sobre cómo se enlazan los datos de múltiples fuentes
debe limitarse a unas pocas personas (por ejemplo, el investigador principal y el gerente
de procesamiento de datos) para minimizar el riesgo de violación de la confidencialidad.
31
deben hacerse (y, en cualquier caso, es poco probable que sean productivos), la
situación con rechazos suaves es más ambigua. En muchos casos, tales rechazos no
reflejan una falta de voluntad para participar en el estudio, sino más bien una reacción a
las condiciones en el momento del contacto, por ejemplo, inmediatamente después de
un acuerdo con otro miembro del hogar, cuando los encuestados están cenando o
participando en alguna otra familia. actividad, o cuando el individuo está
particularmente ocupado. Como se mencionó anteriormente, en muchos casos donde se
utiliza la selección de los encuestados dentro de los hogares, la persona contactada
inicialmente no es la persona que sería el encuestado seleccionado. En estas situaciones,
existe un acuerdo general de que la mejora en la calidad de los datos resultantes de la
conversión negativa rechaza el daño potencial a los participantes, y los intentos de
conversión de rechazo son frecuentemente incluidos como parte del protocolo de la
encuesta, en particular los realizados por investigadores de encuestas académicas.1 Para
más información sobre la conversión del rechazo, véase Stoop and Harrison, Capítulo 9.
6. El uso de incentivos
32
3.3 Consideraciones éticas III: Diseño de la encuesta
La tasa de respuesta decreciente para todos los tipos de encuestas que se mencionó
anteriormente, y una consideración clave en el proceso de recopilación de datos está en
obtener una alta tasa de respuesta. Desde una perspectiva ética, si se elige una muestra
34
de un marco de muestreo completo, se selecciona la muestra usando métodos estrictos
de probabilidad, pero luego se recopila información de un porcentaje relativamente
pequeño de los encuestados seleccionados, ¿puede usted sostener (y éticamente) que los
resultados son representativos de la población? Esta preocupación sobre la tasa de
respuesta ha llevado a las organizaciones encuestadoras a poner más énfasis en el
entrenamiento de entrevistas para obtener la cooperación de los encuestados y para
implementar estrategias, como el preinforme, intentos de contacto múltiple, enfoques
multimodo, el uso de incentivos y presentaciones de la encuesta personalizadas que
deberían producir una mayor tasa de respuesta. Pero tales técnicas deben emplearse en
el contexto de la protección de sujetos humanos, que participan voluntariamente en la
investigación y que tienen el derecho de negarse a ser incluidos en un estudio y dar por
terminada su participación en cualquier momento.
35
y/o contraseña para acceder a la encuesta, y permitir que la encuesta sea completada una
sola vez por cada usuario, para evitar que un individuo participe varias veces. En
encuestas a través de internet que son de “suscripción abierta” o que usan una
distribución de instrumentos no controlada para reclutar encuestados, existe la
posibilidad de que un individuo o grupo pueda participar más de una vez, lo que puede
sesgar los resultados. Dado que la información que se proporciona en una encuesta a
través de internet debe transmitirse entre los dispositivos en los que los participantes
están ingresando sus respuestas y el servidor en el que se almacena la información,
deben encriptarse para que no tengan sentido para cualquiera que los intercepte durante
la transmisión. Los datos deben ser transmitidos ay almacenados en un servidor seguro,
con acceso protegido con contraseña y limitado a un pequeño número de personal de
investigación.
Entre los elementos que deberían incluirse en los informes de la encuesta se encuentra el
patrocinador de la encuesta, el cuestionario o el texto completo de las preguntas
formuladas, y una descripción del diseño de la muestra (se puede encontrar una lista
completa de los elementos recomendados en los informes de la encuesta en
(http://www.aapor.org/Content/aapor/Resources/ForResearchers/BestPractices/default.h
tm).
36
tasas de respuesta de la preocupación descritas anteriormente, la disponibilidad de
medidas comparables de las tasas de respuesta en las encuestas proporciona un
indicador de la calidad de la encuesta o la medida en que los investigadores pudieron
obtener la cooperación de las personas seleccionadas para participar. A pesar de la
importancia de esta medida, muchas encuestas, especialmente aquellas que utilizan
encuestas basadas en Internet o telefónicas que utilizan el método de respuesta
interactiva de voz (IVR), no informan esta información.
Una técnica que los encuestadores emplean frecuentemente para ajustar posibles sesgos
de no cobertura o falta de respuesta, es ponderar los datos, generalmente en un intento
por tener las características de los encuestados, más cercanas a algunas características
conocidas de la población (Battaglia et al., 2006). Se debe informar cualquier peso
utilizado en el análisis, al igual que información sobre las características en las que los
encuestados difieren de la población y cualquier análisis que los investigadores hayan
realizado para tratar de explicar estas diferencias.
Los informes de encuestas éticas también requieren que los hallazgos y las conclusiones
sean consistentes con la información proporcionada por los encuestados. Los datos
deben analizarse utilizando técnicas estadísticas que sean apropiadas para el tipo de
datos recopilados. Se debe proporcionar el número de casos en que se basa cualquier
análisis, junto con los errores de muestreo asociados con las estadísticas.
En encuestas extensas, puede que no sea factible informar completamente sobre todos
los aspectos del estudio, pero los resultados deben presentarse de una manera que
represente un equilibrio imagen de los hallazgos; los investigadores no deben informar
solo aquellos hallazgos que respalden su hipótesis o resaltar aquellos que son más
favorables para el patrocinador de la encuesta.
37
los investigadores están ciertamente sujetos a revisión cuando se presentan para su
publicación en una revista académica, este proceso de revisión es distinto del tipo de
estándares que hemos descrito como diseño de una encuesta ética.
Hasta cierto punto, esta función es realizada por asociaciones profesionales, como
AAPOR , CASRO, la Asociación Americana de Sociología y la Asociación de
Investigación de Mercado. Asociaciones profesionales como estas han desarrollado
códigos de ética para cubrir una variedad de cuestiones (Kennedy 2001). Aunque estos
códigos varían significativamente en términos de la dirección específica de emisión,
cada uno sirve para establecer pautas para la realización de la investigación a la que
deben adherirse sus miembros.
3.7 Resumen
Los diversos usos de los sondeos y encuestas desempeñan una función importante en la
sociedad moderna. Desde investigaciones exhaustivas que reúnen información para
rastrear las correlaciones de enfermedades y aquellas que brindan seguimiento de la
salud pública a encuestas que examinan los factores subyacentes del apoyo electoral o
que se utilizan en la evaluación de programas, las encuestas proporcionan información
que es de gran interés para los investigadores, los legisladores, las poblaciones
afectadas, grupos de interés, y el público en general. La descripción de este manual de
los diversos componentes que componen una encuesta bien hecha ha dejado en claro
que producir una encuesta de calidad es una tarea difícil. Hacerlo éticamente, tratar a los
encuestados con respeto y dignidad e informar los resultados de la investigación en una
forma que aborde de manera fiel las preocupaciones subyacentes de un estudio, es la
obligación de todos los que participan en el proceso de la encuesta.
39
Referencias
American Association for Public Opinion Research. Best practices for survey and public opinion
research. Available at: http://www.aapor.org/Content/aapor/
Resources/ForResearchers/BestPractices/default.htm.
Battaglia, M. P., Frankel, M. R., & Link, M. (2006).Weighting survey data: How to identify important
poststratification variables. Paper presented at the annual meetings of the American Association for
Public Opinion Research, Montreal.
Berry, S. H., Pevar, J. S., & Zander-Cotugno, M. (2008). The use of incentives in surveys supported by
federal grants. Santa Monica, CA: RAND Corporation.
Bishop, G. F. (2004). The illusion of public opinion: Fact and artifact in American public opinion polls.
Latham, MD: Rowman and Littlefield.
Bishop, G. F., Oldendick, R. W., & Tuchfarber, A. J. (1978). Effects of question wording and format on
political attitude consistency. Public Opinion Quarterly, 42, 81–92.
Bishop, G. F., Oldendick, R. W., & Tuchfarber, A. J. (1984). What must my interest in politics be if I just
told you ‘I don’t know’?’’ Public Opinion Quarterly,48, 510–519.
Centers for Disease Control and Prevention. Tuskegee study of untreated syphilis in the Negro male.
Available at: http://www.cdc.gov/tuskegee/index.html.
Council of American Survey Research Organizations.Code of standards and ethics for survey research.
Available at: http://www.casro.org/codeofstandards.cfm.
Curtin, R., Presser, S., & Singer, E. (2005). Changes intelephone survey nonresponse over the past
quarter century. Public Opinion Quarterly, 64, 87–98.
Dillman, D. A., Smyth, J. D., & Christian, L. M. (2009).Internet, mail, and mixed-mode surveys: The
tailoreddesign method. Hoboken: Wiley.
Groves, R. M., Fowler, F. J, Jr, Couper, M. P.,Lepkowski, J. M., Singer, E., & Tourangeau, R.
(2004). Survey Methodology. Hoboken: Wiley.
Keeter, S., Kennedy, C., Dimock, M., Best, J.,&Craighill,P. (2006). Gauging the impact of growing
nonresponse on estimates from a national RDD telephone survey. Public Opinion Quarterly, 70, 759–779.
Kennedy, J. M. (2001). Ethics codes and survey researchers. Paper presented at the annual meetings
of the American Association for Public Opinion Research, Montreal.
Lavrakas, P. J. (2010). Telephone surveys. In P. V. Marsden & J. D. Wright (Eds.), Handbook of survey
research (2nd ed.). UK: Emerald Group Publishing Limited.
Miller, J. M., & Wedeking, J. (2003). The harder we try, the worse it gets? Examining the impact of
refusal conversion and high callback attempts on the quality of survey data. Paper presented at the annual
meetings of the American Association for Public Opinion Research, Nashville.
40
National Commission for the Protection of Human Subjects of Biomedical and Behavioral Research.
(1979). The Belmont Report: Ethical principles and guidelines for the protection of human subjects of
research.Washington, DC: U.S. Government Printing Office. Available at:
www.hhs.gov/ohrp/humansubjects/guidance/belmont.html.
Nosek, B. A., Banaji, M. R., & Greenwald, A. G. (2002). E-research: Ethics, security, design, and control
in psychological research on the internet. Journal of Social Issues, 58(1), 161–176.
Payne, S. (1951). The art of asking questions. Princeton: Princeton University Press.
Olson, K. (2006). Survey participation, nonresponse bias, measurement error bias, and total bias. Public
Opinion Quarterly, 70, 737–758.
Schuman, H.,&Presser, S. (1981). Questions and answersin attitude surveys. New York: Academic Press.
Singer, E. (2006). Nonresponse bias in household surveys. Public Opinion Quarterly, 70, 637–645.
Singer, E., & Bossarte, R. M. (2006). Incentives for surveyparticipation: When are they coercive?
American Journal of Preventive Medicine, 31(November), 411–418.
Singer, E., & Presser, S. (2008). Privacy, confidentiality,and respondent burden as factors in telephone
survey nonresponse. In J. M. Lepkowski, et al. (Eds.), Advances in telephone survey methodology (pp.
449–470). Hoboken: Wiley.
Sudman, S. (1998) Survey research and ethics. In J.W. Alba, & J. W. Hutchinson (Eds.), Advances in
consumer research, (Vol. 25). Provo, UT: Association for Consumer Research.
Tarnai, J., & Moore, D. L. (2008). Measuring and improving telephone interviewer performance and
productivity. In J. M. Lepkowski, et al. (Eds.), Advances in telephone survey methodology (pp. 359–
384). Hoboken: Wiley.
Tuchfarber, A. J., Oldendick, R. W., & Bishop, G. F. (1979). Understanding and dealing with the refusal
problem in telephone interviewing. Paper presented at the annual meetings of the American Association
for Public Opinion Research, Buck Hill Falls: PA.
United States Government, International Military Tribunal. (1949). Trials of war criminals before the
Nuremberg military tribunals under control council law no. 10, (Vol. 2, pp. 181–182). Washington, DC:
U.S. Government Printing Office.
41