Está en la página 1de 124

ASIGNATURA:

EPIDEMIOLOGIA I

Módulo III:
Metodologías epidemiológicas, uso de
medidas y escalas de medición.

Lic. Escalante Malvina

AÑO 2020

1
Módulo III: Metodologías epidemiológicas,
uso de medidas y escalas de medición.

Presentación del tema

Se reconoce que, si bien en la actualidad coexisten diferentes marcos


epistemológicos aceptados, en términos generales la investigación en
epidemiología posee los siguientes usos principales:

 Sirve para el diagnóstico, es decir puede efectuar un diagnóstico de la


comunidad o de grupo.
 Provee la información requerida acerca de los determinantes de la salud
de la población.
 Ayuda a identificar la etiología, contribuye a conocer la enfermedad, su
desarrollo, etc. para predecir el número de casos de enfermedad y su
distribución en las poblaciones y a su vez controlar esta distribución.
 Contribuye a la evaluación de la atención de la salud, a monitorear
acciones, evaluar servicios, etc.

De modo sintético, se presentan los siguientes núcleos problemáticos:

 ¿Qué medidas epidemiológicas se pueden utilizar para medir salud o


enfermedad en una población?
 ¿Qué estrategias de investigación se pueden adoptar para describir la
situación de salud de una comunidad y sus determinantes?

2
Objetivos didácticos

 Familiarizarse con las metodologías epidemiológicas y en la necesidad de


uso de medidas y escalas de medición desde conceptos fundamentales
como: vulnerabilidad susceptibilidad y riesgo, discriminación, género,
sexismo, sexo, exclusión social, interculturalidad, derechos humanos,
justicia social, territorio.

Contenido de aprendizaje

 Metodologías epidemiológicas, generalidades: descriptivas, analíticas,


críticas, experimentales, cualitativas.

 Necesidad de uso de medidas y escalas de medición en los procesos de


cambio de los sistemas de atención de salud, desde conceptos
fundamentales como: vulnerabilidad susceptibilidad y riesgo,
discriminación, género, sexismo, sexo, exclusión social, interculturalidad,
derechos humanos, justicia social, territorio.

3
Metodologías Epidemiológicas.

El estudio de la salud y la enfermedad en la población (epidemiología) se hace


utilizando la investigación (método epidemiológico) y el lenguaje con que se
expresan los resultados es la estadística.

La estadística es un conocimiento que se ocupa de describir y analizar los datos.


Los datos son las probables respuestas a las variables y éstas, son las preguntas
a través de las cuales se descompone y se busca la contestación del problema
de investigación.

CIENCIA, EPISTEMOLOGÍA Y METODOLOGÍA DE LA INVESTIGACIÓN

Es necesario efectuar algunas consideraciones preliminares acerca de lo que se


entiende como “ciencia” e introducirnos en el proceso de investigación científica
para establecer la relación entre la epidemiología y la investigación.

A la ciencia se la puede definir desde diferentes perspectivas.

Para que la investigación pueda ser considerada científica debe seguir pasos y
cumplir ciertas reglas que constituyen el método científico. Sin embargo, en
investigación, no existen modelos o formas de llevar a cabo un proceso universal
ni que éste, a pesar de haber sido eficaz para otras investigaciones, pueda ser
aplicado en forma permanente. Es por ello que las reglas no son inflexibles y que
este proceso no es lineal, como si se tratara de un conjunto de pasos o etapas
relacionadas en forma mecánica y secuencial. Cada investigación se realiza de
acuerdo a criterios generales, que son ajustados por cada investigador y en
relación al problema tratado (objeto de estudio).

Hablar de método científico es referirse al conjunto de normas (reglas o tácticas)


que son más eficaces o eficientes para llevar a cabo una investigación científica.

4
La investigación científica requiere de fundamentos teóricos (base filosófica)
lo cual es estudiado por la epistemología y una base metodológica que es
estudiada por la metodología de la investigación. El metodólogo no pone en tela
de juicio el conocimiento ya obtenido y aceptado por la comunidad científica. Su
problema es la búsqueda de estrategias para incrementar el conocimiento.

El método para cualquier disciplina significa un modo de razonamiento y el


proceso de la investigación científica es un “proceso complejo y de carácter
orgánico en el cual el desarrollo de cualquiera de sus partes está inmediatamente
condicionado y es condicionante del desarrollo de las partes restantes”. Posee
una amplia gama de sentidos; puede ser considerado como cierta operación que
se realiza con el fin de garantizar el éxito de la producción de algo.

La Epistemología es una rama de la filosofía que se ocupa de estudiar la


naturaleza, el origen y la validez del conocimiento.

La palabra epistemología está compuesta por las palabras griegas ἐπιστήμη


(epistéme), que significa ‘conocimiento’, y λόγος (lógos), que traduce ‘estudio’ o
‘ciencia’.

En este sentido, la epistemología estudia los fundamentos y métodos del


conocimiento científico. Para ello, toma en cuenta factores de tipo histórico,
social y psicológico con el objeto de determinar el proceso de construcción del
conocimiento, su justificación y veracidad.

De allí que la epistemología procura dar respuestas a preguntas como: ¿qué es


el conocimiento?, ¿deriva de la razón o de la experiencia?, ¿cómo determinamos
que aquello que hemos entendido es, en efecto, ¿verdad?, ¿qué logramos con
esta verdad?

Nos plantea por qué debemos creer en aquello que afirman los científicos. Es
una actividad crítica que se dirige a todo el campo de las ciencias.

5
Lo anterior se muestra en el siguiente esquema:

La primera etapa de la Epistemología lleva la influencia de una larga tradición


que podríamos atribuir a Comte1 (aunque sus antecedentes nos conducen
mucho más atrás) y su idea de ciencia positiva: una ciencia básicamente
empírica en la que los conocimientos avanzaban de acuerdo a un único método,
el de las ciencias naturales.

El propósito de Comte estaba más ligado a producir una reforma social para la
que resultaba necesario reformular el método del conocimiento. Es muy
conocida su ley de los tres estadios: el teológico, el metafísico y el positivo.

No se trataría de meras etapas del conocimiento científico, sino de actitudes de


la humanidad en su conjunto en los distintos períodos históricos. El estado de
plena madurez y de progreso intelectual, obviamente, estaba vinculado con el
último de los tres estadios. A la lucha contra el oscurantismo y la religión se
sumaba entonces la batalla por eliminar todo vestigio de metafísica, con la
finalidad de producir un tipo de investigación de los fenómenos centrada en la
enunciación de relaciones. El ideal fisicalista hacía que se atendiera a las leyes
dadas en la experiencia, tanto para los hechos físicos como para los sociales,
espirituales y morales.

Los rasgos más importantes del positivismo son la proscripción de toda


metafísica y la exigencia rigurosa de atenerse a los hechos, a la realidad, en

1
Auguste Comte (1798-1857), fundador del positivismo, es quien ha dado a la Filosofía el nombre de
positiva. El “positivismo” fue la base epistemológica dominante en la segunda mitad del siglo XIX
(coincidente con el desarrollo de la teoría bacteriológica y la unicausalidad) y sus ramificaciones
penetran en nuestra centuria y se extiende todavía, en numerosos sectores, hasta nuestros días.

6
cualquier investigación. No hay más saber, en el estricto sentido de la palabra,
que el científico y todo presunto conocimiento debe responder a la “normalidad
metodológica”.

El positivismo fue y es considerado como un “ideal” de lo objetivo, de la unidad,


del progreso y sobre todo de la noción de verdad científica como un bien social.

Un aspecto importante es definir que los “hechos” son cosas o acontecimientos


accesibles a la observación o son fenómenos u objetos de experiencia. Así el
saber positivo se centra en alcanzar las relaciones constantes que existen
entre los fenómenos observados o leyes. Otro aspecto importante del
positivismo fue definir que el conocimiento no puede ser arbitrario; para ello
propone la precisión frente a la vaguedad. Pero también entiende la existencia
de lo relativo frente a lo absoluto.

Este término de relatividad permite, además, representar a todas las grandes


épocas históricas, en que cada fase resulta de la precedente y prepara la
siguiente según leyes invariantes.

En este marco la investigación científica es aquella que deriva de un único


método. Así la define Kerlinger (1975), como “una actividad sistemática,
controlada, empírica y crítica, de proposiciones hipotéticas sobre las presumidas
relaciones entre fenómenos naturales”.

Dice “sistemática y controlada” porque reconoce que debe utilizarse una


disciplina constante para desarrollar una investigación científica y que los hechos
no están librados a la casualidad.

Dice “empírica” queriendo señalar que se basa en fenómenos observables de


la realidad.

Y “crítica” porque se juzga constantemente de manera objetiva minimizando los


aspectos subjetivos y juicios de valores.

En esta perspectiva positivista la visión de ciencia implica, por lo general, reunir


una gran cantidad de datos relativos a las variables relevantes para el problema

7
planteado, estimar estadísticamente las frecuencias de eventos en una
población de interés, efectuar comparaciones y correlaciones entre las variables,
etc... Todo para arribar a leyes de regularidad que permitan explicar los hechos
del pasado y en cierta forma predecir los eventos futuros.

A partir de la década del ‘70 la sociología de la ciencia se consolida como un


área de especialización reconocida y plantea una división del trabajo con la
filosofía de la ciencia. Por lo tanto, se produce una ruptura, el sociólogo debe
investigar el conocimiento científico del mismo modo que formula y desarrolla
hipótesis para explicar los orígenes sociales de las ideologías políticas, por
ejemplo, y procura entender sus investigaciones y los métodos de análisis.

De esta forma se pasa de tratar la sociología de la ciencia a la sociología del


conocimiento.

La sociología de la ciencia se centra en la discusión sobre el postulado de la


“verdad del producto” o de la “verdad científica”. Esta debe pensarse que reside
en “particulares condiciones sociales de producción”, es decir que la verdad que
circule dependerá de un estado determinado de la estructura y funcionamiento
del campo científico. La meta sería comprender a la ciencia, entender su
evolución, buscar sus orígenes, ahondar en sus crisis, denunciar su violencia de
dominación con la naturaleza o los hombres, entre otras cuestiones.

Uno de los desafíos de la sociología de la ciencia fue la necesidad de repensar


el positivismo como base epistemológica y analizar cuál es la relación entre el
conocimiento científico / la investigación / y el contexto social.

El análisis de la historia contribuiría a explicar el nacimiento de una nueva teoría


o el descrédito de las antiguas estableciendo nexos entre los procesos sociales
y las innovaciones científicas. No es fácil determinar qué ha causado un cambio
específico en la ciencia o en la cultura, qué hizo posible este descubrimiento,
cómo apareció este concepto.

En las dos últimas décadas el estudio social de la ciencia ha señalado que las
“revoluciones científicas” no pueden ser explicadas por la aparición de una teoría

8
mejor, aparecen evidencias que van más allá de lo empírico. Por ello la ciencia,
los procesos culturales y la subjetividad están socialmente construidos e
interconectados.

EL MÉTODO EPIDEMIOLÓGICO

La Metodología epidemiológica consiste en la aplicación del método científico


experimental al estudio de los problemas de Salud.

Para conocer mejor el método Epidemiológico, es necesario recordar


inicialmente algunos conceptos y definiciones indispensables, para su mayor
comprensión:

METODO
Se define como la manera de alcanzar organizadamente un objetivo. Es la manera
de reproducir en el pensar el objeto que se estudia.
 El término organizado se refiere a que todos los miembros de un equipo
investigador siguen un mismo protocolo de estudio y aplican las mismas
definiciones y criterios a todos los participantes.
 La palabra objetivo indica que las conclusiones obtenidas no se basan en
impresiones subjetivas, sino en hechos que se han observado, medido y
analizados.

METODO CIENTÍFICO
Es el procedimiento sistemático y riguroso que la lógica estructura como medio para
la adquisición de conocimiento de la naturaleza; que incluye las técnicas de
observación, reglas para el razonamiento y la predicción, ideas sobre la
experimentación planificada y los modos de comunicar los resultados experimentales
y teóricos.

CIENCIA
Conjunto de conocimientos que recurre al método científico para desarrollarse y dar
respuesta a 2 preguntas esenciales para abordar un problema: -Por qué. -Para qué.
Las respuestas a estas preguntas esenciales para abordar un problema, permite
prever y transformar la realidad en beneficio de la sociedad.
El termino Ciencia, equivale literalmente a CONOCIMIENTO.

9
El primer profesional sanitario que utilizó el método de manera ordenada por
fases fue John Snow2. Este médico rural inglés aplicó el método al estudio de las
epidemias de cólera que ocurrieron en Londres en 1853 y 1854. Debido a ello,
se le considera el padre del método epidemiológico (ver unidad N°1).

Se puede afirmar, por tanto, que:

MÉTODO EPIDEMIOLÓGICO

Es una forma de razonamiento lógico con la aplicación del Método Científico,


en donde a partir de la identificación de un problema (enfermedad o fenómeno
de salud) que afectan a las colectividades humanas, con el fin de
transformarlas y dominarlas e influir positivamente en la salud de la población .

Con la característica de que una etapa sucede a la otra y no puede cambiarse el


orden y sucesión, primero identifica un problema, hace una revisión de los
conocimientos existentes, se formula una hipótesis y objetivos, se recogen datos
según un diseño de investigación preestablecido y una vez analizados e
interpretados, se obtienen conclusiones que permitirán modificar o añadir nuevos
conocimientos a los ya existentes, iniciándose entonces una secuencia circular
de etapas o niveles organizados para el logro de un objetivo.

APLICACIÓN DEL METODO EPIDEMIOLOGICO

Tiene aplicación en los 3 grandes campos


de acción de la epidemiologia

 Epidemiología descriptiva.
 Epidemiología analítica observacional
 Epidemiología analítica experimental

2
John Snow médico patólogo que en el año 1854 describe una epidemia de cólera en la ciudad de
Londres.

10
El fin último de la epidemiología es controlar los problemas de salud. Para ello la
epidemiología genera información en tres campos:

1. Conocimiento de la historia natural de las enfermedades o problemas de


salud.
2. Conocimientos para el control de problemas de salud en las poblaciones,
informando y evaluando los distintos pasos de lo que genéricamente se
conoce como planificación sanitaria.
3. Conocimientos para el control de problemas de salud en los individuos,
mejorando el manejo clínico de los pacientes enfermos o de los sanos de
alto riesgo.

Las fases del método epidemiológico determinan la profundidad del


conocimiento del fenómeno de salud-enfermedad estudiado. Se distinguen:

1- Fase de la Epidemiología descriptiva: Su función es describir cómo se


distribuye una enfermedad o evento en cierta población, en un lugar y durante
un período de tiempo determinado. La estrategia descriptiva tiene por objetivo
observar, describir e interpretar minuciosamente un hecho o fenómeno tal
como es.

Un ejemplo de indagación descriptiva a nivel individual es la historia clínica que


se efectúa a un paciente, obteniendo información desde su nacimiento hasta el
momento de la consulta.

La epidemiología descriptiva considera qué población o subgrupos desarrollan


la enfermedad o lo hacen con más frecuencia (persona), cómo la frecuencia de
ésta varía a lo largo del tiempo y /o en poblaciones con diferentes características
(tiempo), en qué localización geográfica es más o menos frecuente dicha
enfermedad (lugar). Las cuales responde las preguntas: ¿qué ocurrió?,
¿quiénes son los afectados?, ¿dónde ocurrió? Y ¿cuándo ocurrió?

11
Ejemplo:

A. Variables de tiempo: hora del día, estaciones del año, meses, años,
fenómenos de masa en el tiempo, tendencia secular, (es decir las
variaciones en la frecuencia de enfermedad que se producen de una
generación a otra, o de un decenio o más, a otro), tendencias
estacionarias etc.
B. Variables de lugar: características demográficas, zona de residencia,
Urbano, rural, lugar de nacimiento, temperatura, humedad, suelo,
vegetación, fauna, población que la habita, etc.
C. Variables de persona: Constituyen atributos biológicos, sociales o
culturales que influyen en la presencia de enfermedad, tales como el sexo,
edad, etnia, nivel de estudios, nivel socioeconómico, estado civil,
características familiares o genéticas, características endógenas, estilos
de vida etc.

La estrategia descriptiva posibilita resumir, en forma sistemática, los datos


básicos de salud y las principales causas de la enfermedad o muerte y, además:

 Permite efectuar una valoración de las tendencias en salud


 Proporciona la base para planificar, prestar y valorar servicios de salud.
 Identifica problemas que van a ser estudiados por una estrategia analítica.

Planteamiento de una hipótesis

La descripción de los fenómenos que realiza la epidemiología descriptiva,


sugieren

explicaciones posibles de los factores o variables involucrados en el proceso


causal del fenómeno en estudio (salud o enfermedad). Surge así la formulación
de hipótesis que pueden definirse como una explicación posible completa o
parcial, pero sujeta a confirmación de un fenómeno de salud o enfermedad.
Estas hipótesis surgen de observaciones clínicas, epidemiológicas y de
laboratorio relacionadas con el evento estudiado.

12
Desde el punto de vista de la Epidemiología, la fase de la epidemiología
descriptiva o bien el estudio o la investigación descriptiva, ha sido la gran
proveedora de hipótesis en relación con los importantes problemas de salud
con la que cuenta la epidemiología.

2- Fase de la Epidemiología analítica observacional

La labor en epidemiología no termina con la descripción del fenómeno, sino que


es necesario analizar sus causas–determinaciones. El conocimiento en un
sentido positivista tiene su eje en la búsqueda de estas causas, así la estrategia
analítica tiene por objetivo demostrar la relación existente entre la
enfermedad o condiciones de salud-enfermedad y factores supuestamente
causales. Tiene una tendencia a explicar por qué la enfermedad ocurre en esas
personas o por qué ciertas personas hacen uso de determinados servicios de
salud o si puede la incidencia de una enfermedad decaer con la introducción de
ciertas medidas preventivas, etc.

Los estudios analíticos observacionales analizan, en diferentes grupos, la


relación existente entre la ocurrencia de una enfermedad o evento, por un lado,
y la exposición a determinados factores de protección o de riesgo, por el otro. En
los estudios analíticos se comparan al menos dos grupos: ingresando por el
factor de riesgo los grupos serían “expuestos y no expuestos”; ingresando por
evento, los grupos serían “con la enfermedad y sin la enfermedad”.

Contesta las preguntas: ¿Cómo ocurrió? Y ¿por qué ocurrió?

3- Epidemiología analítica experimental

Este método también examina hipótesis, pero lo hace de un modo más “estricto”
aún. Es analítica porque también utiliza grupos de comparación, pero, en este
caso, el investigador no sólo observa y analiza los datos, sino que interviene
activamente en el manejo y control del evento, especificando las condiciones del

13
estudio, seleccionando los grupos de tratamiento, la naturaleza de las
intervenciones, el manejo de los pacientes durante el seguimiento, etc. En cierto
sentido “controla” el proceso de la investigación e introduce modificaciones
necesarias para su realización.

Los principales tipos de diseño de investigación ANALÍTICA que permiten dar

respuesta a las hipótesis formuladas (en la fase de la epidemiología descriptiva)


son los estudios:

1. De prevalencia (transversales)

2. De casos y controles.

3. De cohorte.

4. Experimentales

ETAPAS DEL MÉTODO EPIDEMIOLÓGICO

Es necesario enfatizar que los pasos, sintetizados, del proceso de investigación


epidemiológica coinciden con los del método científico.

Dentro de la ETAPA DESCRIPTIVA encontramos, en primer lugar,


la Observación del fenómeno.
Dentro de el encontramos:
 Identificación de un problema.
 Objetivos de la investigación.

14
 Confirmación de casos similares.
 Identificación de los datos existentes.

En segundo lugar, encontramos la Comparación de los datos observados.


Aquí nos encontramos lo siguiente:
 Identificación de las características de los hechos
 Identificación de las formas de aparición y sus tendencias
 Formulación de marco teórico

Dentro de la Etapa analítica nos encontramos con la Elaboración de una


hipótesis epidemiológica que analizará, con alto grado de especificidad, los
siguientes elementos:
 Población
 Efecto esperado y desarrollado
 Causa o factor de riesgo
 Relación dosis/respuesta
 Relación tiempo/respuesta
Y planificación del estudio que comprende, entre
otros:
 Selección y operacionalización de variables.
 Definición de categorías y escalas de medición.
 Definición de las unidades de análisis.
 Elección del diseño de investigación.
 Definición de universo, muestra y técnica de muestreo.
 Elaboración del instrumento y de los procedimientos de medición. pruebas
de confiabilidad y validez del instrumento.
 Plan de análisis de los datos.
 Prueba piloto.

Y llega el turno de adentrarnos en la tercera y última etapa, la Etapa


experimental. Aquí encontramos la Experimentación de la hipótesis, con
aspectos a tener en cuenta en la verificación de la hipótesis epidemiológica:
 recolección de los datos.
15
 procesamiento, análisis e interpretación de los resultados.
 conclusiones y sugerencias.

De este modo llegamos al culmen del Método Epidemiológico. El Informe o


formulación de una ley:

 Verificada la hipótesis, se emite un informe sobre la causa de la


enfermedad o del fenómeno de salud. Finalmente se ponen en marcha
las medidas de prevención de la enfermedad o la promoción de la misma.

Resumen:

16
Nota: La preparación de un proyecto de investigación es frecuentemente un
proceso cíclico. Las flechas indican que el proceso no siempre es lineal. En
cualquier etapa se puede modificar o cambiar un estadio anterior que ya se daba
por definido.

I. PLANTEAMIENTO DEL PROBLEMA

Toda investigación nace a partir del planteo del problema. El mismo surge de las
preguntas que se realiza el investigador a partir de una observación sobre un
aspecto de la realidad.

Son preguntas formuladas de tal modo que las respuestas a las mismas
confirmarán, ampliarán o corregirán parte de aquello que corrientemente se da
por conocido en esa área y aunque cada problema dentro de la ciencia implica
una pregunta, o serie de preguntas, no cualquier problema puede ser tomado
como científico. Si la respuesta a la pregunta de investigación fuera obvia, se
trata entonces de un problema de gestión que puede resolverse sin ninguna
investigación ulterior.

17
El verdadero procedimiento para el hallazgo del problema consiste en obtener
una información lo más completa posible de los temas de investigación o de los
problemas estudiados por otros investigadores en el área elegida.

La situación problemática suele ser amplia abarcando en ocasiones diversos


factores que no pueden ser estudiados simultáneamente. Esta dificultad está
relacionada con: disponibilidad de recursos y tiempo, limitaciones de orden
científico (conocimiento de posibles intereses teóricos), posibilidades
metodológicas (disponibilidad de una técnica adecuada), etc.

Delimitar el problema significa especificar su alcance teórico empírico,


escogiendo y centrando una parte del problema. El tema se delimita con el fin de
hacerlo claro y concreto estableciendo la relación de lo que se estudia con la
totalidad del fenómeno a través de la teoría, es decir, acotar el mismo,
conservando su integridad, teniendo en cuenta los aspectos que serán
relevantes en la investigación. Si hubiera varios aspectos del mismo tema, se
debe dar prioridad al más importante o necesario en ese momento.

Delimitando el problema se estará en condiciones de establecer los objetivos y


el propósito de la investigación, es decir, establecer qué se quiere conocer y para
qué se quiere conocer.

Una vez planteado el problema a investigar y haber delimitado su alcance


debemos definir el mismo en relación a las variables y a la población objeto de
estudio.

De acuerdo a la opinión de Kerlinger (1982) los criterios a tener en cuenta en la


definición de un problema deberán ser los siguientes:

 Expresar una relación de variables


 Formularse en forma de pregunta
 Posibilitar la forma empírica de las variables
 Expresarse en una dimensión temporal y espacial
 Definir la población, objeto de estudio.

18
II. PROPÓSITO Y JUSTIFICACIÓN DE LA INVESTIGACION

Toda investigación tiene un propósito definido que justifique así el esfuerzo de


recursos demandados para su realización.

El propósito, responde a la pregunta “¿para que servirá esa investigación?” con


el objeto de visualizar con claridad la utilidad del estudio. Para ello debemos
tener en cuenta:

 Qué elementos nuevos va a aportar,


 Qué aspectos del conocimiento existente va a modificar,
 Qué lugar va a ocupar el nuevo hallazgo en la teoría existente sobre el
tema.

Por último, habría que ver la viabilidad o factibilidad para poder realizar la
investigación propuesta. Hay que ver tanto la disponibilidad de recursos
financieros, humanos y materiales que se disponen como así también las
consideraciones éticas en que el proyecto se va a desenvolver.

III. ANÁLISIS DE LA BIBLIOGRAFÍA Y CONSTRUCCIÓN DEL MARCO


TEÓRICO

¿Cuál es la información disponible?

El verdadero procedimiento para dar respuesta al problema, consiste en obtener


la información bibliográfica más completa posible y los estudios realizados por
otros investigadores en el área elegida.

El Marco Teórico en la mayoría de los estudios, es el análisis del Problema


general a que se refiere el proyecto y no sólo alguno de sus aspectos específicos.

Es la descripción, explicación y análisis en un plano teórico del problema que


trata la investigación. Tiene como objetivo situar al problema y el resultado del
análisis dentro del conjunto de conocimientos existentes y orienta el proceso de
investigación. Debe incluir también las definiciones de términos, cuyo significado
es necesario precisar.
19
El marco teórico se va construyendo a medida que se avanza en el planteo del
problema y en los objetivos del estudio, manteniendo su presencia a lo largo del
trabajo y reaparece en el informe final como basamento de partida en donde se
debe ubicar el nuevo hallazgo.

En algunos casos el Marco Teórico no aparece en forma explícita en el proyecto,


sin embargo, lo está implícitamente ya que aun cuando no se elabore, existe en
la mente del investigador.

IV. FORMULACIÓN DE OBJETIVOS

Una vez revisada la bibliografía sobre el tema y definido el marco teórico en que
nos posicionarnos, se está en condiciones de redactar en forma clara los
objetivos a que apunta la investigación.

20
Los objetivos se van formulando a medida que se va definiendo el problema, se
insertan dentro del marco teórico conceptual elegido y guían la investigación en
un rumbo definido.

Además, establecen la meta hacia donde se dirige la investigación, ya sea para


exponer una situación, contribuir a la resolución de un problema en especial,
para probar una hipótesis o para aportar una evidencia empírica a la teoría.

La definición de los objetivos consiste en la parcialización del problema en


estudio, señalando claramente "qué" aspectos se deberán estudiar
específicamente y cuyo esclarecimiento contribuirá a responder el problema
planteado y a confirmar o no la hipótesis si la hubiere.

Deben entenderse como intermediarios entre el problema seleccionado y la


posibilidad de observar y medir la realidad, por lo que requieren ser definidos con
claridad y con la certeza de poder concretarse en la práctica. Se los puede
entender como la guía que limita la posibilidad de exceder los intereses
específicos de la investigación, las etapas planteadas, los recursos previstos,
etc.

Además, deben priorizarse en orden de importancia como objetivos generales y


específicos según respondan a la pregunta principal de la investigación o a
aspectos parciales. Por último, los objetivos deben poder ser medibles a fin de
que permitan su evaluación al finalizar el estudio y tener en cuenta el tipo de
diseño a seguir.

Para una mejor comprensión de lo que se quiere obtener, los objetivos se pueden
o no subdividirse en generales y específicos. Mientras que los primeros expresan
lo que se espera lograr con el estudio, los segundos tratan más analítica y
profundamente los distintos aspectos del problema.

Para redactarlos debemos seguir ciertos criterios, como:

 Deben contemplar los elementos básicos del problema


 Deben ser medibles y observables
 Deben ser claros y precisos

21
 Deben seguir un orden (metodológico o lógico)
 Deben estar expresados en infinitivo

Veamos un ejemplo:

Objetivo general

 Identificar los motivos de la escasa concurrencia de mujeres


embarazadas al control prenatal en el centro de salud X, año X.

Este objetivo general podría subdividirse en los siguientes:

Objetivos específicos:

 Determinar el grado de concurrencia para control del embarazo de


mujeres al centro de salud, comparándolo con la meta de utilización
deseada.
 Determinar elementos de oferta por parte del centro de salud como:
horarios, servicios, infraestructura disponible, analizando la adecuación
de los mismos.
 Identificar factores socioeconómicos y culturales que pueden influir en la
utilización del servicio.

La elección de los objetivos está determinada por condicionamientos internos y


externos del investigador, tales como: la ideología de las instituciones
patrocinantes, el presupuesto, el tiempo disponible para la realización del
trabajo, los recursos humanos, la coyuntura política, social y económica en la
cual está inserto el proyecto.

V. HIPÓTESIS

Una vez planteado el problema a investigar, visto a quién beneficiaría la


investigación, analizada la bibliografía, construido el marco teórico, y formulados

22
los objetivos, surge o no la hipótesis de acuerdo al diseño metodológico que se
utilice.

En el caso de los estudios de tipo exploratorio o descriptivo las hipótesis no


aparecen como una etapa necesaria, a lo sumo sería una expresión del
comportamiento de una o varias variables en forma independiente. En el caso
de los estudios analíticos (casos y controles o cohortes) sí, se hace necesario,
expresar una hipótesis que relaciones dos o más variables.

¿Qué son las hipótesis?

En ciertos casos los investigadores pueden estar manejando respuestas


tentativas o posibles a sus preguntas. Estas son las hipótesis, las cuales deben
ser enunciadas en forma clara a fin de someterlas a prueba para su confirmación
o refutación.

El conocimiento previo del problema planteado, la construcción del marco teórico


y la revisión de la bibliografía, son los elementos que nos pondrán en condiciones
de formular una hipótesis, su resultado siempre es útil para la teoría y para la
formulación de nuevas hipótesis.

La hipótesis arriesga una interpretación sobre cómo juegan ciertos elementos o


variables para que se dé el fenómeno en estudio, sobre sus causas y
consecuencias, o sea que es un enunciado que relaciona variables entre sí
arriesgando una asociación que sea válida. Son enunciados teóricos supuestos
que deberán ser comprobados o refutados a lo largo de la investigación.

También podrían haberse enunciado otras hipótesis, tales como:

 Desconocimiento de las madres de la existencia del Consultorio


 Horarios inadecuados para la atención
 Utilización de recursos empíricos, tradicionalmente aceptados por la
comunidad

La formulación de hipótesis debe ser precisa, sin ambigüedades sobre lo que se


quiere significar, especialmente que lo enunciado pueda ser medible para su
comprobación mediante las técnicas apropiadas.

23
¿Qué utilidad tiene trabajar con hipótesis?

Las hipótesis las utilizamos en los estudios analíticos cuando queremos poner a
prueba una proposición de asociación entre diversos factores que producen un
fenómeno. Debemos tener en cuenta que las hipótesis:

 Ayudan a proponer el objetivo y orientan el desarrollo metodológico de la


investigación proporcionando orden y lógica al estudio que estamos
realizando.
 Determinan evidencias favorables o no a teorías ya existentes. Cuando
hay varias hipótesis de una misma teoría y éstas reciben evidencias a su
favor, la teoría se hace más robusta.
 Cuando no están necesariamente asociadas a alguna teoría puede ocurrir
que, como resultado de la prueba de una hipótesis, se pueda esbozar las
bases de una nueva teoría.

VI. DISEÑO METODOLÓGICO

 TIPOS DE ESTUDIOS

Los diseños epidemiológicos pueden ser clasificados de diversas formas, según:

 El tipo de análisis - descriptivo- analíticos


 La intervención del investigador: - experimental- observacional.
 La temporalidad: - transversales- longitudinales
 La direccionalidad: - hacia delante causa efecto- hacia atrás causa efecto.

 Según los conocimientos existentes sobre el problema que se está


estudiando, pueden formularse distintos tipos de preguntas que exigirán
diferentes diseños de estudio.

24
El diseño del estudio dependerá de:

Tipo de problema

 Los conocimientos existentes sobre el problema


 Recursos disponibles para el estudio.

Podemos clasificar los diseños de Investigación Epidemiológica en:

 Sin intervención u observacionales: son aquéllos donde únicamente nos


basamos en la observación, sin manipulación de causas o factores, o sea,
que no controlamos las condiciones del estudio.
 De intervención o experimentales: son aquéllos donde nosotros podemos
manipular la causa en estudio o factor de riesgo, o sea, podemos
especificar las condiciones bajo las cuales se ha de conducir el estudio.

Si el epidemiólogo pudiera elegir, preferiría el experimental, pues podría tener


bajo control las condiciones bajo las cuales se realiza la investigación.

Pero, fundamentalmente por cuestiones morales y éticas, casi siempre es muy


difícil realizar investigaciones experimentales. Como ejemplo, si quisiéramos
estudiar un factor cancerígeno, no podríamos someter a un grupo de individuos
a este factor.

Cuadro Resumen:

25
Cuadro Resumen:

 VARIABLES

Una vez decidido el tipo de estudio, nos concentraremos en la definición de las


variables cuya medición nos permitirá alcanzar y verificar los objetivos e hipótesis
propuestas.

Veamos la definición de “variables”:

Los factores o cualidades que se han aislado de un fenómeno, como los más
importantes o de mayor interés para el estudio en cuestión. Es decir, son los
diferentes aspectos o características del objeto en estudio, susceptibles de
adoptar distintos valores.

La variación de los valores se puede dar no sólo entre las unidades estudiadas,
sino también en una misma unidad en distintos momentos.
26
En los estudios epidemiológicos es muy importante distinguir entre variables
dependientes e independientes.

Puede identificarse como variable dependiente aquélla de interés principal o


desenlace principal del estudio. Variables independientes son las características
que es necesario tener en cuenta u otros factores que puedan estar modificando
a la variable dependiente. En un esquema de pensamiento “causal”, la variable
dependiente es el “resultado”, “efecto”, o "respuesta" y las independientes los
factores de riesgo presuntamente causales.

La sumatoria de los valores de los indicadores significa la recomposición de la


variable, que recibe el nombre de Índice.

INDICE: Es la medida compleja que obtiene cada unidad de análisis después de


combinar los indicadores propuestos para la medición de la variable estudiada.

 UNIVERSO Y MUESTRA

Uno de los primeros pasos en una investigación, consiste en delimitar con


exactitud las personas u objetos sobre los que se desea realizar el estudio. Este
conjunto de todas las personas u objetos recibe el nombre de universo.

Cuando el universo es muy numeroso, la realización del estudio demanda mucho


dinero, personal y tiempo, además se complica demasiado el procesamiento de

27
los datos. Para solucionar este problema hemos visto que la estadística ha
desarrollado lo que se denomina teoría de las muestras.

Su objetivo es obtener conclusiones válidas para el universo, partiendo de una


parte pequeña de éste, denominada muestra.

Cuando se trabaja con todo un universo, la obtención de los datos se denomina


censo, en cambio cuando los datos se obtienen sobre una muestra, se dice que
se está realizando un muestreo.

A modo de recordatorio debemos tener presente algunos de los aspectos


relevantes de la muestra y el muestreo:

 Cualquier subconjunto de elementos de una población es una muestra de


ella.
 De cada población puede extraerse un número indefinido de muestras.
 Cuando se utiliza la muestra se pretende conocer las características de la
población.
 La muestra a estudiar, por lo tanto, debe ser representativa de la
población, pues éste es requisito fundamental para poder hacer
generalizaciones válidas para la población.
 Muestra representativa es aquélla que reúne en sí las características
principales de la población y guarda relación con la condición particular
que se estudia.
 Los aspectos fundamentales que se deben considerar en la extracción de
una muestra representativa son: - El sistema de muestreo utilizado.

- El tamaño de la muestra.

Selección de muestras en investigaciones epidemiológicas

Como hemos visto en el contexto epidemiológico, el muestreo se aplica para


realizar distintos tipos de estudios que se pueden dividir en dos grandes grupos:

28
 Estimación:

Estudios para lograr conocimientos sobre una o más características de un


universo.

La característica que se desea destacar de este tipo de estudio es que se trabaja


con una sola muestra.

 Comparación:

Estudios que implican la comparación de dos o más grupos.

Los estudios de este tipo se diferencian de los anteriores porque no se trata de


estimar una característica desconocida para un universo determinado, sino que
se desea comparar los resultados de dos o más alternativas, utilizando al menos
dos muestras.

Para este tipo de estudio se elegirán dos muestras de enfermos semejantes


entre sí, a un grupo se le administrará la característica (Ej. Antibiótico) A y al otro
el B.

Si bien es cierto que cualquier subgrupo de una población constituye una


muestra, no todos son representativos de ella, y tampoco tienen la misma
probabilidad de ser escogidos; es por ello que se habla de las muestras
“probabilísticas” y de las “no probabilísticas”.

29
Muestreo probabilístico y no probabilístico

Cuando en la elección de la muestra se cumplen todos los requisitos que


establece la teoría de las muestras en lo que respecta a tamaño y forma de
elección, se está realizando un muestreo probabilístico. En estos casos, al no
trabajar con toda la población, estamos sujetos a cometer errores aleatorios. Por
lo tanto, debemos determinar la probabilidad de error.

Ahora bien, muchas veces sucede, especialmente en algunos problemas de


estimación, que obtener una muestra probabilística presenta dificultades, ya que
su diseño puede requerir mucho tiempo y material de preparación, sería el caso
de tener que preparar una muestra de todo el país.

Otras veces puede suceder que las personas u objetos elegidos para formar la
muestra sean de difícil acceso, por ejemplo, personas que viven en zonas
inundadas. En estos casos se presenta la disyuntiva de no hacer ninguna
investigación o hacer un muestreo no probabilístico. Esto es, elegir una
muestra que no cumpla exactamente con todos los requisitos que establece la
teoría de las muestras y por lo tanto no poder cuantificar la probabilidad de
cometer un error, pero sí obtener información suficientemente útil para los fines
deseados.

Aunque las muestras no probabilísticas tienen limitado valor científico, son de


mucha ayuda en los estudios exploratorios.

Utilización de métodos básicos de muestreo en estudios de estimación

 Tamaño de la muestra

El cálculo del tamaño de la muestra es un tema muy especializado que requiere


participación de una persona capacitada, pero se darán algunos conocimientos
que permitan un intercambio fructífero entre el investigador y el especialista que
realice los cálculos finales.

30
 Error de muestreo

Cuando hablamos sobre precisión, decimos que toda medida muestral está
afectada por un error aleatorio.

Recordemos que, aunque se cumplan todos los requisitos establecidos por la


teoría de las muestras, existe la posibilidad de que la muestra elegida no estime
con exactitud el valor del universo. Es bastante lógico pensar que si se trabaja
con una parte y no con el todo se corre este tipo de riesgo. Lo importante es que
este error debido al azar se puede en cierta medida prever de acuerdo con las
necesidades del estudio.

Es necesario tener presente que cuando los estudios se realizan sobre todo el
universo, también se cometen distintos tipos de errores (sistemáticos o sesgos
de medición), especialmente los primeros no son posibles de cuantificar.

Si decidimos trabajar con una “confianza” del 95% de que nuestro intervalo de
confianza contenga al verdadero valor del Universo, estaremos aceptando una
probabilidad de error del 5% de que no sea así. Este error se puede expresar en
porcentaje, en general varía de 1 a 5% y se simboliza “p”. Significa que lo que

31
se afirma a partir de la muestra tiene una probabilidad “p” (1 a 5%) de no ser
exacto, o lo que es lo mismo, que se está afirmando algo que tiene una
probabilidad de ser cierto de 95 a 99%.

 INTERVALO DE CONFIANZA

Vimos que este concepto está relacionado con la forma en que se expresan las
estimaciones obtenidas a partir de la muestra. La forma correcta de dar el
resultado, es por medio de dos valores que esperamos contengan al verdadero,
con la probabilidad de error antes mencionada.

Para aclarar, supongamos, por ejemplo, que en una determinada localidad se


desea estimar el cumplimiento del esquema de inmunizaciones en niños
menores de un año. A partir de una muestra se obtiene que el 30% de los niños
están vacunados según el esquema. Lo correcto será expresar este dato,
incluyéndolo en un intervalo, como por ejemplo 25 a 35%. Recordemos su
interpretación: con cierto nivel de confianza decimos que el verdadero valor de
cobertura de inmunización en esa población es un valor comprendido entre 25%
y 35%. Esto se asegura con una probabilidad de equivocarse (de acuerdo con lo
anterior) igual “p”, generalmente de 1 a 5% o bien con una confianza de 95 a
99%.

Recuerden que todo esto está basado en las propiedades de la curva normal y
en el concepto de error standard.

Tanto a la probabilidad de error o su opuesto -la “confianza”- como al intervalo


de confianza se les asignan valores de antemano de acuerdo con los
requerimientos del investigador y estos valores intervienen en el tamaño de la
muestra a través de una fórmula (*), pero también es posible hacer un
razonamiento lógico.

Si el investigador necesita obtener datos muy exactos, con una probabilidad de


error muy pequeña y un intervalo también mínimo (muy precisos), el tamaño de
la muestra deberá agrandarse tanto, que se hará prácticamente igual al universo.

32
En la medida en que se acepten ciertos niveles en la probabilidad de error, como
ser p = 5% y cierta amplitud en el intervalo de confianza, el tamaño de la muestra
disminuirá.

Continuando con los razonamientos sobre el tamaño de la muestra, se debe


tener en cuenta también las características de la/las variables en estudio.

Cuando no se tienen conocimientos sobre el comportamiento de la característica


de una población se realiza un estudio previo. Como hemos visto esta pequeña

muestra preliminar recibe el nombre de muestra piloto, la cual proporciona una


información aproximada para conformar el diseño de investigación.

Otros elementos muy importantes en la determinación del tamaño de la muestra,


son el presupuesto con que se cuenta, como así también la participación del
investigador, ya que éste posee toda la información necesaria para ser
introducida en la fórmula que proporciona este dato.

En resumen, los principales elementos que se deben tener en cuenta son:

 Comportamiento de la variable en el universo (frecuencia aproximada


de aquello que se desea medir).
 Probabilidad de error
 Amplitud del intervalo de confianza
 Costos

33
Vemos que entre las cosas importantes no figura el tamaño total de la población.
Es un error de concepto muy común creer que, si la población es mayor,
necesitamos una muestra mayor para su estudio. El tamaño de la muestra está
condicionado especialmente por la magnitud o frecuencia de hallar en la
población aquello que queremos medir.

 TIPOS DE MUESTREO

Una vez fijado el tamaño de la muestra se debe especificar la forma en que debe
ser elegida.

La muestra debe ser elegida al azar. Esto significa que cada una de las personas
u objetos que componen el universo, deben tener la misma probabilidad de ser
elegidos.

Cada una de las personas u objetos, constituyen las unidades de muestreo u


observación.

 Muestreo simple al azar

Supongamos un universo compuesto por todos los estudiantes que aspiran a


ingresar a la Universidad, y se quiere extraer una muestra de los mismos. En
este caso será suficiente numerarlos siguiendo cualquier orden y recurrir a un
bolillero para elegir los que formarán la muestra. En lugar de bolillero se puede
utilizar una tabla que cumple la misma función y se llama “tabla de números
aleatorios”. Esta es una tabla formada por una sucesión de números donde la
aparición de uno a continuación de otro, está regida solamente por el azar. Esta
forma de elegir las unidades de muestreo se llama simple al azar.

 Muestreo sistemático

En cambio, si el universo estuviera formado por algún tipo de documentación,


archivada según un orden determinado, como por ejemplo las historias clínicas
de un hospital, se puede evitar el paso de numerar todas las unidades de
34
muestreo para hacer luego la elección con un bolillero o tabla de números
aleatorios. La extracción se realiza eligiendo una historia cada tantas en forma
sistemática.

 Muestreo estratificado

Si se deseara conocer, por ejemplo, el nivel de instrucción y el estado de


nutrición de todos los adolescentes inscriptos en el último año de nivel escolar
del país, año 2013 antes de elegir la muestra sería necesario hacer algunas
consideraciones.

¿Existe alguna diferencia en el nivel de instrucción y estado nutricional de los


adolescentes según el lugar de donde provengan?

Si la respuesta fuera afirmativa, convendría agrupar las unidades de muestreo


del universo, o sea los adolescentes, según procedencia y en cada grupo extraer
en forma simple al azar una parte proporcional de la muestra.

Los grupos que se forman con las unidades de muestreo se llaman estratos y
cuando se procede en esta forma se está realizando un muestreo estratificado.

Esto no habría sido necesario si no se sospechara que existe diferencia en el


nivel de instrucción y estado de nutrición de los adolescentes según lugar de
procedencia.

La estratificación mejora los resultados de la muestra aumentando su exactitud.

 Muestreo por conglomerados en dos o más etapas

Otra situación que debe ser considerada, es aquélla en que las unidades de
muestreo no están disponibles como para permitir un listado de las mismas y
tampoco constituyen un archivo de formularios. Si por ejemplo se tuviera que
obtener una muestra de todos los niños menores de 10 años residentes en la
Capital Federal para estimar una característica determinada.

35
En esta situación se deben hacer visitas domiciliarias para encontrar los niños y
para la elección de los domicilios se deben cumplir algunas etapas.

Se solicitará a las autoridades que corresponda, un plano de la ciudad donde


estén delimitados los radios en que fue dividida con fines de censo. Se
numerarán todos los radios censales y se hará la elección de algunos
preferentemente en forma sistemática.

Una vez elegidos los radios censales (conglomerados), en ellos se deben elegir
en forma sistemática las casas (también conglomerados) que serán visitadas
para encontrar finalmente a los niños que compondrán la muestra.

El número de radios censales y casas elegidas depende de los cálculos hechos


sobre tamaño de la muestra y concentración de habitantes.

Esta forma de proceder se denomina muestreo por conglomerados

36
Utilización de métodos básicos de muestreo en investigaciones que
impliquen comparaciones

La determinación del tamaño de las muestras en los estudios que involucran


comparación está íntimamente relacionada al concepto de significación
estadística.

Retomemos el ejemplo mencionado en dicho módulo: concentramos nuestra


atención en un estudio de comparación de la eficiencia de dos antibióticos A y B
utilizados en el tratamiento de una determinada enfermedad.

Supongamos que el antibiótico A es el de uso habitual en el servicio y el B uno


de reciente aparición, cuya utilización se propone.

El diseño de este estudio es de tipo experimental (estudio clínico controlado).

Cuando calculamos tamaños de muestras en estudios de comparación es muy


importante distinguir entre los estudios de casos y controles, por un lado, y los
ensayos clínicos controlados y los estudios de cohorte por otro.

Recuerde que en los estudios de casos y controles lo que se quiere averiguar es


una característica del paciente (“exposición”), mientras que en los de cohorte y
en los ensayos clínicos controlados el desenlace es generalmente una
enfermedad o muerte.

El ejemplo que desarrollamos a continuación es válido para este último tipo de


estudios, aunque el principio general es extensible a todos los estudios de
comparación.

En el caso de la prueba de antibióticos para la realización del estudio, se


solicitarán voluntarios y se formarán aleatoriamente dos grupos de enfermos, o
sea dos muestras, semejantes entre sí; a un grupo se le administrará el
antibiótico A y al otro el B.

37
Al preparar los distintos aspectos de esta investigación surgen las preguntas:

 ¿Cuántos enfermos compondrán cada una de las muestras?


 ¿Cómo se deben elegir los enfermos para que las dos muestras sean
semejantes entre sí?

Para resolver este punto será necesario contar con la ayuda de un especialista
y tener algunos conocimientos sobre el tema que se va a investigar, ya sea
basado en estudios anteriores, iguales o parecidos al que se propone realizar, o
bien sobre la base de la experiencia adquirida por el investigador.

De acuerdo con el ejemplo, se debería saber:

 Cuál es el resultado esperado con el antibiótico habitualmente en uso A.


 En cuánto se podrían beneficiar los enfermos con el uso del nuevo
antibiótico - B.

Es lógico esperar que el investigador conozca estos datos, aunque sea en forma
aproximada, ya que de ninguna manera se haría una investigación
absolutamente a ciegas sin un probable beneficio esperado.

Además de lo esperado en 1 y 2 debe tener nociones de significación estadística,


ya que las pruebas de significación que se aplicarán al finalizar el estudio, van
acompañadas de una probabilidad de error que es necesario prever. Siguiendo
con el ejemplo de los antibióticos, los posibles errores serían, de acuerdo a lo
que ya se dijo:

▪ Error tipo I.

Decidir que un antibiótico es superior al otro cuando en realidad son iguales.

▪ Error tipo II.

Decidir que los antibióticos son iguales cuando en realidad son diferentes.

(Se llama poder del estudio a la diferencia: 100 - Error de Tipo II expresado
en porcentaje).

38
El investigador debe establecer cuánto de los dos tipos de errores está dispuesto
a aceptar.

A menor probabilidad de error se necesitarán muestras más grandes; si estamos


dispuestos a aceptar una probabilidad de error mayor, esto redundará en
disminuir el tamaño de las muestras.

La decisión de la magnitud de error tipo I y II que estamos dispuestos a aceptar,


junto al conocimiento sobre el problema, o sea el efecto esperado de los
antibióticos, mencionado anteriormente, son los principales datos que utilizará el
especialista en el desarrollo de una fórmula para la determinación del tamaño de
las muestras.

Una forma práctica de resolver este problema cuando no se dispone de la


colaboración de una persona especializada, consiste en tener en cuenta
toda la bibliografía de buena calidad, relacionada con el tema, o uno similar,
y aplicar los mismos criterios para determinar los tamaños de los grupos.
Como se indicó anteriormente, existen tablas que pueden ayudar, también
se puede utilizar el programa de computación Epi-Info.

¿Cómo deben ser elegidos los elementos que componen la muestra?

En primer lugar, se debe dejar bien establecido que las muestras deben ser
iguales entre sí con respecto a las variables que pueden influir sobre los
resultados. Siguiendo con el ejemplo sobre comparación de los antibióticos, no
será importante igualar los grupos en cuanto a la estatura de los pacientes o el
color de sus cabellos, pero sí en cuanto a la edad, sexo, estado general del
paciente y toda otra característica que pueda influir en el efecto del antibiótico.

¿Cómo hacer para que los dos grupos sean comparables?

De ninguna manera se debe dejar que el investigador decida quiénes formarán


un grupo y quiénes otro porque la predisposición del investigador, como por

39
ejemplo en favor de uno de los tratamientos, puede decidir que los enfermos más
graves se concentren en un solo grupo.

Se presentan dos maneras frecuentes de proceder:

A. A ciegas (aleatoriamente)

Es decir, sin que el investigador conozca de antemano quiénes formarán un


grupo y quiénes el otro, dejando que el azar decida la composición de los
mismos.

Supongamos con relación a nuestro ejemplo sobre antibióticos, que se decide


trabajar con dos muestras compuestas cada una por 30 enfermos (tamaño de
las muestras 30).

Una persona ajena a la investigación numerará 60 sobres. Con un bolillero o una


tabla de números aleatorios se elegirán 30 números comprendidos entre 1 y 60.

En los sobres correspondientes a los números elegidos se colocará un papel


donde se especificará uno de los antibióticos, por ejemplo, “antibiótico A”. Luego
los sobres serán cerrados.

En los sobres restantes se colocará un papel donde se anotará "antibiótico B", y


también se cerrarán.

Luego los 60 sobres cerrados se ordenarán todos juntos en forma numérica. A


medida que los pacientes ingresan a la experiencia, se abrirá el sobre que le
corresponde según orden de llegada y el enfermo será tratado con uno de los
dos antibióticos según lo que se encuentre escrito dentro del sobre.

Es común utilizar la técnica doble ciego, donde el que administra no conoce qué
tipo de medicamento está suministrando ni el que recibe conoce qué está
recibiendo. Esto se hace para eliminar sesgos de observador y efectos
“placebos” en los enfermos. Es por ello muy importante que los medicamentos
tengan similares aspectos y dosis.

40
B. Formación de grupos de a pares (pareados)

Con este método es necesario hacer una lista de todas las variables que pueden
influir en la investigación. Al ingresar el primer paciente se decidirá al azar a cuál
de los dos grupos pertenecerá, luego se esperará otro paciente con
características similares como para componer su par y se lo adjudicará al otro
grupo.

Esta forma de proceder es más sencilla cuando por las características del estudio
se dispone desde el comienzo de todo el grupo de personas que intervendrán en
la experiencia y se pueden formar todos los pares simultáneamente. Pero
también tiene sus desventajas. Las variables que se han apareado no podrán
ser motivo de investigación en el estudio, si el estudio fuera de tipo observacional
puede aparecer el problema del “sobreapareamiento” (los grupos se hacen tan
iguales, que luego no se encuentran diferencias de exposición entre ellos) y por
último y más complicado, se necesita utilizar pruebas estadísticas especiales
para grupos pareados.

C. Otras alternativas

En algunos casos las técnicas que se desean probar permiten que a una misma
persona se la estudie con relación a dos o más alternativas. Ejemplos de estos
casos son:

 Cuando se desea comparar dos técnicas de laboratorio. Aquí con las


muestras de material de un mismo grupo de personas se pueden aplicar
dos técnicas o más.
 Cuando se desea comparar la potencia de dos pruebas tuberculínicas. En
este caso a una misma persona se le aplican las dos técnicas, una en
cada brazo.

Como se observó en estos casos, se evita la formación de los dos grupos, ya


que con un mismo grupo de personas se pueden hacer dos o más
comparaciones.

41
 PLAN DE RECOPILACIÓN DE DATOS

El plan de recopilación de datos sigue distintos pasos:

 ¿QUE información se debe recoger?


 ¿DE DONDE se obtiene la información?
 ¿CÓMO se procede para recopilación de dicha información?

Confección del instrumento

 Prueba piloto
 Procesamiento

Determinación de la información a recoger

¿Qué datos son necesarios para satisfacer los objetivos de la Investigación?

Para cumplir con los objetivos establecidos es indispensable recoger datos que
informen sobre las características en estudio. Deben reunir ciertos requisitos con el fin
de evitar un gasto inútil de recursos.

Sólo deben recogerse datos:

Útiles a los propósitos de la investigación, que sean indispensables para ellos y no los
que “casualmente podrían servir”, como muchas veces sucede. Luego se trata de reunir
los datos estrictamente necesarios, pertinentes a la investigación.

Que sean fáciles de obtener, puesto que existen algunos que a pesar de ser útiles son
difíciles de encontrar o lograr de parte de los investigadores y sólo se pueden obtener
en algunas unidades de observación lo que conduce a errores en las conclusiones.

Susceptibles de ser medidos, puesto que uno de los requerimientos de un estudio


científico es medir objetivamente los fenómenos.

En lo posible exactos, sin errores, puesto que los errores de información conducen a
errores de conclusiones, por ejemplo: la declaración de la edad, ingreso económico, etc.

42
Actualizados a la investigación, es decir, datos que informan sobre hechos ocurridos
próximos al inicio de la investigación. Por ejemplo: para la distribución de recursos en
los diferentes programas de un área no nos servirán los datos recogidos hace diez años
atrás, puesto que el tamaño, condiciones de vida, la distribución por edad y otras
características de la población pueden haber variado fundamentalmente en un período
tan largo.

Perfectamente definidos: este requisito parece obvio, pero, la realidad es que muchas
veces los datos presentan dificultades respecto a su significado en un estudio y ello
redunda en la exactitud de los mismos, en la uniformidad de criterios de quienes los
recogen e indudablemente en la validez de las conclusiones.

Ejemplos de los datos a obtener de algunas variables:

 Sexo: Tiene dos posibilidades y su definición es obvia.


 Edad: Debe consignarse como años cumplidos o meses, en el caso de menores
de 1 año.
 Escolaridad: Suele entenderse como años rendidos. Una persona que llegó a
cursar quinto grado primario, pero no lo aprobó, tiene una escolaridad de cuarto
grado.

Es recomendable hacer una lista con los datos a recoger y colocar al lado su definición
(lo que se va a entender por cada uno de ellos en la investigación).

 FUENTES DE INFORMACIÓN

Las fuentes son diversas y adecuadas al tipo de investigación propuesta. Recuerde que
las fuentes principales de datos son:

▪ Primarias: Información obtenida a través de personas (investigadores, médicos,


enfermeras, pacientes, público en general).

▪ Secundarias: Publicaciones, archivos electrónicos (registros de hospital, bases de


datos, etc.).

Dada una fuente de datos es necesario determinar la validez y consistencia precisión


de los mismos.

43
Recopilación de la información

De acuerdo al tipo de estudio será necesario utilizar métodos, técnicas e instrumentos


con los que se relevarán los datos.

Observación

Entrevistas

Los instrumentos pueden ser: Cuestionarios

Test

La recopilación

Documental

Otros

Si los datos necesarios no están recogidos, debemos elaborar un cuestionario cuyo


diseño dependerá de si va a ser administrado por un encuestador o si es auto-
administrado. El obtener información de fuentes secundarias también hace necesario
elaborar un formulario de recolección de datos. Incluso en el caso en que se extraigan
datos de computadoras es necesario decidir qué y cómo se va a extraer

 CONSTRUCCIÓN DE FORMULARIO

Será conveniente que el o los formularios que se utilicen, así como las correspondientes
instrucciones sean preparadas con la participación de todo el equipo interesado en el
estudio. En el diseño del formulario se tendrán en cuenta dos aspectos: Contenido y
forma.

En cuanto al contenido, nos referimos a los títulos, datos que se piden e instrucciones.

Títulos: Deben colocarse en lugar visible y especificar con claridad el punto que se está
tratando, además deben indicar la institución que los recoge y la fecha a la que
corresponden los datos.

Datos que se piden: estos datos dependerán de los objetivos de la investigación y del
tipo de cuestionario a administrar (autoadministrado o a través de encuestadores).

44
En general se requieren datos de identificación como:

 Nº de orden del formulario


 Nº de historia clínica
 Nombre y apellido de la persona sobre la que se hará la observación (si el trabajo
no es anónimo)
 Edad y sexo
 Domicilio
 Fecha en que se inicia el formulario

Los datos a recoger deben cumplir ciertos requisitos, ser útiles, mínimos, redactados
con claridad, las preguntas no deben dar lugar a dudas sobre lo que se pregunta, en lo
posible, las respuestas deben ser cortas: SI o NO.

En caso de encuestas o cuestionarios cerrados, se recomienda colocar todas las


alternativas de respuestas posibles. De esta manera se evitan las respuestas abiertas
que son muy complicadas de elaborar y al encuestado le facilita el llenado de la misma,
pues le basta con marcar lo que corresponde.

No se deben realizar dos preguntas en el mismo ítem. (Ej.: ¿Está vacunado contra la
difteria y poliomielitis?) En el caso que las preguntas tengan relación con el tiempo, éste
debe estar acotado. (Ej.: Ha tenido Ud. dolor de cabeza en los pasados 7 días? Es
importante colocar preguntas filtro o embudo, que permitan agilizar la toma de
información (Ej.: Trabaja Ud. en relación de dependencia? Si la respuesta es “sí”, pasa
a otras preguntas relacionadas con el tema, si es “no”, acaba en ese punto la cuestión).

En el caso que queden varias posibilidades no relevantes basta con colocar el rubro
“otros”, lo cual es indispensable porque si la persona no encuentra alternativas, puede
dejar sin marcar, hecho que lleva a errores de interpretación.

No formular preguntas que induzcan la respuesta. (Ej. El consumo de cigarrillos


produce un grave daño a la salud. ¿Ud. fuma?)

Es conveniente antes de armar el formulario, hacer una lista con todos los datos
que será necesario recoger para realizar el estudio, es decir, establecer con
claridad las variables que van a ser analizadas de acuerdo a los objetivos
planteados.

45
En cuanto a la forma deben tomarse en cuenta:

 Tamaño: Según uso, lugar de archivo y normas existentes


 Material y color: Según uso y urgencia de ubicarlo
 Calidad del papel: Que sea resistente al manejo
 Tipos de impresión: debe ser claro. El cuestionario tiene que ser
agradable a los ojos, con espacios entre preguntas de manera de no
dificultar su lectura.
 Diagramación de las preguntas

Conviene colocar las preguntas fáciles primero y la más difíciles o que pueden
preocupar al entrevistado, después:

 Agrupar las preguntas por tópicos cuando sea posible.


 Usar preguntas filtros o embudo.
 Colocar las preguntas de opinión primero.

Cuestionarios autoadministrados:

Se debe agregar una nota introductoria o consigna de manera tal que el


encuestado esté informado acerca del estudio.

Se debe explicar el propósito de la investigación, de manera que la persona


encuestada comprenda la importancia de contestar el cuestionario en forma
veraz.

Por otro lado, se deben explicar cuestiones éticas y solicitar consentimiento


cuando corresponda, así como agradecer la colaboración prestada en el estudio.

Cuestionarios administrados por encuestadores

Se deben redactar instrucciones claras para que los entrevistadores tengan


uniformidad de criterio. Estas pueden estar en un folleto, manual o instructivo
distribuido para ese fin.

46
En todos los casos deben ser comprensibles y concisas. Del mismo modo se
debe proceder para la recolección de datos secundarios

Prueba del cuestionario

Antes de imprimir el Formulario es conveniente evaluarlo o probarlo formulando


las preguntas a algunas personas ajenas al estudio.

Lo mismo rige para las instrucciones, puesto que, aunque al investigador le


parezcan claras puede que en la realidad no lo estén.

El propósito de la prueba piloto es evaluar el formulario testeando un grupo de


personas que sea representativo de la población en estudio, (o un grupo de HC,
por ejemplo: si se obtendrá la información de ellas).

Los puntos a evaluar son: aceptabilidad por parte de los encuestados (se evalúa
a través de la tasa de rechazo y de aceptación), facilidad de llenado del
cuestionario (muchas respuestas como: “no conozco” u “otras” pueden estar
indicando que el cuestionario es demasiado largo o complejo, validez (refiere a
que los datos realmente midan lo que se desea medir, se puede cruzar la
información reunida con la proveniente de registros previos como historias
clínicas, etc.).

 PRUEBA PILOTO O TEST PRELIMINAR

Consiste en aplicar los instrumentos y la metodología preparada, sobre una


pequeña muestra.

El pre-ensayo o estudio piloto permite identificar posibles problemas que puedan


plantearse en el desarrollo del estudio propuesto ya que permite revisar los
métodos y el instrumento que se utiliza en la recopilación de datos. Su aplicación
permite ahorrar tiempo, esfuerzo y dinero.

Es el momento preciso para realizar los ajustes necesarios a fin de garantizar la


calidad del trabajo en terreno, ya que a medida que se lleve a cabo la recopilación

47
de datos tal vez se observen que las respuestas a las preguntas o estas últimas
entre sí no guardan la coherencia que originalmente se previó.

Aspectos que pueden evaluarse mediante la prueba piloto

Reacciones de las personas sometidas a los procedimientos de


investigación:

- Si la población estudiada está disponible

- Sí los métodos son accesibles

- Sí las preguntas son pertinentes

- Si los encuestados accederán a responder y a colaborar en el estudio

Instrumentos de recopilación de datos:

- Si los datos que se obtienen son pertinentes a los fines de la investigación.

- Si hay un orden lógico en las preguntas

- Si la redacción de las mismas es clara

- Si se cuenta con suficiente espacio para las respuestas

Procedimientos de muestreo:

- Si todo el personal comprometido sigue las mismas instrucciones

- Tiempo que insumirá localizar las personas que han de incluirse en el estudio

Dotación del personal y equipo de investigación:

- Si el apoyo logístico es adecuado

- Si es adecuada la supervisión de los encuestadores

- Si la capacitación es exitosa en el equipo de investigación

- Si todos los encuestadores (o recolectores de datos) realizan la tarea en forma


eficiente

48
Revisión del cronograma y presupuesto propuesto para las actividades de
investigación.

Se recomienda que intervengan en el pre-ensayo el equipo de investigación


encabezado por el investigador principal y las personas contratadas para realizar
la encuesta.

El tiempo requerido para el estudio piloto dependerá de:

▪ Magnitud y duración del proyecto de investigación.

▪ La complejidad de los métodos utilizados en el estudio.

VII. PROCESAMIENTO Y ANÁLISIS DE LOS DATOS

Los datos por sí mismos no dan respuestas a lo que se estudia; es necesario


determinar con antelación cómo se van agrupar, clasificar y resumir los mismos,
a fin de obtener respuestas al problema y objetivos planteados.

Al iniciar los planes de procesamiento de los datos se debe decidir si éstos han
de procesarse y analizarse:

 Manualmente, utilizando hojas maestras de datos o una recopilación


manual de los cuestionarios, o
 Por computadora: utilizando programas y los instrumentos adecuados
para este tipo de procesos.

El procesamiento implica:

 Agrupamiento de los datos por categoría.


 Codificación
 Resumen de los datos.

49
Problemas Éticos y Legales

La investigación debe atenerse a lo estipulado en los Códigos Internacionales de


Ética de la Investigación y normas internacionales sobre la materia.

Plan de Trabajo

El plan de trabajo es un programa o diagrama en el que se resumen claramente


los diversos componentes de un proyecto de investigación y la forma en que se
agrupan.

En el plan pueden incluirse las tareas que han de realizarse, cuándo y quién ha
de cumplimentarlas y en cuánto tiempo se han de realizar. (Cronograma).

Informe final

¿Cómo debe ser la comunicación del resultado de la Investigación?

La preparación del informe constituye la fase final de la investigación. En él se


comunicará detalladamente el resultado total del estudio. Debe ser dispuesto de
tal forma que posibilite al lector comprender los datos y determinar por sí mismo
la validez de las conclusiones.

Documento que muestra en forma ordenada, pertinente y concisa, los aspectos


de una investigación, especialmente los relacionados con los resultados
obtenidos, así como su discusión.

Las cualidades básicas de un trabajo científico son la exactitud y la claridad. Es


necesario tener presente qué información se desea transmitir y cuál es la relación
entre sí de los distintos hallazgos del trabajo.

Para la redacción del informe es importante trabajar sobre un esquema detallado


que permita concentrarse en primer lugar, sobre qué se va a decir. Este esquema
o esqueleto del informe impide el olvido de algún aspecto importante y permite
obtener una secuencia lógica en el ordenamiento de la información.

50
El cómo transmitir la información requiere tener en cuenta entre otros aspectos,
los objetivos del trabajo, el propósito del mismo, el público a quien va dirigido, el
lenguaje a utilizar, etc.

En los campos científicos hay una amplia variedad de tipos de organización de


informes. Cuando el objetivo del mismo es satisfacer los requisitos exigidos por
las revistas especializadas, generalmente se utiliza el denominado IMRYD
(Introducción, Métodos, Resultados y Discusión). Este tipo de organización se
ajusta sobre todo a las ciencias básicas y naturales. La tendencia hacia la
uniformidad ha aumentado desde que el Instituto Nacional de Standard (EE.UU.)
estableció como norma el sistema IMRYD por primera vez en 1972 y
nuevamente en 1979. Tal es así que en los “requisitos uniformes para preparar
los manuscritos que se proponen para publicación en revistas biomédicas” se
preconiza este tipo de organización.

Sin embargo, en disciplinas de las ciencias humanas se prefiere un informe más


detallado. A continuación, presentamos un modelo de informe extraído de E.
Ander Egg, 1981, con algunas modificaciones.

VIII. ESTRUCTURA DEL INFORME

Los pasos aquí presentados, no necesariamente deben aparecer en todo


informe, también puede incluirse alguno no presente en esta guía.

Sección Preliminar: Constituye la presentación del trabajo y debe dar la idea muy
general acerca de qué trata el mismo.

 Cubierta (título, autor e indicación de la institución que auspició la


investigación).
 Prefacio y agradecimiento a colaboradores.
 Índice.

Cuerpo del informe: Ha de contener material recogido, estudiado, analizado y


elaborado, presentado en forma objetiva, lógica, clara y precisa.

51
 Introducción
a- Planteamiento y significado del problema
b- Objeto de la investigación (qué y para qué)
c- Supuestos teóricos en que se apoya
 Definiciones operacionales utilizadas
 Revisión de la bibliografía relacionada con el tema y de estudios ya
realizados.
 Esquema de investigación:
a- Breve referencia al diseño de investigación
b- Metodología y utilización
 Presentación, análisis e interpretación de los datos
 Resumen y conclusiones:
a- Principales hallazgos
b- Sugerencias para investigaciones ulteriores
 Recomendaciones

Sección de referencias: Incluye la bibliografía y los apéndices o anexos

 Bibliografía
 Anexos y apéndices
a- Gráficos e ilustraciones
b- Datos estadísticos
c- Material suplementario

No hay que agregar ninguna información que conduzca a otro conocimiento de


aquello sobre lo cual se ha investigado. La introducción tiene por finalidad
describir los objetivos del trabajo e indicar cuáles son los supuestos teóricos
sobre los cuales se apoya el mismo. Además, indica las definiciones
operacionales, prepara y facilita la comprensión de todo el contenido.

En la revisión de la literatura, se hace una reseña del material publicado,


resumiendo las conclusiones más importantes que se refieran directamente al
tema en cuestión.

52
La Sección Esquema de Investigación hace referencia al Diseño de
Investigación y la metodología utilizada. Es de especial importancia
explicitarlo para poder juzgar la validez científica de la investigación ya que
permitiría a otros investigadores repetir la experiencia en otro lugar y comparar
los resultados.

La Sección de Presentación y Análisis de los Datos es el cuerpo principal y


comprende dos partes:

 Los datos
 El análisis de los datos, presentado en texto, cuadros, gráficos y figuras.

Resumen y conclusiones: De ordinario las conclusiones a que se llega quedan


diseminadas en el texto, de ahí que sea necesario añadir un resumen en una
sección por separado; en este caso las conclusiones se ordenarán agrupadas
por temas, según su orden de importancia, resumiendo los principales hallazgos
y las sugerencias para investigaciones ulteriores.

La bibliografía utilizada debe ser mencionada al finalizar el trabajo; existen


distintas modalidades para hacerlo. Una forma completa sería la siguiente:

 Autor
 Título del trabajo
 Tomo
 Editor
 Lugar de edición
 Fecha de edición
 Paginación (indicarla solamente si se utiliza sólo una parte del texto)

En cuanto a apéndices o anexos se refiere a cuadros estadísticos, fotografías,


notas, cuestionarios utilizados y de todo otro material suplementario que pudiera
ser de interés para el trabajo; debe incluirse una copia de la encuesta o
cuestionario, si es que se utilizó alguno. Los cuadros, gráficos, fotografías, etc.
También pueden incluirse en el texto.

53
54
LA EPIDEMIOLOGÍA CRÍTICA: UNA NUEVA FORMA DE MIRAR LA SALUD
EN EL ESPACIO URBANO.

Como ya hemos visto, en el siglo pasado las ciencias naturales eran el modelo
o ideal científico para todas las ciencias, también para la Epidemiología. El tipo
de explicaciones era mecanicista y la determinación de naturaleza unicausal
(efecto-específico).

Dichas posturas son blanco de numerosas críticas.

Las principales críticas a la Epidemiología clásica se pueden resumir en los


siguientes puntos:

 Interpretación causalista - reduccionista del estado de salud de las


poblaciones.
 El estudio de las enfermedades se limita al plano empírico, es decir, a lo
directamente observable. La enfermedad se reduce a lo individual
biológico.

En este sentido, el reduccionismo causalista no corresponde para conocer un


mundo caracterizado por la transformación, por la diversidad, por la ausencia de
regularidades absolutas en donde las asociaciones sólo son una parte menor y
no permanente de la realidad.

Si entendemos que el proceso de salud - enfermedad - atención (SEA) es un


proceso biológico y social y si se acepta el presupuesto de que los procesos
sociales son históricos, complejos, fragmentados, conflictivos, dependientes e
inciertos, entonces los modelos causales no son los dispositivos más adecuados
para enfrentar tales objetos.

La determinación acepta la posibilidad de tratar a la realidad como compleja,


implica considerar la incertidumbre, la pluridimensionalidad de tal forma que
incorpore todas las posibilidades y ninguna de ellas se asuma como un principio
absoluto.

55
Para ello se torna necesario la comprensión de la triple inequidad de la que
forman parte los fenómenos de clase social, género y etnia.

LA CAUSALIDAD: EPIDEMIOLOGÍA CRÍTICA

En la medida en que la disciplina fue ampliando su objeto y el método estadístico


tuvo un papel más relevante, se fue modificando el determinismo causal hacia
modelos multicausalistas. El razonamiento epidemiológico, y por lo tanto lógico,
a partir del concepto de riesgo plantea un juego de probabilidades de que se
desarrolle la enfermedad en función de determinado número de factores de
exposición.

La principal crítica que se hace a este modelo desde la Epidemiología Crítica es


que se privilegia un tipo de método, un tipo de determinación y un modo particular
de interpretar la realidad social. Modelos unicausales y multicausales no tendrían
en esta perspectiva grandes diferencias entre sí. El punto en discusión es que la
Epidemiología Clásica no quiere alejarse del ideal de las ciencias naturales y, en
esta perspectiva, rechaza la incorporación de las ciencias sociales (Almeida
Filho, 2003).

La epidemiología crítica propone una concepción de la realidad como “un


proceso que se desarrolla como movimiento organizado alrededor de
modos de vida o reproducción social, con sus contradicciones y
relaciones; la concepción dialéctica de que esos son modos de devenir o
determinaciones de las condiciones de vida y de las confrontaciones que
finalmente ocurran en nuestros genotipos y fenotipos; y la proyección de
la acción en salud como una ruptura contra los procesos que destruyen
nuestra salud y nos impiden emanciparnos (prevención), y a favor de los
procesos que nos protegen y perfeccionan, tanto colectiva como
individualmente (promoción)”

La idea de proceso, dinámico y dialectico es el eje central de esta forma de


plantear la epidemiologia, contraponiéndose con la de análisis de factores

56
aislados y estáticos en un momento determinado y perdiendo toda posibilidad de
cambio.

“Si los fenómenos de la realidad se desarrollan aislados, y sólo se tocan o


conjugan por vínculos externos, entonces queda fuera la noción de modo de
transformación, porque lo que interesa son las partes moviéndose como
partículas y no el todo desarrollándose bajo un modo” …. “Entonces, siguiendo
con esa lógica diríamos que, si omito en la salud su condición de proceso
dialéctico y multidimensional, si fragmento sus partes, y si asumo o aplico la idea
o noción de riesgo para expresar la lógica que une esas partes, entonces estoy
desplazando fuera de mi análisis la noción de modo de transformación. Lo que
une las partes de la salud como objeto en el positivismo es el riesgo, es decir la
posibilidad o contingencia de que pueda relacionarse, tocarse, conformar una
conjunción de causa efecto y así puedo señalar o "culpar" a esa "causa" o "factor"
aislado de haber generado la enfermedad, y así queda por fuera el modo social
de devenir; el sistema social con sus procesos determinantes en mi análisis de
la enfermedad. El método positivista y toda visión que se articula alrededor de
partes, de construcciones micro, es sin duda alguna una forma lógico cinética e
expiación del sistema social y de sus contradicciones como determinantes de
salud”

En la epidemiología crítica, que acepta sus bases en el modelo ecológico, la


concepción de la realidad como proceso es, de alguna manera, un movimiento
organizador alrededor de los modos de vida o de la reproducción social, con sus
contradicciones y relaciones, entendiendo esto como un recurso teórico para
comprender el proceso de determinación epidemiológica.

Los modos de vida pertenecen a una dimensión particular e intransferible de


cada uno de los grupos que se mueven como “sujetos colectivos” históricos y
en una cotidianeidad que les es propia.

La reproducción social permite desprender la categoría de “perfil


epidemiológico” como fundamento de la salud colectiva. También puede ser
considerada como un movimiento de producción y consumo de forma tal que

57
permita establecer un movimiento interdependiente entre las dimensiones de la
vida económica y las dimensiones de la vida cultural, de la vida organizativa
política y de la vida ecológica de los grupos.

Esta concepción (dialéctica) permite una proyección de la acción en salud tanto


en la ruptura contra los procesos que destruyen nuestra salud como en un
comportamiento a favor de los procesos que nos protegen tanto a nivel de lo
colectivo como individualmente.

Es decir que es necesario recuperar y desarrollar diseños complejos de


investigación que den cuenta de que la situación de salud no se encuentra
determinada sólo por los procesos biológicos que se expresan a nivel de lo
individual, sino que se torna imprescindible conocer los procesos sociales y
culturales –modos de vida– que concretamente determinan de manera
compleja los procesos de salud colectiva en la cotidianeidad de los grupos
sociales.

El proceso de la salud, enfermedad y atención como objeto de análisis de la


epidemiología sería la aproximación al conocimiento de procesos tanto
individuales como colectivos que se determinan mutuamente.

58
Necesidad de uso de medidas y escalas de medición en los
procesos de cambio de los sistemas de atención de salud.

INTRODUCCIÓN

Como vimos en el capítulo anterior la epidemiología se ocupa de indagar acerca


de los procesos de salud y enfermedad considerando la tríada ecológica y la
multicausalidad y relacionando entre sí la distribución, los determinantes y la
frecuencia de los eventos.

El término frecuencia se refiere a la cuantificación de la existencia u ocurrencia


de eventos, en tanto que distribución se refiere a preguntas como ¿Quiénes se
están enfermando en la población?, ¿Dónde o cuándo la enfermedad está
ocurriendo?

El término determinante hace referencia a las causas que provocan los eventos
observados, las preguntas en este caso ¿por qué las personas que permanecen
mayor número de días internadas tienen mayor riesgo de infectarse en un
hospital? ¿por qué en las personas que reciben más prácticas el riesgo de
Infecciones Hospitalarias es mayor?

Contestar estas preguntas significa realizar mediciones, cuantificar información


que se pueda organizar y presentar de manera que permita la interpretación de
los fenómenos de salud y su comparación entre diferentes grupos poblacionales.

Es importante controlar la calidad del dato (su exactitud y precisión), así como el
rigor en los procedimientos de registro y de ordenamiento de la información, ya
que influirá decisivamente en la pertinencia de los resultados de la investigación;
para ello es necesario diseñar un buen sistema de registro.

La calidad de la información utilizada es tan importante que no se puede esperar


suplir la mala calidad básica de la misma con la aplicación posterior de elevadas
técnicas estadísticas, pretendiendo corregir con ellas los defectos originales.

La información surge inicialmente como una sucesión de medidas individuales


obtenidas a través de observaciones directas, de registros, censos, de encuestas

59
directas o indirectas. Los datos surgen sin organización, como una simple lista
de medidas que deben ordenarse para comprender lo que ellas expresan. Es
preciso ordenarla, condensarla y organizarla para su descripción, como una
simple lista que debe ordenarse para comprender lo que expresa.

En síntesis, es necesario ordenar, condensar y organizar la información para la


descripción del evento de interés.

LOS DATOS

Un dato es la probable respuesta a una variable. A manera de ejemplo, si se


pregunta cuántos casos de SIDA existen en tal país, el número obtenido es el
dato. Sin embargo, existen otras formas de contestar esta pregunta (variable).

Por ejemplo, en vez de decir el número, el cual no tiene un referente que permita
compararlo, se puede usar la proporción (en la cual dicho número es el
numerador y el denominador puede ser el total de la población y el resultado de
esta relación se multiplica por 100). Así es más probable que el ser humano
entienda.

Las variables pueden ser contestadas con datos de distintos tipos. Una forma
de clasificar a los datos puede ser la siguiente:

1. Datos cuantitativos

2. Datos cualitativos

1. Los datos cuantitativos son aquellos en que la variable se contesta a través


de un número a diferencia de los cualitativos que usan palabras. Los datos
cuantitativos pueden subdividirse en dos:

 Discretos: Los datos discretos son aquellos cuya respuesta solo puede
emplear un número entero (no permite más subdivisiones).

60
Por ejemplo, la variable casos (personas enfermas) de tal enfermedad solo
puede ser expresada con un dato como un número entero: no puede decirse que
existen 7 y media personas enfermas… Otros ejemplos pueden ser la respuesta
a la variable de número de caries en un examen bucal o la cantidad de hijos.

 Continuos: Los datos continuos son el resultado de respuestas que


pueden variar (y ofrecer más medidas, por ende, continuar) de acuerdo al
instrumento de medición.

Por ejemplo, la altura de una persona. El dato puede ser 175 cm, si se usa un
instrumento que mide centímetros. Pero puede ser 1754 mm si se usa una escala
de referencia en milímetros. Como se observa, existe la posibilidad de continuar
con otras medidas.

2. Los datos cualitativos se subdividen a su vez en:

 Nominales: Los datos nominales son aquellos que usan respuestas que
nombran. Por ejemplo, el color de tal cosa… o cuáles son las
enfermedades más frecuentes. Algunos autores crean una subdivisión
importante por la frecuencia, denominada existencial referida a que lo
tiene o no lo tiene (existe o no).

61
Por ejemplo, ante la variable tiene o no cáncer. El dato es sí o no. Dado que la
respuesta probable es una de dos se denominan también dato dicotómico, donde
lo usual es que se mencionen las características del dato a través de la variable.
Por ejemplo, la variable tiene o no tiene cáncer del pulmón, es una variable
nominal dicotómica ya que el dato resultante es SI o NO. Por supuesto, que
existen variables que producen datos nominales donde las categorías son más
de dos.

 Ordinales: Los datos ordinales aparte de nombrar generan un orden. Por


ejemplo, ante la variable de cómo le pareció el servicio, la respuesta
puede ser excelente, bueno, regular, malo o pésimo (escala de Liker).
Como se observa estos datos van en orden.
 Interválicos: Los datos interválicos son también ordinales, pero como
complemento, permiten identificar la diferencia entre uno y otro.

Por ejemplo, la variable de coeficiente intelectual, provoca datos de 100 o de 110


o de 90, donde el lector puede ubicar orden, distancia y diferencias. Otro ejemplo
puede ser la medición de la temperatura con base a la escala Celsius. Un dato
de 10 grados establece una diferencia con el de 40 grados, pero exactamente
no implica que el que tiene 40 grados tiene 4 veces más calor que el que tiene
10 grados. La graduación del termómetro es efectuada con un criterio diferente.

 Proporcionales; Los datos proporcionales ofrecen referentes en donde


se puede medir la magnitud de la diferencia. Por ejemplo, si se menciona
un peso de 50 kilos y otro de 100 kilos, se sabe cuál es el mayor, pero,
además, se identifica de cuánto es la diferencia (en este caso del doble
del peso en kilos). En tanto, con el coeficiente intelectual se sabe que 90
es diferente de 110, pero no se sabe qué existe entre estas diferencias.
Un mejor ejemplo puede ser el siguiente: Supóngase que la variable es la
edad. El dato en un caso se coloca como edad en años y en otro se hace
a través de la ubicación de unos rangos. Por ejemplo, por cada 10 años.
Entonces en el primer caso se coloca el espacio para expresar la edad en
años cumplidos. En el segundo, los datos están para que se conteste así:

62
De 0 a 9 años. De 10 a 19 años. De 20 a 29 años. Entonces, si la edad
es 13 años, así se expresará en el primer caso. En cambio, en el segundo
caso se colocará de 10 a 19 años. Acá no se puede saber de cuánto es
la diferencia, por ejemplo, ente 21 años y 13 años; en cambio, en el caso
en que el dato se exprese como años cumplidos, se sabe qué distancia
existe entre uno y otro dato.

Para resaltar lo anterior, observe la gráfica: la estadística usa para describir unos
referentes (medidas de tendencia central y medidas de dispersión) y también las
gráficas. En el ejemplo está el denominado histograma (gráfica esencial de la
estadística) donde se expresan las edades de un grupo de adolescentes que
participaron en una investigación. Ciertamente es fácil ver en ella: las edades
extremas (10 y 20 años), la edad media se puede aproximar visualmente (entre

63
13 y 14 años), la edad que más se repite (14 años). Incluso se puede saber cuál
es el total de población (suma de todas las casillas = 109).

¿CUALES SON NUESTRAS FUENTES DE DATOS?

En general en epidemiología se presentan dos alternativas para obtener los


datos que permitirán dar respuesta a los problemas planteados.

Recolectar los datos en el momento que se hace el estudio (fuente primaria).


Estos datos son generalmente recogidos a través de encuestas o producidos por
los investigadores en los laboratorios, hospitales y centros de atención de salud.

Utilizar datos recogidos previamente (fuente secundaria). Entre las fuentes de


datos previamente recogidos, podemos distinguir dos grupos:

1. Los datos que normalmente son publicados por los organismos encargados
de tal recolección, como las Direcciones de Estadística y Censo: censos de
población, registros vitales (nacimientos, defunciones, etc.)

2. Los datos que están recogidos y registrados, pero no elaborados ni


publicados: estadísticas hospitalarias, de consultorios externos, contenidos en
historias clínicas, etc.

Antes de desarrollar los elementos que nos permitan resumir datos y


presentarlos en tablas o gráficos, debemos definir ciertos conceptos en relación
con la medición y clasificación de los mismos.

¿COMO PODEMOS PRESENTAR NUESTROS DATOS?

PRESENTACIÓN GRÁFICA DE DATOS

“Una imagen vale más que mil palabras‟. Este refrán tiene una profunda
implicación. El lenguaje se ha construido para que las personas se entiendan.
Pues, así como se ha construido el lenguaje de las palabras, se ha construido el
lenguaje de los números y también se ha construido el lenguaje de imágenes. A

64
veces, las imágenes transmiten mejor una idea que las palabras. Precisamente
eso es lo que significan las gráficas: imágenes que muestran frecuencias de
eventos y son otro de los lenguajes que se pueden usar para hacer entender
eventos.

CUADROS / TABLAS

Denominado también “cuadro”, “tabulado”, “cuadro estadístico”, es una forma de


presentación de datos estadísticos ordenados sistemáticamente con el fin de
facilitar la descripción y análisis de los hechos, por lo tanto, no es un fin en sí
mismo sino simplemente un medio para mostrar la información.

Por lo general en una investigación o en cualquier trabajo donde se manejan


datos, cada tabla que se construye tiene como objetivo responder a alguna
pregunta bien precisa. Estas preguntas son las formuladas al definir los objetivos
del trabajo.

En cuanto a su estructura, existen diferentes tipos de tablas, dependiendo de lo


que se desea demostrar. No obstante, en todas ellas hay elementos importantes
que se detallan a continuación.

A. Título: la tabla debe encabezar indicando su contenido, el universo o


población a que pertenece, la fecha de obtención de la información, etc. El
título debe ser conciso y completo por lo cual debe contener solamente la

65
información indispensable para satisfacer dichos requisitos. Se ubica con
preferencia en la parte superior de la tabla por ser el lugar más visible.
B. Esqueleto o armazón: son rectas perpendiculares entre sí que se cortan
cerca del extremo izquierdo y superior respectivamente lo que indica que
existen en ella filas y columnas que deberán ser encabezadas por los títulos,
los cuales nunca pueden faltar ya que, de lo contrario, no se sabría a qué se
refieren las cifras contenidas en la tabla.
C. Cuerpo: constituido por los casilleros encerrados por el esqueleto y que
contendrán los datos a presentar.
D. Totales: se acostumbra colocarlos en la última fila y/o columna.
E. Porcentajes: se relacionan las cifras parciales con el total y generalmente se
colocan al lado del número absoluto. Pueden calcularse sobre los totales
verticales o los horizontales dependiendo del fin de la tabla. (No siempre son
obligatorios).
F. Fuente: debe indicarse de donde provienen los datos, citando entidad o
publicación, lugar y fecha.
G. Notas explicativas: a veces es necesario hacer alguna aclaración con
respecto a una cifra (en relación con la fuente de obtención u otra
característica). En ese caso, debe colocarse un asterisco u otra llamada que
se explicará al pie de la tabla.

Ejemplo:

66
 TIPOS DE TABLAS

Se tendrán distintos tipos de tablas, según los datos se presenten clasificados


de acuerdo con una o más características. Estas características o criterios de
clasificación pueden ser de naturaleza cualitativa o cuantitativa.

Así tenemos una tabla de “una sola entrada” si, por ejemplo, presentamos

Población total por sexo de la provincia de Córdoba, sexo es la única característica que
se toma en cuenta.

Siguiendo con el ejemplo anterior, la tabla será de “doble entrada” si, además,
de sexo, se presenta la clasificación según grupo de edades.

Las tablas de dos o más entradas permiten relacionar distintos fenómenos. Sin
embargo, las combinaciones de más de tres características, tornan a las tablas
complicadas y a veces incomprensibles.

I. Ejemplos de tablas de una sola entrada

A-Con una
escala
cualitativa

67
B-Con una
escala
cuantitativa

II. Ejemplos de tablas de dos entradas

Dijimos que se hace esta clasificación cuando cada individuo es observado bajo
2 características simultáneamente e interesa analizar la relación entre ambas.
Esto da origen a las tablas de asociación si las dos características o variables
son cualitativas o una es cualitativa y la otra es cuantitativa, y a las tablas de
correlación si las dos variables son cuantitativas. En este caso los porcentajes
pueden calcularse en sentido horizontal o vertical, es decir, considerando como
100% el total de la última columna o bien de la última fila.

68
Tablas con dos escalas cualitativas

Casos especiales

Tabla 2 x 2 (o Tetracorica): Una tabla de uso generalizado en Epidemiología es


la denominada comúnmente tabla 2 x 2. En ellas se presentan dos
características, cada una de las cuales tiene dos alternativas.

69
GRÁFICOS

 CONSTRUCCIÓN DE GRÁFICOS

Los datos presentados en tablas pueden representarse gráficamente


permitiendo una rápida impresión visual del conjunto. Para cumplir con este
propósito un gráfico necesita satisfacer ciertos requisitos como:

 Ser auto explicativo y sencillo.


 No contener demasiada información
 Tener diseño atractivo, pero sin deformar los hechos
 Ser adecuado al tipo de escala en la que están clasificados los datos.
 Tener un título claro y auto explicativo

La construcción de gráficos se basa en general en el estudio de coordenadas


cartesianas que consta de dos ejes (uno horizontal y vertical) que se cortan
formando un ángulo recto cuyo vértice es el punto (0,0). El eje vertical se llama
ordenada o eje de las “y” y en él se colocan las frecuencias que pueden
expresarse en números absolutos o porcentajes, graduándose de 0 a la máxima
frecuencia. Si las frecuencias son muy diferentes de 0 se corta el eje a pequeña
distancia del origen comenzándose la graduación con un valor cercano al menor
valor observado. El eje horizontal se llama abscisa o eje de las “x” y en él se
coloca la escala. Al igual que en las tablas, en los gráficos no pueden faltar tanto
el título general como el de los ejes. El primero, generalmente es muy parecido
al de la tabla de donde se sacaron los datos.

 TIPOS DE GRÁFICOS

Así como cada tabla que se elabora para presentar datos trata de contestar una
pregunta, cada gráfico tiende a responder mejor la pregunta; por lo tanto,
debemos definir ese propósito para elegir el gráfico más adecuado. El gráfico
está condicionado por el tipo de escala.

70
Gráfico de barras

Para presentar datos clasificados en escala cualitativa y cuantitativa discontinua


tenemos el gráfico de barras o columnas; la longitud indica la magnitud o
frecuencia de cada grupo. Cuando el gráfico presenta varias barras, las mismas
deben ordenarse de menor a mayor o inversamente. El orden depende del
objetivo. Las barras pueden representarse tanto en forma horizontal como
vertical. Una norma para determinar la orientación de las barras es que éstas se
trazarán verticalmente si ello no impide escribir debajo de las mismas la leyenda
correspondiente a cada una; en caso contrario, se representarán
horizontalmente. La leyenda explicativa no debe ser escrita en los extremos
finales de las barras ni dentro de ellas, pues esto dificultaría la comparación. El
ancho de las barras debe ser mayor que los espacios dejados entre ellas.

Gráficos correspondientes a tablas de una sola entrada

1. Caso de escala cualitativa

1.2. Gráfico de barras simples

71
1.3. Gráfico de Barras Proporcionales

Además de las barras simples podemos usar un gráfico de barras segmentadas


en que una sola de éstas representa el total de observaciones o el 100% y se
divide proporcionalmente en el número de grupos que exista.

1.4. Gráfico circular

Una variación de los anteriores es el gráfico circular, pero tiene el inconveniente


de que no muestra con claridad proporciones o grupos muy pequeños y además
hay que transformar los porcentajes o cifras absolutas a grados. En casos en
que las categorías sean muy grandes el gráfico circular es el más adecuado para
mostrar la información.

2. Caso de escala cuantitativa continua

Cuando los datos están clasificados en escala cuantitativa usamos el Histograma


y el Polígono de frecuencia.

72
2.1 Histograma

El histograma es un gráfico formado por rectángulos, uno para cada grupo, que
van unidos entre sí, debido a la característica de continuidad de la escala. Su
superficie total muestra el total de individuos que corresponde a cada grupo. Esta
superficie está dada por la altura (que representa la frecuencia de aparición del
suceso) en el caso de que la base sea igual a 1. Esto sucede cuando las
divisiones de la escala son iguales.

En este gráfico la base de cada barra corresponde a 5 años y como todos los
grupos se diferencian en cinco se dice que la base es la unidad 5 años. Luego,
la superficie de la primera barra tiene altura 41.592 (lo que representa el 9,6%
de la distribución) y base unitaria por lo que su superficie es 9,6% (niños entre 0
y 4 años).

Cuando los intervalos no son iguales el histograma debe ajustarse.

73
2.2. Polígono de frecuencia

Otra manera de representar gráficamente esta escala es a través de un Polígono


de frecuencia, el cual resulta de unir los puntos medios de cada grupo de
clasificación frente a la frecuencia respectiva. El polígono se cierra uniendo su
primer y último punto con la línea base del gráfico. En la mitad del intervalo previo
y posterior. De esta manera el área del polígono resulta aproximadamente igual
al área del histograma que se obtendría si para los datos se adoptara tal tipo de
representación.

3. Gráficos para tendencias

3-1 Series de tiempo: Se usan para mostrar la evolución o magnitud de un


fenómeno a través del tiempo.

Se construyen uniendo los puntos cuyas coordenadas son la frecuencia


(ordenada) y la unidad de tiempo de observación (abscisa).

74
3-2 Diagrama de Caja o Boxplot

Un diagrama de caja es un gráfico, basado en cuartiles, mediante el cual se


visualiza un conjunto de datos. Está compuesto por un rectángulo, la "caja", y
dos brazos, los "bigotes". Es un gráfico que suministra información sobre los
valores mínimo y máximo, los cuartiles Q1, Q2 o mediana y Q3, y sobre la
existencia de valores atípicos y la simetría de la distribución.

75
Otras formas de representación gráfica son:

 Mapas
 Pirámides de población
 Pictogramas

Los MAPAS se utilizan para mostrar la distribución geográfica de una


característica. Su repetición para distintos períodos permite visualizar si han
ocurrido modificaciones a través del tiempo. La confección de este gráfico es
muy sencilla y consiste en sombrear o colorear distintas áreas de un mapa de
acuerdo con la magnitud de las características. Como regla se debe tener en
cuenta que cuando se utiliza sombreado, el más oscuro corresponde a los
valores más altos. A modo de ejemplo presentamos:

76
Cuando deseamos representar la composición de una población por sexo y edad
usamos LA PIRÁMIDE DE POBLACIÓN que permite la comparación de cada
grupo de edad para ambos sexos. La pirámide se construye sobre dos ejes
perpendiculares. A la izquierda del eje vertical se representan los datos
correspondientes a la población masculina y a la derecha los correspondientes
a la femenina. En el eje vertical se marcan los distintos grupos de edades, en
forma reciente hacia arriba, y sobre el horizontal figuran las escalas de
frecuencia, una para los varones y otra para las mujeres; haciendo coincidir el
cero con la intersección de los dos ejes resultan una serie de rectángulos
horizontales que van disminuyendo su longitud a medida que correspondan a
edades avanzadas.

A modo de ejemplo presentamos:

77
Tipos de pirámide poblacional

La pirámide de población, dependiendo de su forma, puede dar una visión


general de la juventud, madurez o vejez de una población, y por lo tanto obtener
consecuencias sociales de ello. Según su perfil podemos distinguir tres tipos
básicos de pirámides:

De población expansiva (llamada también pagoda): con una base ancha y


una rápida reducción a medida que ascendemos. Es propia de los países del
Tercer Mundo en plena transición demográfica con altas tasas de natalidad y
mortalidad, y con un crecimiento natural alto.

De población regresiva (llamada también bulbo): con una base más estrecha
que el cuerpo central y un porcentaje de ancianos relativamente grande. Es
propia de los países desarrollados que han terminado la transición demográfica,
pero aún están presentes sus últimas generaciones. Se trata de una población
envejecida con bajas tasas de natalidad y de mortalidad, y con un crecimiento
natural reducido.

De población estacionaria (llamada también campana): con una notable


igualdad entre las generaciones jóvenes y adultas, y una reducción importante
en las ancianas. El crecimiento natural es bajo. Este tipo de pirámide es propia
de las poblaciones que no presentan cohortes de la transición demográfica.
Pueden responder a países con tasas de natalidad y mortalidad altas, que aún
no han comenzado la transición demográfica (sobre todo si se trata de
poblaciones históricas) o a países que ya han terminado la transición
demográfica y han desaparecido todas sus generaciones. Esto, a comienzos del
siglo XXI, no ha sucedido en ninguna parte, aunque los países escandinavos las
últimas generaciones de la transición demográfica están en la cima de la
pirámide.

78
PICTOGRAMAS

En ciertas ocasiones se desean presentar datos en forma simple y agradable,


por ejemplo, para representar la producción se utilizan dibujos de bolsas de
distintos tamaños, etc., estos dibujos son llamados Pictogramas.

Un pictograma es un tipo de gráfico, que, en lugar de barras, utilizan figuras


proporcionadas a la frecuencia. Las imágenes representan los datos y pueden
ser de diferentes tamaños. Su construcción: sobre el eje horizontal se colocan
las imágenes a manera de barras. Sobre el eje vertical se colocan las frecuencias
con una escala adecuada. A cada margen se le asigna la altura que le
corresponde según su frecuencia

79
Veamos un ejemplo:

80
LAS MEDIDAS

Una medida (o escala) es la comparación de un dato que se hace con un


referente y que busca ser entendida. Lo que se mide son variables y de éstas
se obtienen los datos. Recordando, las variables son preguntas a través de
cuyas respuestas se puede contestar la pregunta de investigación.

Por supuesto, que una variable puede ser medida con distintos referentes y será
tarea del investigador el emplear como dato aquel que mejor expresa la
comparación. Por ejemplo, con la variable altura de las personas es mejor usar
variables que empleen datos cuantitativos (mucho mejor decir cuánto mide que
decir alto o bajito) e incluso de ellos son mejores los centímetros que los
milímetros.

La epidemiología usa tres tipos de medida. Ellos son:

1. Medidas de frecuencia.
2. Medidas de asociación.
3. Medidas de impacto

81
1. Medidas de frecuencia

Las medidas de frecuencia son necesarias para:

 Evaluar el estado de salud de una población.


 Evaluar las necesidades de cuidado de la salud de una población.
 Proveer información para la toma de decisiones y planificación de
servicios de salud, y en programas de prevención y promoción de la salud.

Pueden usar distintas escalas, casi todas matemáticas y sin duda son las más
empleadas en la epidemiología. Prácticamente no existe investigación donde no
se expongan medidas de frecuencia y son las empleadas para la labor
descriptiva.

La medición que se hace con este propósito se expresa casi siempre por tres
formas básicas:

 Razón
 Proporción
 Tasa

En un sentido amplio, una razón es un cociente entre dos magnitudes de


naturaleza

diferente con el propósito de expresar una relación existente entre ellas:

R=a/b
Lo principales que el numerador y el denominador no se superponen; un ejemplo
típico es la razón Varón / Mujer.

La proporción en sentido estricto es una medida que señala la relación de una


parte con el todo. Es un cociente cuya característica es que el denominador
contiene al numerador:

P = a / (a + b)
82
Se puede decir que relaciona el número de observaciones con una característica
respecto del total de observaciones.

Un porcentaje es una proporción multiplicada por 100, que es la forma más


frecuente de informar este tipo de datos.

La tasa en el campo de la salud es una medida relativa que expresa:

Numerador: Número de eventos ocurridos


__________________________________________________________
Denominador Población expuesta a experimentar dicho evento en
un determinado lapso de tiempo.

Para el correcto cálculo de una tasa es necesario definir con precisión el caso o
evento de interés que se incorpora al numerador, la población bajo estudio que
se halla en el denominador, y el período de tiempo involucrado. En el cálculo de
una tasa el denominador puede o no contener al numerador.

Muchas medidas de frecuencia son utilizadas como referentes de comparación


y, por consiguiente, utilizadas como indicadores.

83
INDICADORES

Medida que permite ser comparada como un referente que estima la


realidad de una situación determinada.

Muchas medidas de frecuencia se han convertido en indicadoras. Por ejemplo,


las tasas de mortalidad, las clásicas medidas de frecuencia de enfermedad son
dos: prevalencia e incidencia son ampliamente empleadas.

La INCIDENCIA y la PREVALENCIA resultan ser datos que, de tener


referencias previas, permiten analizar información.

Incidencia: Se refiere a los casos nuevos de una enfermedad que se presentan


en una comunidad y en un período determinado.

Prevalencia: Se refiere al total de casos de una enfermedad en un momento y


en un lugar determinado.

Tanto la prevalencia como la incidencia son medidas de morbilidad (enfermedad)


en la población, pero difieren en que la prevalencia mide el número de personas
que tienen la enfermedad en un momento dado (su magnitud) y la incidencia
mide los casos nuevos que se presentan en un período determinado de tiempo
(su velocidad). Las relaciones entre incidencia y prevalencia pueden apreciarse
en la siguiente Figura:

84
Note que si aumenta la incidencia (aparecen más casos nuevos) y el número de
muertes y recuperados se mantiene sin cambio, aumentará la prevalencia. Si
aumenta la mortalidad o más gente se recupera y la incidencia no cambia, la
prevalencia disminuirá.

Cuando se estudia la salud y la población, las situaciones de referencia de donde


se pueden obtener indicadores son:

 La muerte
 La enfermedad
 La discapacidad de la población
 Los factores de riesgo de la población
 Aspectos intervinientes en la salud poblacional tales como prevalencia de
felicidad, calidad de vida, desarrollo humano.

Ejemplos de utilidades de los indicadores pueden ser:

1. Identificar necesidades en salud. Por ejemplo, la mortalidad infantil,


donde resulta obvio que esta población es la que más se resiente cuando
las condiciones son inadecuadas y, por ende, la que mejor responde
cuando empieza a mejorar.
2. Evaluar recursos para la salud. Índice de pobreza humana.
3. Evaluar impactos: Tasa especifica de fecundidad en mujeres de 15 a 19
años (por mil).
4. Monitorear: Número de personas desplazadas por violencia por año.
5. Atributos de políticas: Tasa de desempleo.
6. Negociación: Gasto nacional en salud por año en proporción del PIB.
7. Racionalización: Índice de condiciones de vida en el año.
8. Evaluar investigaciones.
9. Tamizar hipótesis.

Como ejemplos en salud pública están:

1.La mortalidad infantil que refleja la inequidad.

2. La mortalidad materna refleja el acceso a los servicios de salud.

85
3. Las tablas de vida (expectativa de vida y los años de vida perdidos).

4. En morbilidad se usa la letalidad o relación entre los que se mueren y los que
padecen de una enfermedad obviamente en un período de tiempo.

5. El bajo peso al nacer.

6. Los análisis de discapacidad o de calidad de vida.

7. Indicadores de acceso a servicios de salud (pueden ser: cobertura de


vacunación, la atención prenatal, la atención profesional, la planificación o el
número de citologías).

De todo lo anterior ha de quedar en claro el papel esencial de los indicadores en


los análisis. Un buen indicador debe cumplir con unos REQUISITOS mínimos:

1. Factibilidad: que se pueda obtener.


2. Oportunidad: que se tenga cuando se necesita.
3. Continuidad: que tenga referentes previos que permitan la comparación.
4. Costo/eficiencia: que el beneficio que da sea mayor que la inversión para
obtenerlo.
5. Validez: que refleje la realidad.
6. Precisión: que si se vuelve a medir dé el mismo resultado.
7. Sensibilidad: que detecta lo que se busca.
8. Especificidad: que permite descartar.
9. Relevancia: que permite ver la importancia de una situación.

2. Medidas de asociación

Para poder cuantificar el riesgo de un determinado daño en presencia de un


factor de exposición se utilizan las medidas de efecto o de asociación que, como
su nombre lo indica, permiten determinar la magnitud o la fuerza de la relación
existente entre la causa y el efecto.

86
La principal ventaja de estas medidas es que permiten describir en un solo
parámetro la asociación existente entre una particular exposición y el riesgo de
desarrollar un determinado evento (Los expuestos y los no expuestos).

A pesar de que clásicamente se describe una relación entre un factor y un daño


(causa-efecto), es importante remarcar que el evento o desenlace puede tratarse
de un hecho deseado o esperado. Por ejemplo: un embarazo en población de
parejas con problemas de fecundidad es un evento deseado. Las medidas
utilizadas para identificar los factores posiblemente asociados al evento son las
mismas.

Las medidas de Efecto o Asociación clásicas son:

 Riesgo Relativo (RR): es la incidencia en los expuestos a un factor sobre


la incidencia en los no expuestos a dicho factor.
 Odds Ratio (OR): es un estimador del RR que se utiliza cuando no es
posible calcular incidencias.

Riesgo Relativo (RR)

Como vimos anteriormente, la incidencia de una enfermedad en una población y


período determinados nos proporciona una medida del riesgo absoluto de
padecer la enfermedad en esa población.

La comparación de dos medidas de incidencia de una enfermedad, es decir, dos


riesgos absolutos, permite detectar un posible exceso de riesgo en un grupo
con relación a otro.

En epidemiología es de particular interés comparar la ocurrencia de enfermedad


entre un grupo expuesto a un factor considerado de riesgo respecto a otro no
expuesto. Las pruebas estadísticas ayudan a detectar el exceso de riesgo entre
ambos grupos, el riesgo relativo permite cuantificar la magnitud de tal exceso y
mide la fuerza de la asociación entre exposición y enfermedad.

87
Para calcular el riesgo relativo de una enfermedad con relación a una exposición,
se requiere una medida del riesgo absoluto entre los expuestos a un factor de
riesgo y una medida del riesgo absoluto entre los no expuestos a tal factor, es
decir, la incidencia en expuestos y la incidencia en no expuestos.

Tabla 2x2 de Riesgo Relativo

Ejemplo:

En síntesis

RR > 1: indica que la exposición es un FR3 para el evento.

RR < 1: indica que la exposición es un FP4 para el evento.

RR = 1: indica que no hay relación entre la exposición y el evento.

3
FR: Factor de riesgo se llama cuando la población estudiada es “sana”.
4
FP: factor pronóstico se llama cuando la población estudiada tiene una condición determinada
(enfermos).

88
Razón de Posibilidades: Odds Ratio (OR)

Cuando necesitamos identificar asociación entre exposición y enfermedad


sucede que nos encontramos ante una serie de sujetos que ya presentaron la
enfermedad. En tal situación podemos recurrir a un estudio caso-control, en el
cual se compara la historia L exposición de los enfermos con la de un grupo de
sujetos similares, pero sanos, al queO se llama ‘grupo control o testigo’. El diseño
caso-control es muy versátil y popular en el campo y es uno de los estudios que
nos permite obtener una medida denominada razón de posibilidades (razón de
productos cruzados, razón de ventajas, razón de suertes, razón de momios, odds
ratio), análoga al riesgo relativo, que estima el exceso de riesgo.

En los estudios caso-control se parte de dos grupos de sujetos, uno con la


enfermedad y otro sin ella, y se investiga si habían estado previamente
expuestos al factor de riesgo.

Tabla 2x2 de Odds Ratio

89
3. Medidas de impacto

Son prácticamente específicas de la práctica de la epidemiología. Una se llama


el riesgo atribuible (o fracción etiológica) y expresa la responsabilidad de la
exposición en la aparición del evento adverso. Por ejemplo, cuál es el riesgo
atribuible del cigarrillo en el cáncer del pulmón.

La segunda medida es la denominada fracción prevenible donde se mide el


impacto que tiene una intervención protectora, Por ejemplo, cuáles serán los
casos que se presentarán (de ahí surgen cuántos casos se previenen) en
presencia de una acción protectora.

Riesgo Atribuible (RA) que recibe también el nombre de “diferencia de riesgos”,


Nos da información sobre el posible impacto que se obtendría si se puede
controlar la exposición.

Riesgo atribuible en expuestos = incidencia en expuestos – incidencia en no


expuestos

Hoy sabemos que la exposición del cigarrillo es el factor causal más importante
en la génesis del cáncer del pulmón. A través del RIESGO ATRIBUIBLE se
puede calcular el porcentaje de responsabilidad del cigarrillo, el que por cierto
está en cerca de un 92%. Esta cifra se obtuvo de la aplicación del RIESGO
ATRIBUIBLE también denominado FRACCION ETIOLOGICA.

90
En síntesis:

91
¿QUÉ ENTENDEMOS POR MEDICIÓN?

Medir significa proporcionar un valor cuantitativo o cualitativo a cierta propiedad


observada en la persona u objeto de estudio.

Estas propiedades o características susceptibles de tomar distintos valores o


intensidades se conocen con el nombre de variables.

Hay variables que son netamente cualitativas como sexo, lugar de residencia, a
las cuales es imposible transformar en cuantitativas porque sus características
no pueden ser medidas o contadas. En cambio, si se establecen niveles, las
variables cuantitativas pueden ser expresadas en cualitativas. Un ejemplo válido
es la edad, típica variable cuantitativa generalmente expresada en años (unidad
de medida) que puede ser expresada como cualitativa: niño, joven, adulto y
anciano.

Dentro de las variables cuantitativas podemos distinguir dos categorías:

a) Variables cuantitativas discontinuas o discretas: son las que pueden variar


sólo en números enteros o en fracciones bien definidas sin valores intermedios
como número de hijos, número de pacientes en una sala.

b) Variables cuantitativas continuas, son las que pueden variar en forma


continua y tomar cualquier valor entre un máximo y un mínimo, como el contenido
de hemoglobina en sangre, la tensión arterial, la edad, etc.

Para determinar grupos o categorías de las variables cualitativas basta enunciar


las posibilidades que se presentan a cada clase.

Escalas de medición de variables

Uno de los elementos fundamentales de la definición de una variable es el tipo


de escala que utilizaremos para medirla. En función de la escala elegida
decidiremos su codificación, tratamiento informático y estadístico.

92
Hay cuatro tipos de escalas de medición (Stevens 1958), que ordenadas en
orden creciente de potencia, según la proporción de información que contienen,
son:

Escala nominal

Consta de dos o más categorías mutuamente excluyentes. Si solo hay dos, se


llama escala nominal dicotómica. A cada categoría se le suele asignar un
número de código sin significado cuantitativo, lo que facilita su introducción en
bases de datos. En cualquier situación, si se usa una codificación propia, debe
tenerse claro lo que significa cada código para cada variable.

Veamos algunos ejemplos:

 Sexo: 1) masculino; 2) femenino.


 Fumar: 0) no; 1) sí.
 Estado civil: 1, casado; 2, soltero; 3, viudo; 4, divorciado,
 Procedencia del ingreso: 1, urgencias; 2, consultas; 3, otro hospital.

Dependiendo del programa que va a ser utilizado para el análisis, se prefiere


codificar las variables nominales dicotómicas de forma que la presencia de
enfermedad o del factor de exposición se suele codificar como uno (1), mientras
que la ausencia de enfermedad o de exposición a algún factor como cero (0) o
dos (2).

93
Por ejemplo, el antecedente de hábito tabáquico puede codificarse como 1 y 0
(1: fumador; 0: no fumador) o como 1 y 2 (1: fumador; 2: no fumador). Aunque
matemáticamente la presencia/ausencia de una característica se corresponde
con la codificación 1-0, es frecuente usar la codificación 1-2, para evitar que
variables vacías sean asignadas al 0 por error.

Escala ordinal

Las variables ordinales tienen la cualidad adicional, respecto a la escala nominal,


de que sus categorías están ordenadas por rango; cada clase posee una
misma relación posicional con la siguiente; es decir, la escala muestra
situaciones escalonadas. Si se usan números, su única significación está en
indicar la posición de las distintas categorías en la serie; sin embargo, no asumen
que la distancia del primer escalón al segundo sea la misma que la del segundo
al tercero. Veamos algunos ejemplos:

 Clase social: 1) baja, 2) media, 3) alta.


 Grados de reflujo vesico-ureteral: grados 1, 2, 3, 4.
 Conformidad con una afirmación: 0) completo desacuerdo, 1) acuerdo
parcial, 2) acuerdo total.
 Fumar: 0) no fumador, 1) fumador leve, <10/día; 2) fumador moderado,
10-20/día, y 3) gran fumador, >20/día).

Existen escalas que serán mezcla de nominal y ordinal, porque solo algunas
categorías estén ordenadas por rango; esto ocurre en las escalas en las que un
valor representa a una categoría inclasificable (ejemplo: no sabe no contesta o
resultado indeterminado).

Escalas de intervalos

Las escalas de intervalos poseen la cualidad adicional de que los intervalos


entre sus clases son iguales. Diferencias iguales entre cualquier par de
números de la escala indican diferencias también iguales en el atributo sometido
a medición. Veamos un ejemplo: la diferencia de temperatura entre una

94
habitación a 22 grados centígrados y otra a 26 es la misma que la existente entre
dos a 33 y 37 grados centígrados, respectivamente.

Sin embargo, la razón entre los números de la escala no es necesariamente la


misma que la existente entre las cantidades del atributo. Ejemplo: una habitación
a 20 grados no está el doble caliente que otra a 10. Ello se debe a que el cero
de la escala no expresa el valor nulo o ausencia de atributo.

Escalas de razones

Su cualidad adicional es que el cero sí indica ausencia de atributo. En


consecuencia, la razón entre dos números de la escala es igual a la existente
entre las cantidades del atributo medido. Ejemplos:

 Peso: medido en kilogramos.


 Concentración de glucosa en una muestra: medida en mg/dl.
 Tasa de mortalidad: muertes por 1000 personas en riesgo.
 Ingresos: medidos en euros.

Las escalas de intervalos y razones se llaman también métricas o dimensionales.


Las variables continuas van a medirse con escalas de razones o intervalos, por
lo que es habitual que nos refiramos a ellas englobándolas como escalas
continuas, ya que comparten estrategias de análisis, como la elección del test
estadístico. Algunos paquetes estadísticos, las denominan simplemente
“escalas”.

Cuando en la recogida de una variable continua (escala de razones o intervalos)


no podemos recoger valores a partir de un límite (por ejemplo: cargas virales
superiores a 100 000), si optamos por mantener esas observaciones en el
análisis, la variable se comporta en ese rango como una variable ordinal.

95
¿COMO RESUMIR DATOS CLASIFICADOS EN ESCALA CUANTITATIVA?

Para resumir datos clasificados en escala cuantitativa disponemos de dos tipos


de medidas: las de posición y las de dispersión.

MEDIDAS DE POSICIÓN (TENDENCIA CENTRAL)

Tienen como objetivo ubicar el centro de una distribución de frecuencia de


valores, las más utilizadas son:

 Media aritmética o Promedio


 Mediana
 Modo

MEDIA ARITMÉTICA: es el cociente que se obtiene de dividir la suma de los


valores de la variable por el número de ellos.

Se simboliza: O

La media aritmética de las siguientes edades de casos de meningitis será:


96
Propiedades de la media aritmética:

 Al evaluar la media se incluyen todos los valores


 Un conjunto de datos solo tiene una media. Esta es única.
 La media es una medida muy útil para comparar dos o más poblaciones
 La media aritmética es la única medida de tendencia central en donde la suma
de cualquier valor con respecto a la media siempre será cero.

MEDIANA: es el valor que divide la distribución de las observaciones en dos


partes iguales. Se simboliza Mna. Para calcularla se ordenan los datos siguiendo
un orden creciente (de menor a mayor). Si el número de observaciones es impar,
la mediana corresponde al valor situado en el medio, si el número de
observaciones es par, se promedian los valores que ocupan los lugares
centrales.

Del ejemplo anterior: 5, 10, 15, 2, 3, 2, 7


Valores ordenados: 2, 2, 3, 5, 7, 10, 15
Mna = 5

97
MODO: es el valor de la variable que se presenta mayor número de veces, o
sea, el valor más frecuente. Se simboliza Mdo.

Se destacan las siguientes propiedades:

 Es muy fácil de calcular.


 Puede no ser única.
 Es función de los intervalos elegidos a través de su amplitud, número y límites
de los mismos.
 Aunque el primero o el último de los intervalos no posean extremos inferior o
superior respectivamente, la moda puede ser calculada.

Del ejemplo anterior 5, 10, 15, 2, 3, 2, 7

Valores ordenados: 2, 2, 3, 5, 7, 10, 15

Se desprende que 2 años es el valor que se presenta con más frecuencia. La


utilización de una u otra medida de tendencia central para el resumen y análisis
de un conjunto de datos, depende de la distribución de frecuencia de los datos.

DISTRIBUCIÓN DE FRECUENCIA

Una distribución de frecuencia es la ocurrencia de observaciones según la


frecuencia con que aparecen. Si el número de observaciones es suficiente y ellas
se han efectuado enteramente al azar, su distribución de frecuencias podrá
agruparse alrededor de un punto central y formará una curva en forma de
campana. Una curva de este tipo es conocida como curva normal de Gauss.

La tabla de frecuencia

La estadística, en una simple interpretación, no es otra cosa que un proceso de


análisis de información, que busca hacernos entender los datos.

98
Buscando ser didácticos, el ser humano aprende a través de la descripción y de
la comparación. Con base en estos dos procedimientos anhela predecir. La
investigación es la forma como el ser humano describe y compara. La estadística
ofrece referentes para aprender a describir y comparar en las investigaciones.
Para describir, la estadística utiliza una serie de presentaciones y de aspectos
referenciales (medidas de tendencia central y de dispersión). La principal forma
de presentar la información es la tabla de frecuencia que, con mucho, constituye
la principal forma de presentar información en la estadística descriptiva (no la
única y, de hecho, las gráficas le hacen algo de competencia).

La tabla de frecuencia precisamente ordena los datos (cuando se ordena se ve


más) distribuidos según su frecuencia, es decir, según las veces que se repite
en la muestra. En primer lugar, los agrupa siguiendo un criterio. Esto se
denomina clases.

Las filas en la tabla expresan las clases en que se ordenaron los datos. La
columna de frecuencia muestra el número de veces que se repiten los datos de
cada clase.

La tabla de frecuencias es una herramienta que permite la realización de los


gráficos o diagramas estadísticos de una forma más fácil.

Tipos de frecuencia

Hay varios tipos de frecuencias:

1.- Frecuencia absoluta: es la más básica, y a partir de ella se construyen las


demás. Consta simplemente del número total de datos correspondientes a una
categoría (contando las veces que se repite el dato en el conjunto de datos). Se
representa como fi, donde la «i» corresponde al número de dato.

99
La suma de las frecuencias absolutas corresponde al número total de datos,
representado por la letra N:

2.- Frecuencia relativa: es la frecuencia absoluta (es el número que se repite


ese dato en relación al número total de datos) de cada categoría dividida entre
el número total de datos.

Se representa como «ni», siendo «i» el número de dato. y se calcula dividiendo


la frecuencia absoluta de cada dato entre el número total de datos:

3.- Frecuencia porcentual: es la misma frecuencia relativa pero multiplicada por


cien, indicando el porcentaje de aparición de valores en cada categoría.

El valor de la frecuencia relativa siempre va a estar entre 0 y 1. El valor obtenido


está en tanto por uno, pero lo podemos expresar en tanto por ciento si lo
multiplicamos por 100.

4.- Frecuencia absoluta acumulada: Se calcula sumando la frecuencia


absoluta de un dato más la frecuencia absoluta del dato anterior. Por tanto,
la frecuencia acumulada del primer dato coincide con su frecuencia
absoluta y la frecuencia acumulada del último dato coincide con el número
total de datos.

100
5.- Frecuencia relativa acumulada: Se calcula sumando la frecuencia
relativa de un dato más la frecuencia relativa del dato anterior. Así que, la
frecuencia relativa acumulada del primer dato coincide con su frecuencia relativa
y la frecuencia relativa acumulada es igual a 1.

Vamos a ver paso a paso cómo construir una tabla de frecuencias con datos
aislados con el siguiente ejemplo:

En una urbanización se ha realizado una encuesta preguntando cuántos


dormitorios tienen sus viviendas. Los resultados sobre el número de dormitorios
por vivienda fueron los siguientes:

La tabla de frecuencias tendrá las siguientes 5 columnas:

 Datos (xi)
 Frecuencia absoluta (fi)
 Frecuencia absoluta acumulada (Fi)
 Frecuencia relativa (ni)
 Frecuencia relativa acumulada (Ni)

Vamos a ver cómo rellenar cada una de ellas.

101
En la primer a columna, colocamos los valores de los datos, pero sin repetir,
ordenados de menor a mayor. En nuestro caso, tenemos varios 1, varios 2,
varios 3 y varios 4, por lo que colocamos estos valores una vez en la tabla.
Dejamos la última fila para colocar el total:

Ahora, vamos a obtener la frecuencia absoluta de cada uno de los valores.


Para ello contamos las veces que se repite cada valor:

 El 1 se repite 6 veces
 El 2 se repite 5 veces
 El 3 se repite 4 veces
 El 4 se repite 5 veces

Colocamos cada valor en su casilla correspondiente y en la última fila, escribimos


la suma de todas las frecuencias, que como puedes comprobar, también coincide
con el número total de datos:

102
Vamos a obtener ahora la frecuencia absoluta acumulada de cada dato. En la
primera fila, la frecuencia absoluta acumulada coincide con la frecuencia
absoluta, es decir, ambas son 6.

Para el resto de filas, la frecuencia absoluta acumulada la obtenemos sumando


la frecuencia absoluta acumulada del dato anterior (del dato de arriba) más su
frecuencia absoluta (dato de su izquierda).

Por ejemplo, para el 2, la frecuencia absoluta acumulada es igual a 6, que es la


frecuencia absoluta acumulada anterior, más 5 que es su frecuencia absoluta,
cuyo resultado es 11. Para 3, 4 y 5 se calcula de la misma forma:

La frecuencia absoluta acumulada de 4 coincide con el número total de


elementos.

Vamos ahora con la frecuencia relativa, que la calculamos con la siguiente


fórmula:

103
Es decir, dividiendo cada frecuencia absoluta, entre el número total de
elementos, que es 20 para todos, en este caso.

Por ejemplo, para el 1, la frecuencia relativa es:

Lo hacemos igual para el resto de datos y en la última fila, colocamos la suma


de las frecuencias relativas:

Para obtener la frecuencia relativa acumulada, lo podemos hacer como para


la frecuencia absoluta acumulada, es decir, la frecuencia relativa acumulada del
primer dato es igual que su frecuencia relativa y para los datos siguientes es
igual a su frecuencia relativa más la frecuencia relativa del dato anterior (del dato
de arriba):

104
También la podemos calcular la frecuencia relativa acumulada, dividiendo cada
frecuencia absoluta acumulada entre el número de elementos total:

Por ejemplo, para el 2 sería:

Realizándose de la misma forma para el resto de datos.

La frecuencia relativa acumulada del 4 es igual a 1.

Distribución:

Este podría ser el caso de la distribución de altura corporal de una población de


adultos, la distribución de frecuencias de los datos tendrá una forma aproximada
a la curva normal. La frecuencia de los valores observados puede ser expresada
en números absolutos, porcentajes o fracciones.

105
Esta es una distribución de frecuencias simétricas y para señalar el centro se
utiliza la media aritmética o valor promedio.

¿Qué posición ocupa la mediana y el modo?

En las distribuciones simétricas la posición del promedio, la mediana y el modo,


coinciden.

Ciertos fenómenos no se distribuyen en forma simétrica, como por ejemplo la


concentración de retinol, cuya representación gráfica toma aproximadamente la
forma:

En casos como éste no conviene el uso de la media aritmética y se utiliza la


mediana para señalar el centro de la distribución de frecuencias.

La media está muy influenciada por los extremos de la distribución.

106
En general la mediana es más fácil de calcular y su uso es apropiado ya sea la
distribución simétrica o asimétrica.

Respecto del modo es importante observar si la representación gráfica de los


datos presenta un solo modo (unimodal), dos modos (bimodal) o más de dos
(multimodal).

Cuando, por ejemplo, se analiza el desarrollo de una epidemia según la hora o


fecha de aparición de los primeros síntomas en los enfermos y, en la
representación gráfica, se observa un solo modo, significa que todos los casos
estuvieron expuestos a una fuente única de infección. Si los modos fueran dos,
las fuentes de infección también serían dos; y en el caso de un gráfico multimodal
la exposición a la infección sería múltiple.

107
MEDIDAS DE DISPERSIÓN (EXTENSIÓN)

Hemos visto las medidas de tendencia central las cuales nos permiten ubicar el
centro de la distribución. La más utilizada de todas es la media o promedio, sin
embargo, este valor no es suficiente para describir una serie de datos.

La dispersión es importante porque:

 Proporciona información adicional que permite juzgar la confiabilidad de


la medida de tendencia central. Si los datos se encuentran ampliamente
dispersos, la posición central es menos representativa de los datos.
 Ya que existen problemas característicos para datos ampliamente
dispersos, debemos ser capaces de distinguir que presentan esa
dispersión antes de abordar esos problemas
 Quizá se desee comparar las dispersiones de diferentes muestras. Si no
se desea tener una amplia dispersión de valores con respecto al centro
de distribución o esto presenta riesgos inaceptables, necesitamos tener

108
habilidad de reconocerlo y evitar escoger distribuciones que tengan las
dispersiones más grandes.

Para lograr una mejor idea de la distribución de los valores obtenidos se requiere
conocimiento acerca de la dispersión o variación de las observaciones. En el
área de la salud se utilizan con frecuencia varias mediciones estadísticas para
describir la dispersión de los datos: rango, desviación estándar, coeficiente
de variación, percentilos y rango intercuartílico.

Se denomina dispersión de los valores, a cómo están repartidos alrededor o


en torno al promedio.

Tratamos de aclarar esto mismo con el siguiente ejemplo:

Sin embargo, los valores no están igualmente agrupados alrededor del punto de
equilibrio. Están más dispersos en el segundo caso.

Lo interesante ahora es poder medir en alguna forma esta dispersión. Para ello
podemos utilizar por ejemplo la distancia entre el valor máximo y mínimo, la cual
denominaremos amplitud.

 Rango (amplitud)

Es la diferencia entre la observación más grande y la menor, el rango real no


puede determinarse a partir de datos presentados en una tabla de frecuencia,
pero puede obtenerse un cálculo aproximado al utilizar el límite inferior del
intervalo de clase menor y el límite superior del intervalo de clase más alto.

109
Si observamos el ejemplo, en este caso, la amplitud es de 4.

1; 2; 3; 4; 5 1+5:4

 Desviación Standard (Desvío Estandar):

Es la medida de dispersión más frecuente para definir datos del área de la salud,
aunque su significado y cálculo pueden ser complejos, aporta información
valiosa.

La desviación standard (DS) es una medida de la dispersión de los datos


alrededor de su media, si lo que se desea obtener es una medida de la forma en
que las observaciones se dispersan alrededor de la media, se podría calcular
una desviación promedio o media:

La manera de obtenerla es así:

1. Se obtienen las diferencias entre cada dato con la media grupal.

2. Se eleva al cuadrado.

3. Se suman los resultados y el resultado se denomina desviación media.

Una medida de referenciación es la distancia de los datos de la media grupal. Se


denomina desviación media en donde sencillamente se compara cada dato con
la media.

La desviación standard, igual que la media, requiere datos numéricos y es muy


importante en estadística. En primer lugar, es parte esencial de numerosas
pruebas estadísticas, en segundo lugar, es muy útil para definir la dispersión de
las observaciones alrededor de la media.

Así se calcula la DS, pero es muy importante entender su concepto. Para poder
entender mejor su uso se tiene que entender el concepto de la curva de
distribución normal.

110
DISTRIBUCION NORMAL

Recopilando lo expresado en el párrafo previo, al estudiar un grupo de eventos


o poblaciones y agruparlos alrededor de la media, los datos se van distribuyendo
a los lados de esa media y se forma una curva, que se ha denominado curva de
distribución normal (si cumple con ciertos criterios). Su análisis en torno a
forma, ancho o altura se ha convertido en una referencia importante para ser
comparada cuando se estudian frecuencias (eventos que se repiten) en distintas
poblaciones.

La gráfica de la distribución normal tiene la forma de una campana, por este


motivo también es conocida como la campana de Gauss. Sus características
son las siguientes:
• Es una distribución simétrica.
• Es asintótica, es decir sus extremos nunca tocan el eje horizontal, cuyos valores
tienden a infinito.
• En el centro de la curva se encuentran la media, la mediana y la moda.
• El área total bajo la curva representa el 100% de los casos.
• Los elementos centrales del modelo son la media y la varianza

111
Una herramienta (instrumento) muy utilizado en el ejercicio clínico es el uso de
escalas o tablas donde se puede confrontar lo que se espera con lo que los
pacientes tienen. Las tablas de crecimiento son un buen ejemplo. Se construyen
con base a las distribuciones de las poblaciones en cada edad, las que sumadas
muestran las tendencias y así permiten construir los límites donde se ubican las
poblaciones.

Explicación de la curva de distribución y su utilidad a través de las tablas


de peso y talla

112
Antes de exponer el ejemplo (joven de 15 años con…) se debe describir lo que
compone la tabla de percentiles:

1. La Tabla relaciona los valores para la edad (X) con los parámetros de peso y
talla (Y). Para hacer más fácil la explicación sólo nos vamos a referir al peso.

2. De cada edad se obtiene la curva de distribución normal del peso con dos
desviaciones estándar. Por ejemplo, con los jóvenes de 15 años:

Se amplifica en próxima hoja

113
De acuerdo al grafico anterior; a una muestra representativa de jóvenes de 15
años sanos del mismo sexo (masculino en este ejemplo) de un país se pesó y
se obtuvo que el peso medio era de 56 kilos. Al aplicar dos desviaciones
estándar, dicho peso medio se dispersó hasta 83 kilos (límite superior del
intervalo de confianza) y hasta 42 kilos (límite inferior del intervalo de confianza).
Todos los pesos que estén dentro de 42 kilos y 83 kilos en jóvenes de 15 años,
de ese lugar, se consideran NORMALES ESTADISTICAMENTE (una manera
de decirlo) o IGUALES ESTADÍSTICAMENTE (otra manera de decirlo y según
el contexto).

3. Dado que se ve por edades consecutivas, al unir los límites superiores (e


inferiores) de los intervalos de confianza del 95% de cada edad se forman esas
líneas continuas (tendencias).

4.Dado que el 95% de los datos quedará comprendido entre las dos desviaciones
estándar, los límites de esos dos intervalos son 97% (superior) y 3 % (inferior).
Ello quiere decir que el 95% de los pesos obtenidos de los jóvenes de tal edad
están comprendidos entre esos dos límites. La forma como se subdividan estos
dos límites es lo que establece:

114
 CUARTILES si se dividen por proporciones del 25% los pesos
encontrados. Ello quiere decir que en el primer cuartil está el 25% de los
primeros pesos (entre 42 y 49 kilos) que, en el segundo cuartil, está ese
25% más el siguiente 25% (y con ello se ha llegado a la mitad de la
población), es decir, entre 42 kilos y 56 kilos; que en el tercer cuartil se
agrega otro 25% (entre 42 kilos y 69,5 Kilos) y en el último cuartil se
incluye el restante 25% de los pesos ubicados en la curva de
distribución.

Igualmente se puede afirmar que entre 49 kilos y 56 kilos están ubicados los
pesos de los dos cuartiles inferiores y que entre 56 y 83 están los pesos con
cuartiles superiores. En fin… lo importante es que esta medida se usa para
comparar tendiendo de referente la curva de distribución.

115
 AMPLITUD INTERCUARTÍLICA (RQ): La amplitud intercuartílica es una
medida de variabilidad adecuada cuando la medida de posición central
empleada ha sido la mediana.

Se define como la diferencia entre el tercer cuartil (Q3) y el primer cuartil

(Q1), es decir: RQ = Q3 - Q1.


A la mitad del rango intercuartil se le conoce como desviación cuartil (DQ):

DQ = RQ/2= (Q3 - Q1)/2.

 DECILES (PERCENTILES) si lo que se hace es dividir el 100% de los


pesos de la población en 10%, 20%, 30%, 40%, 50%, etc. Evidentemente
esta es otra forma de clasificar la curva que se usa para poder tener
referentes. Lo cierto es que así se forma la tabla y se puede identificar si
el peso de una persona de tal edad está dentro de lo normal esperado.

Por ejemplo, (y volviendo a la imagen donde aparece la primera tabla), el


punto rojo señala el peso de un joven de 15 años.

¿Dónde está ubicado en torno a la curva de distribución normal para su edad?


Está situado en la línea que señala el 75.

¿Ello qué quiere decir? En primer lugar, que el peso de este joven está dentro
de la curva de distribución normal del peso para la edad y el sexo (evidente
por estar dentro de los dos límites que establecen las líneas que miden la
superior 97 y la inferior 3). Ahora bien… dentro de la curva el percentil 50 es
aquel peso que divide a la población de esta edad en dos mitades (los pesos
ubicados ahí señalan la MEDIANA) donde una mitad puede tener más que
ese peso y la otra mitad menos. En este caso y, si la imagen permite
visualizarlo, el peso del percentil 50 a los 15 años, es 56 kilos.

116
La importancia de esta aplicación de las curvas de distribución normal ha sido
y es inmensa. Por ejemplo, al hacer seguimiento de los niños por edad,
podemos ver cómo va ocurriendo el incremento del peso en relación con la
edad y ver si se hace dentro de los límites esperados; si no es así, nos hace
sospechar que algo no está bien en el niño… y se busca.

El desvío standard (DS) nos habla de la variación de los datos, el cuadrado


del DS se denomina VARIANZA.

 Varianza

En teoría de probabilidad, la varianza (que suele representarse como )


de una variable aleatoria es una medida de dispersión definida como la
media de las diferencias con la media elevadas al cuadrado.

Está medida en unidades distintas de las de la variable. Por ejemplo, si la


variable mide una distancia en metros, la varianza se expresa en metros al
cuadrado. La desviación estándar es la raíz cuadrada de la varianza, es una

117
medida de dispersión alternativa expresada en las mismas unidades de los datos
de la variable objeto de estudio. La varianza tiene como valor mínimo 0.

Diferencia entre los conceptos de Desviación Estándar y Varianza

La desviación estándar y la varianza son medidas estadísticas de dispersión para


evaluar qué tan lejos están los puntos de datos individuales de la media, o
promedio de un conjunto de datos. Saber qué tan lejos del promedio está cada
punto de datos permite sacar conclusiones más precisas sobre un conjunto de
datos, población o muestra, porque puedes elegir afloramientos y valores
extremos y observar cómo afectan los resultados.

Calcular la varianza

La varianza se define como la media de los cuadrados de sus diferencias


individuales con la media. Para calcular la varianza dentro de un conjunto de
datos, primero calcula la media sumando todos los tus puntos de datos y luego
divide el total por el número de puntos de datos que estás utilizando. Luego, la
media se resta de cada punto de datos individualmente, el resultado se eleva al
cuadrado y ahora se obtiene la media de estos valores.

Diferencia conceptual entre la desviación estándar y la varianza

La varianza de un conjunto de datos mide la dispersión matemática de los datos


con respecto a la media. Sin embargo, aunque este valor es teóricamente
correcto, es difícil darle un sentido en el mundo real porque los valores utilizados
para calcularlo se elevaron al cuadrado. La desviación estándar, siendo la raíz
cuadrada de la varianza tiene un valor que está en las mismas unidades que los

118
valores originales, lo que hace mucho más fácil el trabajar con ella y es más fácil
de interpretar junto con el concepto de la curva normal.

 Coeficiente de variación

Es una medida útil de la dispersión relativa de los datos. El coeficiente de


variación ajusta las escalas, de manera que puede efectuarse una
comparación sensible. Se define como la desviación standard dividida entre
la media por 100%. Origina una mediada de la variación relativa con respecto
a la media. Por lo tanto, la fórmula para coeficiente de variación (CV) es:

Una aplicación frecuente de esta fórmula es en pruebas de laboratorio y


procedimientos de control de calidad.

Veamos el ejemplo de dos distribuciones totalmente distintas entre sí, a pesar


de presentar el mismo promedio.

1, 2, 3, 4, 5 Suma = 15 n = 5 × = 3

Si tomamos el promedio como punto de referencia, observamos que en el primer


ejemplo el valor máximo se aleja de 3 tan sólo en dos unidades.

119
CORREDOR ENDÉMICO

En vigilancia epidemiológica se usan algunas herramientas gráficas para el


estudio de fenómenos con distribución tempo-espacial como son algunas
enfermedades transmisibles. Una de las herramientas que se usan, es el
corredor endémico (CE) (también llamado canal endémico). que permite
establecer zonas de riesgo, de alerta y de epidemia para cierta enfermedad.

El corredor endémico es también una representación gráfica de las


frecuencias de la enfermedad en un eje de coordenadas, en el cual el eje
horizontal representa el tiempo y el vertical las frecuencias.

Sin embargo, a diferencia de la curva epidémica, el corredor endémico describe


en forma resumida la distribución de frecuencias de la enfermedad para el
periodo de un año, basada en el comportamiento observado de la enfermedad
durante varios años previos y en secuencia.

El corredor endémico suele ser representado gráficamente por tres curvas: la


curva endémica y otras dos curvas límite, que indican los valores máximos y
mínimos, a fin de tomar en cuenta la variación inherente a las observaciones de
la frecuencia de la enfermedad a través del tiempo.

Así, el corredor endémico expresa, en forma gráfica, la distribución típica de una


enfermedad durante un año cualquiera, captura la tendencia estacional de la
enfermedad y representa el comportamiento esperado de dicha enfermedad
en un año calendario. En los servicios locales de salud, el corredor endémico es
un instrumento útil para el análisis de la situación epidemiológica actual de una
enfermedad, la determinación de situaciones de alarma epidémica y la
predicción de epidemias.

120
El corredor endémico expresa la tendencia estacional de una enfermedad y tiene
los siguientes elementos:

 La curva endémica propiamente dicha o nivel endémico, que


corresponde a la línea central del gráfico y representa la frecuencia
esperada promedio de casos en cada unidad de tiempo del año
calendario; expresa una medida resumen de tendencia central de la
distribución de datos observados (mediana, promedio, etc.).
 El límite superior, o umbral epidémico, que corresponde a la línea
superior del gráfico y representa la frecuencia esperada máxima de casos
en cada unidad de tiempo del año calendario; expresa una medida
resumen de dispersión de la distribución de los datos observados (cuartil
superior, desviación estándar, etc.).
 El límite inferior, o nivel de seguridad, que corresponde a la línea inferior
del gráfico y representa la frecuencia esperada mínima de casos en cada
unidad de tiempo del año calendario; expresa una medida resumen de
dispersión de la distribución de datos observados (cuartil inferior,
desviación estándar, etc.).

121
 El corredor o canal endémico, que corresponde a la franja delimitada
por los límites inferior y superior del gráfico y representa el rango de
variación esperado de casos en cada unidad de tiempo del año
calendario.
 La zona de éxito, que corresponde a la franja delimitada por la línea basal
(línea de frecuencia cero) y el límite inferior en cada unidad de tiempo del
año calendario.
 La zona de seguridad, que corresponde a la franja delimitada por el límite
inferior y la curva endémica propiamente dicha en cada unidad de tiempo
del año calendario.
 La zona de alarma, que corresponde a la franja delimitada por la curva
endémica propiamente dicha y el límite superior en cada unidad de tiempo
del año calendario.
 La zona de epidemia, que corresponde a la zona localizada por encima
del límite superior o umbral epidémico en cada unidad de tiempo del año
calendario.

En general, al monitorear el comportamiento actual de los casos notificados en


función del respectivo corredor endémico, cada cambio de una zona a otra
debería acompañarse de una acción correspondiente sobre el sistema de
vigilancia, desde la revisión de la validación de los datos de vigilancia y las visitas
de supervisión a las unidades notificadoras hasta la implementación de medidas
de emergencia.

Elaboración de un corredor endémico:

Para construir un corredor endémico se requiere contar con las frecuencias


semanales o mensuales de la enfermedad correspondiente a una serie de siete
o más años. En caso de tener años epidémicos, estos deben excluirse. El
número de años de observación depende de la regularidad o estabilidad con que
se presentan los casos de un año a otro y de la ocurrencia previa de brotes o
cambios drásticos en los sistemas de vigilancia y/o medidas de control; si se
sospecha inestabilidad, es recomendable considerar más años.

122
Existen diversos métodos para construir corredores endémicos, con distintos
grados de sofisticación y precisión, pudiendo hacerse tanto con casos como con
tasas de enfermedad.

A continuación, presentamos una técnica sencilla y útil que sigue los siguientes
tres pasos básicos:

1) Para cada unidad de tiempo en que se divide el año (semanas o meses), se


ordenan de menor a mayor las respectivas frecuencias observadas en la serie
de años. Por ejemplo, si tenemos la notificación mensual de casos para siete
años consecutivos, procedemos a ordenar en forma ascendente las frecuencias
observadas en todos los “eneros”; de la misma forma procedemos con los otros
11 meses. Con este paso se obtiene una serie cronológica (semanal o mensual)
de frecuencias ordenadas.

2) Se ubican los valores de posición de la mediana (Me), el primer cuartil (q1) y


el tercer cuartil (q3) en la serie cronológica de frecuencias ordenadas obtenida
en el primer paso. En nuestro ejemplo, obtendremos el valor de la Me, q1 y q3
para cada uno de los 12 meses del año; como la serie ya está ordenada y cada
mes tiene siete frecuencias, la Me de cada mes corresponde a los valores de la
cuarta columna de nuestra serie ordenada; el q1 a la segunda columna y el q3 a
la sexta columna. Con este paso obtenemos tres medidas resumen para cada
unidad de tiempo (semanas o meses) en que se divide el año.

3) Se grafican las tres medidas resumen por unidad de tiempo del paso anterior
en un eje de coordenadas en el cual el eje vertical representa la frecuencia de
casos y el eje horizontal las unidades de tiempo en que se divide el año y se
trazan los límites superior e inferior y el corredor endémico.

123
124

También podría gustarte