Está en la página 1de 55

b

UNIDAD ACADEMICA DE MEDICINA


LIC. MEDICO CIRUJANO

MATERIA:
EPIDEMIOLOGIA

RESUMENES

FACILITADOR:
Dra. NORMAYIN WENCES CALLEJAS

ALUMNA:
MUÑOZ CUEVAS DULCE OLIVIA

GRUPO:
504

19 DE JUNIO DEL 2017; ACAPULCO, GRO.


TEMA: DESCRIPCION DE LA SALUD DE LA POBLACION EN TERMINOS DE
MAGNITUD, PERSONA, LUGAR Y TIEMPO.

El objetivo de este tema es ser capaces de determinar a los individuos y la


población en riesgo, así como conocer la etiología de la enfermedad para
posteriormente elaborar hipótesis para el agente, fuente y modo de transmisión.

La magnitud se refiere a la identificación de las características de las personas (ya


sea divididas en grupos como edad y sexo), el comportamiento de los daños en el
transcurso del tiempo, para determinar tendencias y la variaciones en regiones o
área geográfica. Los criterios para clasificarlos son:

 Factor de riesgo determinante para la aparición del problema en la salud


familiar.
 Factor de riesgo condicionante para la aparición del problema de salud
familiar.
 Factor de riesgo, puede asociarse la aparición al problema o necesita
combinarse con otros factores para poder ocasionar daño a la salud
familiar.
 Factor de riesgo, sin relación con el problema o no provoca daño a la salud
familiar.

En la variable persona, se evalúan los rasgos, las cualidades y propiedades


individualmente. Se debe abarcar aspectos demográficos como lo son el sexo, el
grupo étnico y la edad, también se debe tener en cuenta el estilo de vida y la
economía de los mismos, así como su cultura.

En la variable lugar, influyen criterios como las características, los factores, las
condiciones y el área geográfica. El objetivo de esta variable es identificar la
distribución de la enfermedad analizando la relación entre el ambiente y el
habitante.

La variable tiempo, nos ayuda a identificar en que momento (mes o temporada del
año) alguna enfermedad en específico tiene mayor tendencia de aparecer y dañar
la salud de la familia.
EQUIPO 2

TIPOS DE ERRORES EPIDEMIOLÓGICOS


PROBABILÍSTICOS Y DE MUESTREO
ERRORES SISTEMÁTICOS: SESGOS DE SELECCIÓN, SESGOS DE INFORMACIÓN Y CONFUSIÓN

Un objetivo en todo estudio epidemiológico, en el que se desea conocer la frecuencia con la que
ocurre un evento o estimar la asociación entre un factor de riesgo y una enfermedad, debe ser el
de medir y calcular con la mayor precisión y exactitud posibles dichas determinaciones. En otras
palabras, la validez del conocimiento derivado de cualquier estudio epidemiológico dependerá, en
gran medida, de la ausencia de error y de la capacidad de estimar o predecir el parámetro
verdadero en la población blanco. En el contexto de la epidemiología, la validez se refiere a la
ausencia de sesgo o error. A lo largo del presente trabajo se hace referencia a dos tipos de validez:
a) la validez interna, que se refiere principalmente a los errores cometidos durante el proceso de
selección de la población de estudio, durante las mediciones que se realizan en dicha población o
a errores ocasionados por la falta de comparabilidad de los grupos estudiados, y b) la validez
externa, que se refiere a la capacidad del estudio de generalizar los resultados observados en la
población en estudio hacia la población blanco.

Todo estudio epidemiológico está sujeto a un cierto margen de error, por lo que será muy
importante conocer cuáles son sus fuentes principales y los diferentes procedimientos que pueden
ser utilizados para minimizar su impacto en los resultados. Los errores se pueden clasificar en dos
grandes tipos: los errores no aleatorios o sistemáticos y los errores aleatorios (no sistemáticos);
ambos tipos de error, de no controlarse adecuadamente, pueden comprometer la validez del
estudio. El error aleatorio (no sistemá- tico) ocurre cuando las mediciones repetidas, ya sean en un
mismo sujeto o en diferentes miembros de la población en estudio, varían de manera no
predecible, mientras que el error sistemático (no aleatorio) ocurre cuando estas medidas varían de
manera predecible y, por lo tanto, se tiende a sobre o subestimar el valor verdadero en medidas
repetidas.

Sesgos de selección

Son errores sistemáticos que se introducen durante la selección o el seguimiento de la población


en estudio y que propician una conclusión equivocada sobre la hipótesis en evaluación. Los errores
de selección pueden ser originados por el mismo investigador o ser el resultado de relaciones
complejas en la población en estudio que pueden no ser evidentes para el investigador y pasar
desapercibidas. En este contexto, una posible fuente de sesgo de selección puede ser cualquier
factor que influya sobre la posibilidad de los sujetos seleccionados de participar o permanecer en
el estudio y que, además, esté relacionado con la exposición o con el evento en estudio.
En los estudios retrospectivos los sesgos de selección pueden ocurrir cuando los participantes
potenciales o los investigadores conocen la condición de exposición y/o de enfermedad, y este
conocimiento influye diferencialmente la participación en el estudio.
Los estudios de casos y controles son particularmente susceptibles a este tipo de sesgo ya que en
la mayoría de sus aplicaciones se trata de estudios retrospectivos. En el contexto de este tipo de
estudios, cualquier factor que influya sobre la probabilidad de selección, ya sea como caso o
control, y que a su vez esté relacionado con la exposición en estudio, será una posible fuente de
sesgo de selección.
Sesgos de información

El sesgo de información se refiere a los errores que se introducen durante la medición de la


exposición, de los eventos u otras covariables en la población en estudio, que se presentan de
manera diferencial entre los grupos que se comparan, y que ocasionan una conclusión errónea
respecto de la hipótesis que se investiga. Una posible fuente de sesgo de medición puede ser
cualquier factor que influya de manera diferencial sobre la calidad de las mediciones que se
realizan en los grupos expuesto y no expuesto en el contexto de los estudios de cohorte o entre
los casos y controles en el contexto de los estudios de casos y controles. Es importante mencionar
que, aunque prácticamente no existen procedimientos libres de error de medición, no todos los
errores de medición son fuente de sesgo de información.
Es conveniente recordar que los errores de medición pueden ser no diferenciales (aleatorios)
cuando el grado de error del instrumento o técnica empleada es el mismo para los grupos que se
comparan y diferenciales (no aleatorios) cuando el grado de error es diferente para los grupos
estudiados, el sesgo de información se refiere particularmente a este último tipo.

Sesgos de confusión

El sesgo de confusión puede resultar en una sobre o subestimación de la asociación real. Existe
sesgo de confusión cuando observamos una asociación no causal entre la exposición y el evento
en estudio o cuando no observamos una asociación real entre la exposición y el evento en estudio
por la acción de una tercera variable que no es controlada. Esta(s) variable(s) se denomina(n)
factor(es) de confusión o confusor(es). Los resultados de un estudio estarán confundidos cuando
los resultados obtenidos en la población en estudio apoyan una conclusión falsa o espuria sobre la
hipótesis en evaluación, debido a la influencia de otras variables, que no fueron controladas
adecuadamente ya sea durante la fase de diseño o de aná- lisis. En este contexto, son fuente
posible de sesgo de confusión cualquier variable asociada con la exposición que, además, esté
causalmente asociada con el evento en estudio y que se encuentre distribuida de manera
diferencial entre los grupos que se comparan, ya sea entre expuestos y no expuestos en el
contexto de los estudios de cohorte o entre casos y controles en el ámbito de los estudios de casos
y controles.
En los estudios observacionales el sesgo de confusión se puede entender como un problema de
comparabilidad cuyo origen está ligado a la imposibilidad de realizar una asignación aleatoria de la
exposición en los sujetos de estudio. El objetivo de la asignación al azar de los tratamientos (de la
exposición) en los estudios experimentales es lograr la formación de grupos homogéneos en lo
que se refiere a todas las características que puedan influir en el riesgo de desarrollar el evento
(edad, sexo, masa corporal u otras características que no se puedan medir), lo que se busca lograr
es que los grupos sean similares en todo excepto en la exposición que se busca evaluar
EQUIPO 3

UNIVERSIDAD AUTONOMA DE ESTADO DE


GUERRERO

Unidad Académica de Medicina

Mejía Sánchez José Alberto


Rodríguez Muñoz Adrián
Liborio Bustos Sabdi Gustavo
Prestegui Martínez Cecilia Gabriela

Profesora: Dra. Wences Callejas Normayin

Asignatura: Epidemiologia.

Tema: Criterios de causalidad.

Semestre: _5º._Grupo:__”504”_
Acapulco, Gro, 01 de Mayo del 2017.
En epidemiología, la causalidad se define como el estudio de la
relación etiológica entre una exposición, por ejemplo la toma de un medicamento y
la aparición de un efecto secundario.

Los efectos pueden ser:

• Enfermedad

• Muerte

• Complicación

• Curación

• Protección (vacunas)

• Resultado (uso de métodos, cambio de prácticas, erradicación de una


enfermedad, participación en un programa, etc.)

Las causas o factores que influyen en el proceso salud-enfermedad de la


población requieren una investigación adecuada para prevenir la aparición de
efectos no deseados y controlar su difusión.

A continuación mencionamos algunos factores causales de enfermedades:

• Factores biológicos (edad, sexo, raza, peso, talla, composición genética, estado
nutricional, estado inmunológico).

• Factores psicológicos (autoestima, patrón de conducta, estilo de vida, respuesta


al estrés).

• Factores relacionados con el medio ambiente social y cultural (calentamiento


global, contaminación, cambios demográficos, estilo de vida, actividad física
durante el tiempo de ocio, pertenencia a una red social, acceso a servicios
básicos, hacinamiento, drogadicción, alcoholismo).

• Factores económicos (nivel socioeconómico, categoría profesional, nivel


educativo, pobreza, .

• Ámbito laboral (accidente de trabajo, empleo, pérdida del empleo, acceso a la


seguridad social, tensión laboral, contaminación sonora, condiciones del ambiente
de trabajo).

• Factores políticos (guerras, embargos, pago de la deuda externa, globalización,


invasión).
• Factores relacionados con el medio ambiente físico (geología, clima, causas
físicas, causas químicas, presencia de vectores, deforestación.

• Servicios de salud (acceso a servicios de salud, programas de control y


erradicación de enfermedades, vigilancia epidemiológica, vigilancia nutricional).

Las relaciones entre causa y efecto pueden esquematizarse de distintas maneras.

¿Por qué la búsqueda de las causas?

La búsqueda de la causa, tiene al menos dos justificaciones:

1. Si entendemos la causa podemos generar cambios. Podríamos definir la


relación causal entre la exposición y el efecto en términos del cambio que sufre el
último cuando se modifica el primero.

Una intervención intencional que altere la exposición puede ser exitosa en


modificar el efecto, sólo si la exposición es causa real del desenlace. La
exposición puede ser un excelente marcador o predictor del efecto, sin ser
necesariamente su verdadera causa. Esta es otra forma de decir que
la asociación no siempre es prueba de causalidad.

2. Estudiar la causa es aprender sobre los mecanismos. El conocimiento de los


mecanismos causales sirve como base para generar nuevas hipótesis y para
planear intervenciones que modifiquen los efectos.

Existen modelos para representar la relación entre una presunta causa y un


efecto.

• El modelo de Koch-Henle

• El modelo de Bradford-Hill

• Los postulados de Evans

El modelo de Koch-Henle

El modelo de Koch-Henle (1887): propuesto para el estudio de enfermedades


infecto-contagiosas. Se basa en la influencia de un microorganismo, que debe:
a) encontrarse siempre en los casos de enfermedad.

b) poder ser aislado en cultivo, demostrando ser una estructura viva y distinta de
otras que pueden encontrarse en otras enfermedades.

c) distribuirse de acuerdo con las lesiones y ellas deben explicar las


manifestaciones de la enfermedad.

d) ser capaz de producir la enfermedad en el animal de experimentación al ser


cultivado (algunas generaciones).

Este modelo resultó útil para enfermedades infecciosas, no así para las
enfermedades no infecciosas.

Inicio

El modelo de Bradford-Hill

El modelo de Bradford-Hill (1965), propone los siguientes criterios de causalidad,


en la búsqueda de relaciones causales para enfermedades no infecciosas:

• Fuerza de Asociación. determinada por la estrecha relación entre la causa y el


efecto adverso a la salud. La fuerza de asociación depende de la frecuencia
relativa de otras causas. La asociación causal es intensa cuando el factor de
riesgo está asociado a un alto riesgo relativo (RR). Los RR que pasan de un valor
de 2 se considera que expresan una fuerte asociación.

• Consistencia. la asociación causa-efecto ha sido demostrada por diferentes


estudios de investigación, en poblaciones diferentes y bajo circunstancias
distintas. Sin embargo, la falta de consistencia no excluye la asociación causal, ya
que distintos niveles de exposición y demás condiciones pueden disminuir el
efecto del factor causal en determinados estudios.

• Especificidad. una causa origina un efecto en particular. Este criterio, no se


puede utilizar para rechazar una hipótesis causal, porque muchos síntomas y
signos obedecen a una causa, y una enfermedad a veces es el resultado de
múltiples causas.

• Temporalidad. Obviamente una causa debe preceder a su efecto; no obstante, a


veces es difícil definir con qué grado de certeza ocurre esto. En general, el
comienzo de las enfermedades ocupacionales comprende un largo período de
latencia entre la exposición y la ocurrencia del efecto a la salud. Asimismo, otro
aspecto que influye en la temporalidad es la susceptibilidad de la persona
expuesta, y la utilización y eficacia de las medidas de prevención y control de
riesgos.

• Gradiente biológico (Relación dosis-respuesta). La frecuencia de la


enfermedad aumenta con la dosis o el nivel de exposición. La demostración de la
relación dosis-respuesta tiene implicaciones importantes:

a) Es una buena evidencia de una verdadera relación causal entre la exposición a


agente particular y un efecto en la salud.

b) Puede permitir demostrar que un factor de riesgo en particular se relacione a un


efecto adverso a la salud, y determinar que en niveles de exposición a ese agente
causal por debajo del valor que lo produce, es más improbable o incluso imposible
que ocurra el efecto en la salud.

c) La relación dosis efecto puede verse modificada o ausente por el efecto del
umbral del compuesto o un efecto de saturación; o deberse completamente a una
distorsión graduada o a un sesgo; lo cual puede dificultar la interpretación de este
criterio.

• Plausibilidad biológica. El contexto biológico existente debe explicar


lógicamente la etiología por la cual una causa produce un efecto a la salud. Sin
embargo, la plausibilidad biológica no puede extraerse de una hipótesis, ya que el
estado actual del conocimiento puede ser inadecuado para explicar nuestras
observaciones o no existir.

• Coherencia. Implica el entendimiento entre los hallazgos de la asociación causal


con los de la historia natural de la enfermedad y otros aspecto relacionados con la
ocurrencia de la misma, como por ejemplo las tendencias seculares. Este criterio
combina aspectos de consistencia y plausibilidad biológica.

• Evidencia Experimental. es un criterio deseable de alta validez, pero rara vez


se encuentra disponible en poblaciones humanas.

• Analogía. se fundamenta en relaciones de causa-efecto establecidas, con base


a las cuales si un factor de riesgo produce un efecto a la salud, otro con
características similares pudiera producir el mismo impacto a la salud.

• Otros criterios adicionales. Debe considerarse:

Similar tamaño y distribución de la población o muestra.

Variación notoria del efecto en las poblaciones.

Reversibilidad. Si se retira la causa, cabe esperar que desaparezca o al


menos disminuya el efecto a la salud.
Juicio crítico sobre las evidencias, con base estricta en el conocimiento
científico.

Los postulados de Evans

En 1976, Evans propuso los siguientes postulados:

1. La proporción de individuos enfermos debería ser significativamente mayor


entre aquellos expuestos a la supuesta causa, en comparación con aquellos que
no lo están.

2. La exposición a la supuesta causa debería ser más frecuente entre aquellos


individuos que padecen la enfermedad que en aquellos que no la padecen.

3. El número de casos nuevos de la enfermedad debería ser significativamente


mayor en los individuos expuestos a la supuesta causa en comparación con los no
expuestos, como se puede comprobar en los estudios prospectivos.

4. De forma transitoria, la enfermedad debería mostrar tras la exposición a la


supuesta causa, una distribución de los períodos de incubación representada por
una curva en forma de campana.

5. Tras la exposición a la supuesta causa debería aparecer un amplio abanico de


respuestas por parte del hospedador, desde leves hasta graves, a lo largo de un
gradiente biológico lógico.

6. Previniendo o modificando la respuesta del huésped, debe disminuir o


eliminarse la presentación de la enfermedad (por ej.: vacunando o tratando con
antibióticos a una población expuesta o enferma).

7. La reproducción experimental de la enfermedad debería tener lugar con mayor


frecuencia en animales u hombres expuestos adecuadamente a la supuesta
causa, en comparación con aquellos no expuestos; esta exposición puede ser
deliberada en voluntarios, inducida de forma experimental en el laboratorio o
demostrada mediante la modificación controlada de la exposición natural.

8. La eliminación (por ejemplo la anulación de un agente infeccioso específico) o la


modificación (por ejemplo la alteración de una dieta deficiente) de la supuesta
causa debería producir la reducción de la frecuencia de presentación de la
enfermedad.

9. La prevención o la modificación de la respuesta del hospedador (por ejemplo,


mediante inmunización) debería reducir o eliminar la enfermedad que
normalmente se produce tras la exposición a la causa supuesta.
10. Todas las relaciones y asociaciones deberían de ser biológica y
epidemiológicamente verosímiles.

Inicio

Tipos de causas

Causa suficiente: Si el factor (causa) está presente, el efecto (enfermedad)


siempre ocurre.

Causa necesaria: Si el factor (causa) está ausente, el efecto (enfermedad no


puede ocurrir.

Factor de riesgo: Si el factor está presente y activo, aumenta la probabilidad que


el efecto (enfermedad) ocurra.

La existencia de una asociación epidemiológica significativa (riesgo relativo


superior a dos) es uno de los criterios para proponer una relación causa - efecto;
hay que tener en cuenta, que no es el único.

Tipos de relación o asociación causa - efecto

Las relaciones causa - efecto pueden ser:

Relación o asociación causal directa: El factor ejerce su efecto en ausencia de


otros factores o variables intermediarias. En este caso se habla de una
relación necesaria y suficiente.

Ejemplo: muy rara en procesos biológicos o médicos

Relación o asociación causal indirecta: El factor ejerce su efecto vía factores o


variables intermediarias.
Necesaria y no suficiente: Cada factor es necesario, pero no es suficiente para
producir la enfermedad. Ejemplo: virus del papiloma humano y cáncer del cuello
uterino, bacilo de Koch y tuberculosis.

Ejemplo: virus del papiloma humano y cáncer del cuello uterino, bacilo de Koch y
tuberculosis.

No necesaria y suficiente: El factor puede producir la enfermedad, pero también


otros factores que actúan solos. Ejemplo: leucemia puede ser producida por
exposición a la radiación y por exposición al benceno.

Ejemplo: leucemia puede ser producida por exposición a la radiación y por


exposición al benceno

No necesaria y no suficiente: Ningún factor por sí solo es necesario ni suficiente.


Ejemplo: la mayoría de enfermedades crónicas como diabetes mellitus,
hipertensión arterial.

Ejemplo: la mayoría de enfermedades crónicas como diabetes mellitus,


hipertensión arterial.

Relación o asociación no causal: La relación entre dos variables es


estadísticamente significativa, pero no existe relación causal, sea porque la
relación temporal es incorrecta (la presunta causa aparece después y no antes del
presunto efecto) o porque otro factor es responsable de la presunta causa y del
presunto efecto (confusión).
EQUIPO 4

COMPONENTES DE LA INVESTIGACIÓN EPIDEMIOLOGICA.


a) Planteamiento del problema
Alumnos:
Gómez Zuñiga Victor Manuel
Patricio Galeana Ana Bárbara
Rodríguez Díaz Michelle Hannae
Solís Hernández Raúl
EL PROBLEMA CIENTIFICO
Si se pidiera al investigador, cualquiera que sea su campo científico, que
describieran lo que hizo durante su actividad de investigación, el contestaría casi
de manera invariable que ha "respondido a una pregunta".
La pregunta constituye, entonces, no sólo la ya que permite diseñar
metodológicamente el camino a la investigación; es, en pocas palabras, la parte
medular de la investigación. Todo acto de creación científica, por lo tanto, implica
la resolución de un problema. Pero, ¿Cómo surge un problema científico? ¿Existe
un programa de reglas que te crezca el planteamiento de problemas científicos?,
¿Este programa es línea lógica y ordenada?
El científico y filósofo Peter Medawar, Premio Nobel de Medicina, responde que
no. No existe un único sistema único y uniforme que indique la manera en que
pueden "descubrirse" y plantearse problemas científicos.
Para abordar las condiciones en la que una pregunta se convierte en un problema
científico, es necesario, sin negar la importancia de la formalización, enfatizar el
carácter colectivo (a veces ilógico, intuitivo y azaroso) de la actividad científica.
¿De qué depende la creación científica?
Dice Burge que, en primer lugar, el investigador requiere estar inmerso en el
campo de conocimientos que conforman el marco en el que el problema se
presenta. Es decir, es necesario que pueda “moverse” con facilidad entre la
información que existe sobre el tema. Un médico jamás se preguntará sobre un
problema de matemáticas complejo, a menos que en la práctica sea término
matemático, y viceversa. Además cuando un profesional se hace una pregunta
sobre un tema extraño a su campo de actividad, es muy posible que tal problema
éste ya resuelto y que constituye y no una laguna de conocimiento general, sino
una laguna en el conocimiento del propio profesional.
Para que una pregunta sea científica, su respuesta debe ser desconocida para
toda la comunidad científica. Debe cubrir lo que se llama una “laguna objetiva” del
conocimiento. Por el contrario las lagunas o “subjetivas” del conocimiento se
resuelven con la lectura de un buen texto de un buen artículo.
Pero difícilmente planteará problemas relevantes quien desconozca fondo el área
en la que se aplican y se fue a los principios, teorías y conceptos de su campo
profesional. Tampoco podrá proponer explicaciones alternativas ante el
surgimiento de un hecho inesperado fue el hallazgo de incongruencias entre las
diversas teorías establecidas.
Para ello dice Medawar que es el investigador quién debe ser capaz de dudar
sistemáticamente de lo que se da por cierto y de desconfiar de lo establecido. En
ocasiones según Bunge, y de poco sirve saber mucho si el saber no alcanza para
plantear algo nuevo. El científico, el verdadero, por lo general es una mezcla de
erudito, coleccionista, detective y aventurero. Se acerca con una gran confusión a
los límites del conocimiento aceptado sólo para romperlos después.
Lo anterior no significa, empero, que el científico no sea un hombre ordinario. Las
características anteriores valen para su actividad profesional. Fuera está el
hombre de ciencia está en común como cualquier ser humano.
Quizás una característica que sí es especial en el investigador se a su disposición
al trabajo. La investigación significa veces mucho tiempo invertido, que parece
desperdiciado cuando la respuesta no llega o llega mal. El trabajo científico en
ocasiones no sólo es arduo y penoso sino infructuoso.
En suma, hacer investigación requiere experiencia, dominio teórico del campo de
trabajo y sobre todo una fuertes de creatividad, paciencia y autocrítica.
Sí, es evidente que todo proceso investigación implica la existencia de un hueco
en el conocimiento objetivo o una contradicción en las explicaciones sobre el
mundo ¿Por qué razón no todos pueden plantearse adecuadamente una pregunta
científica?
Todo parece indicar en que el planteamiento de problemas, además de ser un
ejercicio creativo de búsqueda, observación, imaginación, síntesis de invención
inmerso en una realidad parcialmente desconocida, se ajusta a ciertos modelos
que los propios científicos han elaborado mandó su experiencia en la búsqueda de
aproximaciones más finas y mejores a la verdad.
Estos modelos resultan de la experiencia acumulada en decenas de generaciones
de científicos y forman parte, aunque pocas veces se menciona, en de la
estrategia inventada por los investigadores para acercarse más fácilmente los
objetos de estudio. Esta estrategia se conoce genéricamente como método
científico.
Sí, como Ackoff afirma la mitad de la investigación consiste el planteamiento
adecuado del problema, la otra mitad comprende la aplicación correcta del
método. Un problema claramente planteado y un método correctamente
desarrollado constituyen la mejor garantía de la calidad de una investigación.
Sin embargo no siempre es posible plantear claramente un problema. Ello se debe
a que con frecuencia el científico sólo tiene una idea general y vaga sobre el
mismo. Lo anterior se resuelve cuando el investigador revisa la información
existente sobre el tema de estudio, delimitando de modo cada vez más fino las
relaciones que existen entre un confuso problema de investigación y el
conocimiento aceptada sobre el mismo.
Conforme el investigador se acerca los límites objetivos del conocimiento, le
resultara cada vez más claros un problema de investigación. Con ello, es posible
que parece muerto sepa realmente qué es lo que intenta hacer, cumpliendo un
principio fundamental en el planteamiento del problema que enuncia Kerlinger de
siguiente manera: “si se de ser sólo un problema, es preciso saber de qué se trata
el problema”.

LA HIPÓTESIS Y EL PLOBLEMA DE INVESTIGACIÓN.


A medida que el investigador posee mayor información sobre el problema que
intenta delimitar, necesariamente se acerca a las diferentes explicaciones que hay
sobre los fenómenos involucrados. Cuando no existe una explicación satisfactoria
sobre el fenómeno que investiga o hay varias y estas son contradictorias, el
investigador debe elaborar una explicación propia. El investigador debe definir una
hipótesis.
Las hipótesis son explicaciones tentativas, provisionales sobre un fenómeno. Se
caracterizan porque expresan las relaciones probables que hay entre dos o más
variables. En la investigación científica constituyen un elemento central, ya que sin
ellas es imposible guiar un proceso de investigación.
La hipótesis facilita el tratamiento científico inicial de un problema debido a que
además de permitir establecer relaciones entre variables, indican claramente la
manera en que estas relaciones pueden ser verificadas.
Las hipótesis científicas son por naturaleza comprobables a fin de demostrar su
verdad o falsedad, y constituyen un complemento del problema de investigación y
están profundamente relacionadas con él y con el marco teórico que hay a su
alrededor.
Las hipótesis poseen una característica muy importante para no prescindir de ellas
al plantear un problema: tienen la capacidad de predecir fenómenos. P.ejm.
Cuando un científico afirma que “si ocurre X” sucederá “Y”, lo que hace es una
predicción causal. Si logra que cuando ocurra X, ocurra también Y, confirmará la
hipótesis.

EL PROBLEMA CIENTIFICO EN MEDICINA


En medicina el planteamiento de un problema puede basarse en diversos
intereses como:
.-establecer las magnitudes de una variable biológica
.-conocer la utilidad de un nuevo método de diagnóstico o de tratamiento
.-pronosticar más certeramente el curso de un padecimiento o la probabilidad de
que se presente una complicación
El planteamiento de problemas médicos surge de observaciones y razonamientos
pero siempre deriva de la observación de situaciones que la teoría no contiene
que no espera o que contradice
Kretschmer señala que "...el investigador primeramente reconoce los hechos y,
por un proceso de selección o de lo que considera relevante y supresión genera
una pregunta coherente. Es probable que ahí se encuentre la parte más
genuinamente creativa de la investigación científica

Temas:
- Medidas de asociación o de efecto
- Medidas de asociación de impacto potencial
Integrantes del equipo:
- Guzmán Palacios Gilberto
EQUIPO # 6

Las medidas de asociación son indicadores epidemiológicos que evalúan la fuerza


con la que una determinada Enfermedad o evento de salud (que se presume como
efecto) se asocia con un determinado factor (que se presume como su causa).

Epidemiológicamente, las medidas de asociación son comparaciones de


incidencias: la incidencia de la enfermedad en las personas que se expusieron al
factor estudiado (o incidencia entre los expuestos) contra la incidencia de la
enfermedad en las personas que no se expusieron al factor estudiado (o
incidencia entre los no expuestos). Estadísticamente, lo que estos indicadores
miden es la magnitud de la diferencia observada.
Nos permite establecer, sin ninguna duda, que el efecto (el evento o enfermedad)
es posterior a la causa (la exposición). En estos casos puede estimarse la
asociación entre el evento y la exposición al comparar las prevalencias a partir de
la razón de prevalencias (RP) o de productos cruzados (RPC).

En general, hay dos tipos de medidas de asociación: las de diferencia (o de efecto


absoluto) y las de razón (o de efecto relativo).

Medidas de diferencia

Como indica su nombre, estas medidas expresan la diferencia existente en una


misma medida de frecuencia (idealmente la incidencia) entre dos poblaciones.

En general, las medidas de diferencia indican la contribución de un determinado


factor en la producción de enfermedad entre los que están expuestos a él.

Estas medidas se calculan de la siguiente manera:

Diferencia = Ei - Eo x 100

Donde:
Valor

Ei es la frecuencia de enfermar o morir de un grupo expuesto, y

Eo es la frecuencia de enfermar o morir en el grupo no expuesto.

El resultado se interpreta de la siguiente forma:

1 indica ausencia de asociación, no-asociación o

Valor =0 indica no-asociación (valor nulo).


Valores <0 indica asociación negativa y puede tomar valores
negativos hasta infinito.
Valores >0 indica asociación positiva y puede tomar valores
positivos hasta infinito.

La diferencia de prevalencia (DP), usada en estudios transversales, puede ser


en algunas condiciones un estimador aceptable de la diferencia de incidencia,
pero sus resultados sólo indican asociación y no causalidad.
Medidas de razón
Estas medidas también cuantifican las discrepancias en la ocurrencia de
enfermedad en grupos que difieren en la presencia o no de cierta característica.
Como se señaló antes, una razón puede calcularse tanto para dos eventos en una
misma población como para un solo evento en dos poblaciones. Las razones que
con mayor frecuencia se calculan son del segundo tipo, y se obtienen con la
siguiente fórmula:
Razón= medida de frecuencia en un grupo expuesto (E i) medida de frecuencia de
un grupo no expuesto (Eo)
La razón representa cuántas veces más (o menos) ocurrirá el evento en el
grupo expuesto al factor, comparado con el grupo no expuesto. El resultado se
interpreta de la siguiente forma:

La incidencia y la mortalidad son las medidas de frecuencia más empleadas en la


construcción de las medidas de razón.
Con la densidad de incidencia se obtiene la razón de densidad de incidencia
(RDI), y con la incidencia acumulada se obtiene la razón de incidencia acumulada
(RIA) también llamado riesgo relativo (RR).
Ambas medidas que se obtienen en estudios de cohorte permiten asumir
inferencia etiológica, ya que siempre implican la posibilidad de establecer
adecuadamente una relación de temporalidad causal.
Razón de densidad de incidencia
Esta medida es útil para identificar la velocidad con la que se pasa del estado
sano al de enfermo según se esté expuesto o no a determinado factor.
Razón de incidencia acumulada o riesgo relativo
Compara el riesgo de enfermar del grupo de expuestos (IA i) con el riesgo de
enfermar del grupo de no expuestos (IAo). Es útil si lo que se desea es conocer la
probabilidad de padecer la enfermedad en función de la exposición, y es la medida
que mejor refleja su aso-ciación.

IAi a/ni
RR
= =
c/n
IAo o

Donde,
IAi es la incidencia acumulada o riesgo de enfermar entre los expuestos, y
IAo es la incidencia acumulada o riesgo de enfermar entre los no expuestos (para
observar gráficamente la ubicación de las celdas a, c, ni y no, véase la tabla de 2
X 2).
Razón de prevalencias
La razón de prevalencias (RP) se utiliza en los estudios transversales y se calcula
de forma similar a la estimación del RR en los estudios de cohorte. Si la duración
del evento que se estudia es igual para expuestos y no expuestos, la RP puede
ser buen estimador de la velocidad con la que se pasa del estado sano al de
enfermo, pero, en general, esta medida subestima la RDI.
Razón de productos cruzados
La razón de productos cruzados (RPC u OR) se estima en los estudios de casos y
controles donde los sujetos son elegidos según la presencia o ausencia de
enfermedad, desconociéndose el volumen de la población de donde provienen por
lo que no es posible calcular la incidencia de la enfermedad.

La RM es un buen estimador de la RDI, sobre todo cuando los controles son


representativos de la población de la que han sido seleccionados los casos. La
RM también puede ser un buen estimador del RR. Esta medida se calcula
obteniendo el cociente de los productos cruzados de una tabla tetracórica:
a/c ad

RPC= b/d = bc

donde,

casos controles

Total de
presente a b expuestos (ni)

Exposición ausente c d Total de no


expuestos (n o)

Total (mi) Total (mo) Total de


sujetos (n)
El resultado se interpreta de la misma forma que en el resto de las medidas de
razón. Cuando la OR tiene un valor de 1 (o nulo), el comportamiento del factor es
indiferente; si el valor es superior a 1, el factor puede considerarse como de
riesgo, y si es inferior a 1 es valorado como factor protector.
Medidas de impacto potencial
Las principales medidas de impacto potencial son el riesgo atribuible (o fracción
etiológica), que se es-tima cuando el factor de exposición produce un incremento
en el riesgo (RR>1), y la fracción prevenible, relacionada con factores que
producen una disminución en el riesgo (RR<1).
Riesgo atribuible
El término que se usa con mayor frecuencia y que es más conservador es el
riesgo atribuible proporcional. Para esta última medida se han derivado dos
dimensiones, el Riesgo Atribuible Proporcional en el grupo Expuesto (RAPExp) y
el Riesgo Atribuible Proporcional en la Población blanco (RAPP).
El RAPExp tiene interpretación en el ámbito de la población en estudio, mientras
que el RAPP expresa la importancia en el ámbito poblacional, o población blanco.
El RAPExp estima la proporción de eventos en el grupo expuesto que se pueden
atribuir a la presencia del factor de exposición.
El RAPExp se puede calcular utilizando la siguiente fórmula:
RAPexp= DIE-DINE = RDI-1
DIE RDI
Donde:
DIE=Densidad de incidencia en expuestos, DINE= Densidad de incidencia en no
expuestos, y RDI= Razón de densidad de incidencia
El RAPExp se puede estimar también en estudios donde la medida de frecuencia
es la incidencia acumulada, utilizando el riesgo relativo. Además, dado que la
razón de momios es un buen estimador de la RDI, el RAPexp también se puede
estimar en los estudios de casos y controles, utilizando la siguiente fórmula:
RAPexp= RM-1

RM
Mediante el cálculo del RAPExp y del RAPP es posible identificar diversos
escenarios:
a) Con un RR alto y una prevalencia de expuestos alta, la reducción del riesgo
de enfermedad puede considerarse como de alto impacto.
b) Cuando el RR es bajo y la prevalencia de expuestos es alta, la supresión
del factor de riesgo posee un impacto moderado, pero notable entre los ex-
puestos.
c) Cuando el RR es alto pero la prevalencia de ex-puestos es baja, la
eliminación del factor de riesgo tiene un impacto relativamente bajo tanto
entre la población blanco como entre los expuestos, y
d) Cuando el RR es bajo y la prevalencia de expuestos también es baja, la
eliminación del factor de riesgo no es una prioridad en salud pública, ya que
su impacto en la población blanco y en los expuestos sería irrelevante.

Fracción prevenible
Esta medida se aplica cuando a partir de las medidas de asociación se obtienen
factores protectores o negativos (RR < 1). También existen dos modalidades:
fracción prevenible poblacional y fracción prevenible entre expuestos.
La fracción prevenible poblacional es la proporción de casos potenciales que
serían realmente prevenibles o evitados si existiera la exposición entre la
población.

Finalmente, la fracción prevenible para los expuestos es decir, es la proporción de


casos expuestos potenciales que realmente se evitarían si la población se
expusiera al factor protector

RESUMEN: EQUIPO 7
ESTUDIOS TRANSVERSALES
Los estudios transversales son diseños observacionales de base individual que
suelen tener un doble componente descriptivo y analítico. Cuando predomina el
primer componente se habla de estudios transversales descriptivos o de
prevalencia, cuya finalidad es el estudio de la frecuencia y distribución de eventos
de salud y enfermedad. El objetivo de este diseño es medir una o más
características o enfermedades en un momento dado de tiempo; por ejemplo:
prevalencia de accidentes laborales; número de cursos de capacitación realizados
por trabajador; prevalencia de disfonía en profesores; nivel de satisfacción de los
usuarios de un servicio; prevalencia de consumo de cigarrillo en la empresa,
prevalencia de obesidad, etc. A través de este diseño se puede identificar los
elementos básicos en epidemiología: persona (trabajador), lugar (ambiente
laboral), tiempo (antigüedad a la exposición) y características relativas al agente
(factor de riesgo) relacionados con el evento.
El diseño de prevalencia es de gran utilidad por su capacidad para generar
hipótesis de investigación, estimar la prevalencia de eventos de salud o
enfermedad (es decir, la proporción de individuos que sufre el evento en una
población en un momento determinado), así como identificar posibles factores de
riesgo para algunas enfermedades. El diseño transversal además de estimar la
prevalencia de un evento en salud, se utiliza para investigar la asociación entre
una determinada exposición y una enfermedad. En este último caso se conocen
como estudios transversales analíticos. Una diferencia básica entre ambos es que
en el diseño transversal la variable resultado (enfermedad o condición de salud) y
las variables de exposición (características de los sujetos como hábito de fumar,
edad, sexo, Elaborado por Verónica Iglesias nivel socioeconómico) se miden en
un mismo momento. Como ejemplos se tiene el análisis de la relación entre stress
(evento) y la condición socioeconómica (exposición); la relación entre actividad
física (exposición) y obesidad (evento); hipertensión arterial (evento) y el nivel
socioeconómico (exposición), y la relación ruido (exposición) e infarto agudo al
miocardio (evento). A diferencia de los estudios de cohorte, en los cuales se
realiza el seguimiento de sujetos expuestos y la ocurrencia de eventos nuevos por
un período determinado de tiempo, en el diseño transversal se obtiene la medición
de la exposición y evento de interés en los sujetos de estudio en un momento
dado. Por este motivo, no es posible determinar si el factor de exposición en
estudio precedió al efecto, salvo en el caso de exposiciones que no cambian con
el tiempo. Su limitación para establecer causalidad entre exposición y efecto, se
compensa por su flexibilidad para explorar asociaciones entre múltiples
exposiciones y múltiples efectos. El diseño transversal es útil para estudiar
enfermedades de larga duración, como es el caso de enfermedades crónicas. Este
diseño no es adecuado para el estudio de enfermedades (o exposiciones) que se
presentan con poca frecuencia en una población (enfermedades raras o con baja
prevalencia) o que son de corta duración, debido a que sólo captarían información
sobre un número reducido de individuos que las padezcan. A pesar de sus
limitaciones, el diseño transversal es muy utilizado, ya que su costo es
relativamente inferior al de otros diseños epidemiológicos, como los estudios de
cohorte, y proporcionan información importante y en forma rápida para la
planificación y administración de los servicios de salud.
. Población y muestra
Se define como población base del estudio aquella a la que el estudio hace
referencia por ejemplo trabajadores de una determinada empresa, mujeres
trabajadoras del agro, recién nacidos, hijos de madres fumadoras, etc. En la
mayoría de los estudios no se obtiene información de todos los sujetos que
integran la población bajo estudio, sino sobre un grupo de ellos llamado muestra.
La muestra seleccionada debe reflejar las características de la población base que
se busca estudiar; por ejemplo, si se quiere determinar la prevalencia de obesidad
en una empresa y los factores de riesgo asociados, se debe incluir sujetos
provenientes de todos los sitios de trabajo (gerencia, ejecutivos, administrativos,
etc). Si al investigador le interesa estudiar características de algún subgrupo
específico de la población, en ese caso se puede aumentar la proporción de
sujetos en la muestra que pertenecen a ese subgrupo.
Cálculo del tamaño de muestra
Para determinar el tamaño de muestra el investigador necesita fijar algunos
criterios y, además conocer ciertos datos de la población. Los criterios que el
mismo fija son: el nivel de significancia estadística, cuyo valor mayormente
aceptado es 95%; la precisión (d), es decir, en cuanto acepta que difiera el
Elaborado por Verónica Iglesias porcentaje de la muestra del P del Universo, en
otras palabras cual es la amplitud del intervalo que él está dispuesto a aceptar
para el parámetro. Finalmente se requiere tener una idea acerca de la prevalencia
de la característica en la población o de la varianza si se trata de alguna medición
de tipo cuantitativo. La seguridad (nivel de significancia) y la precisión compiten
entre sí, por lo que debe llegarse a una combinación aceptable que asegure que el
tamaño de muestra sea factible de estudiar desde el punto de vista de los recursos
y del tiempo disponible

La fórmula general es:

Donde:
n = tamaño de muestra
z = es el valor de la desviación normal, igual a 1.96 para un nivel de Significación
del 5%
P = Prevalencia de la característica en la población
Q=1–P
d = precisión (en cuanto se aleja la muestra del verdadero porcentaje del
universo.
Suponiendo que se desea estimar la prevalencia de obesidad en la población,
con una confianza del 95% y una precisión de 5%. Basándose en la información
disponible en otros estudios, se estima que P = 25%.

Reemplazando en la formula se obtiene:


n = 1.962
(25*75) = 288
52
Esto significa que necesitamos una muestra de 288 personas para estimar con un
95% de confianza la prevalencia de obesidad, no alejándose más del 5% del
verdadero porcentaje del universo.
En la siguiente tabla se muestran diferentes tamaños muéstrales necesarios para
que el intervalo de confianza al 95% incluya la verdadera prevalencia, en dos
escenarios de precisión del estudio.

El tamaño de muestra se calcula de tal forma que permita estimar, con un


determinado poder y nivel de confianza, la prevalencia de alguna enfermedad o
alguna característica de la población. Un tamaño de muestra pequeño no
permitirá que el estudio tenga el poder suficiente para encontrar asociaciones
significativas entre las variables de exposición y resultado, y un tamaño
excesivo ocasionará gasto innecesario de recursos y tiempo.

Métodos de muestreo
Una vez determinado el tamaño de muestra es necesario identificar el método que
se utilizará para seleccionar a los participantes. Para ello existen diversos métodos
de muestreo:

a) Muestreo aleatorio simple (MAS): se denomina muestreo aleatorio simple a


un método para seleccionar n unidades de las N unidades del universo, de modo
que cada una de las muestras posibles de tamaño n tienen la misma posibilidad
de ser seleccionada. Supongamos que una empresa con oficinas en varias
regiones del país desea hacer un estudio sobre la prevalencia de obesidad y los
factores de riesgo asociados. Se ha determinado que la población base es de
6000 personas y el tamaño de muestra requerido es de 300 individuos. Para
seleccionar la muestra es necesario contar con un marco muestral, es decir una
lista completa de las unidades de muestreo. Una alternativa simple es hacer una
ficha con los 6000 nombres, meter las fichas en una bolsa y sacar las 300 fichas
necesarias sin reemplazo. Otra alternativa es armar una base de datos con los
6000 sujetos y utilizando un paquete estadístico adecuado solicitarle una muestra
del tamaño requerido.
La probabilidad de selección en cada unidad está dada por la expresión:
Denominada fracción de muestreo, donde n representa el tamaño de la muestra y
N, el tamaño del universo. Ventajas: Todos los elementos tienen igual probabilidad
de ser elegidos y los cálculos matemáticos son sencillos. Desventajas: Se requiere
un marco muestral completo y detallado; la muestra puede quedar muy dispersa y
puede ser necesario visitar una región por un solo elemento.

b) Muestreo sistemático (MS): es un procedimiento especialmente útil cuando


los elementos del universo están ordenados de alguna manera: archivos de fichas
clínicas, listas de alumnos, etc. Este método se caracteriza por la selección de
unidades tomando una de cada k unidades, siendo k el espaciamiento de
muestreo dado por la expresión:

Donde “N” corresponde al tamaño de la población y n al tamaño de la muestra.


El procedimiento consiste en tomar un número en forma aleatoria dentro de las k
primeras unidades. A esta primera unidad de muestreo seleccionada se denomina
unidad de arranque. Para seleccionar las siguientes unidades que formarán la
muestra, se le suma a la unidad de arranque k, 2k, 3k, etc., hasta obtener el
tamaño de muestra deseado. En nuestro ejemplo el espaciamiento de muestreo
estaría dado por k = 6000 / 300 es igual a 20. Por lo tanto elegimos un número en
forma aleatoria entre 1 y 20. Supongamos que el número elegido fue 5, a esa
unidad de arranque (5) se le suma el intervalo de muestreo (20) entonces la
muestra queda constituida por las unidades 5, 25, 45, 65, etc procediéndose de
igual forma para el resto de las unidades seleccionadas. Ventajas: rápido y
sencillo; garantiza la distribución de la muestra; no necesita numeración de las
unidades, sólo un ordenamiento físico que permita el recuento Desventajas: No
sirve si hay un ordenamiento en el marco muestral o si se presenta algún
comportamiento periódico, por ejemplo que cada 10 números impares se registre
un gerente.
c) Muestreo aleatorio estratificado (MAE): consiste en clasificar a todos los
elementos de la población en grupos (estratos) y seleccionar luego en cada grupo,
una muestra aleatoria simple, tomando al menos un elemento de cada grupo. Los
estratos pueden reflejar distintos grupos de edad, regiones geográficas, sexo,
diferente grado de exposición, etc. En nuestro ejemplo, se pueden formar estratos
de acuerdo al cargo u ocupación en la empresa, por ejemplo gerencia, personal
administrativo y personal de terreno. En caso que los estratos sean de diferente
tamaño se puede utilizar el siguiente procedimiento para seleccionar la muestra.
El porcentaje con el que contribuye cada estrato al total del universo, se aplica al
tamaño de la muestra calculado n y ese es el número de elementos que debe
tomarse de cada estrato. Ventajas: la estimación de los parámetros puede tener
un menor error que el obtenido para una muestra aleatoria simple de tamaño
comparable; asegura la participación de todos los estratos.
Desventajas: se requiere un marco muestral detallado por estrato, mayor
complejidad de los cálculos.
d) Muestreo de Conglomerados (MC): En este tipo de muestreo las unidades de
muestreo son agrupaciones tales como escuelas, fábricas, manzanas, llamadas
conglomerados. En nuestro ejemplo los conglomerados serían las oficinas de la
empresa distribuidas en varias regiones del país. En términos generales la
característica que define un conglomerado es su proximidad geográfica, al reunir
varios elementos en una misma área. Un conglomerado no implica
necesariamente la homogeneidad que se requiere en el estrato y representa más
bien una facilidad operativa. De hecho se busca que sean heterogéneos al interior
de cada conglomerado y homogéneos entre sí. Ventajas: la principal ventaja del
muestreo por conglomerados es de índole económica, pues permite obtener los
datos sin necesidad de grandes desplazamientos en el terreno. 3.5. Sesgos más
comunes en los estudios de diseño transversal Se conoce como sesgo a cualquier
desviación que pueda conducir a conclusiones que son sistemáticamente
diferentes de la verdad. Estos sesgos se pueden producir durante el proceso de
elaboración del proyecto (sesgo de selección de los participantes), durante la
recolección de la información (sesgo de información), o bien durante el análisis.
Algunos de los sesgos más comunes en el diseño transversal son: a) Muestreo
con sesgo de duración: este sesgo ocurre debido a que en el estudio de diseño
transversal generalmente se sobrerrepresenta a los casos con larga duración de la
enfermedad y se subrepresenta aquéllos de corta duración. Por ejemplo, una
persona con enfermedad crónica tiene mayor posibilidad de ser incluida en un
estudio que una persona que se enferma y recupera rápidamente quien
difícilmente será incluida en el grupo prevalente. b) Sesgo de información: sesgo
que puede ocurrir debido al cambio en el nivel de exposición a través del tiempo,
por ejemplo un trabajador que se registra como no expuesto en el momento que
se realiza el estudio, sin embargo 5 o 10 años atrás trabajaba en el sitio de mayor
exposición. También es importante considerar que si la exposición produce
enfermedad leve y de larga duración –aun cuando no produzca riesgo de
enfermar– la frecuencia de exposición será elevada en los casos y, por lo tanto, de
aparente mayor riesgo. En cambio, si la exposición produce una alta letalidad de la
enfermedad, entonces la frecuencia de exposición será muy baja entre los casos y
la asociación exposición-enfermedad puede resultar negativa, aún cuando en
realidad la exposición no resulte en menor riesgo de enfermar. c) Sesgo de
selección: aquel que se produce al momento de reclutar a los participantes del
estudio. Por ejemplo si aquellos individuos que aceptan participar en el estudio
presentan una menor o mayor exposición, o menor o mayor enfermedad en
comparación con la población base, entonces los Elaborado por Verónica Iglesias
resultados obtenidos no serán válidos. Una de las estrategias para tratar de evitar
este sesgo es realizar un muestreo probabilístico o aleatorio en el que todos los
individuos que conforman la población bajo estudio tengan la misma probabilidad
de ser incluidos en el estudio.
d) Sesgo de información: sucede cuando la recolección de la información no
ocurre de igual manera para todos los participantes, por ejemplo si para el
diagnóstico de una enfermedad se utilizan diferentes métodos entre los
participantes. También ocurre sesgo de información cuando los datos recolectados
son poco verídicos o incompletos o cuando los individuos seleccionados para el
estudio rechazan participar, lo cual se puede relacionar con características de
interés que hagan que la población participante sea diferente a la no participante.
Esto afectará la estimación de prevalencia o de asociación entre exposición y
efecto y afectará la validez del estudio. Por este motivo es necesario conocer las
razones de no participación o no respuesta y las características de los sujetos no
participantes, para saber si se trata de valores perdidos al azar o de manera
sistemática y cómo esto afecta las mediciones.
e) Sesgo de memoria: cuando se hacen preguntas sobre exposiciones o eventos
pasados, aquellas personas que han sufrido una experiencia traumática
(enfermedad, aborto, accidente) tienden a recordar las exposiciones con más
detalle que quienes no tuvieron dicha experiencia. La ausencia de sesgos en la
selección de los sujetos de estudio y en la medición de las variables en la
población en estudio se conoce como validez interna; esto significa que los
resultados obtenidos son ciertos para la población o muestra estudiada. Si la
muestra es representativa de la población base, esto aumentará la validez externa
del estudio; esto es, la posibilidad de inferir dichos resultados a la población base
de la cual se obtuvo la muestra, así como a poblaciones similares. 3.6.
Recolección de la información Una vez definida la población y muestra, así como
las variables que se investigarán es necesario definir los instrumentos que se
emplearán para recolectar la información.
La variable resultado pueden ser medida a partir de: cuestionarios, fichas clínicas,
exámenes de laboratorio, certificados de defunción, etc; mientras que las variables
de exposición pueden obtenerse a partir de: cuestionarios, registros
ocupacionales, uso de biomarcadores, información proveniente de otras
instituciones, por ejemplo las encargadas de fiscalizar la calidad del agua, aire,
etc. En el ámbito ocupacional generalmente existen registros que contienen
información general tal como edad, sexo, año de ingreso a la empresa, sitios de
trabajo, etc y fichas médicas donde se registran exámenes periódicos, hábito de
fumar, etc. En estos casos puede ser necesario elaborar una ficha de recolección
de tal información.

Otro método muy utilizado son los cuestionarios. En este caso, si las preguntas
son elaboradas con fines del estudio, éstas deben estar adaptadas a la población
objetivo. El lenguaje utilizado para las preguntas debe ser fácilmente entendido
por la persona que responde.
Antes de aplicar el cuestionario, se debe evaluar la confiabilidad (capacidad del
instrumento para dar resultados similares en distintos momentos del tiempo) y la
validez (capacidad del instrumento para medir la variable que realmente desea
medir). Ambas características pueden ser evaluadas a través de un estudio piloto.
También se pueden utilizar cuestionarios que ya han sido validados en el medio
local. La principal ventaja de usar escalas validadas es que posteriormente se
puede comparar la información obtenida con otros estudios. En todos los casos
(cuestionarios elaborados con fines del estudio, cuestionarios previamente
validados o también en el caso de las fichas de recolección de información) es
necesario realizar una prueba piloto de los instrumentos de recolección de
información.
Esta prueba, llevada a cabo con una submuestra de la población bajo estudio,
permitirá corregir problemas en el cuestionario y su procedimiento de aplicación.
Un aspecto muy importante una vez definido el instrumento con que se recolectará
la información, la confiabilidad y validez de éste, es el entrenamiento al personal
de campo que aplicará dicho instrumento. Esto con el objetivo de evitar que el
entrevistador o recolector de datos también sea una fuente de sesgo lo que se
produce cuando un mismo entrevistador obtiene mediciones diferentes de la
característica o atributo de interés (variabilidad intraobservador), o cuando una
misma medición se obtiene de manera diferente entre un observador y otro
(variabilidad entre observadores).

Análisis de los datos


El análisis de datos depende de los objetivos del estudio y de la escala de
medición de las variables. Éste se inicia con la obtención de las estadísticas
descriptivas de las variables de interés, lo que permite conocer las características
generales de la población bajo estudio. Por ejemplo, se puede conocer la
frecuencia y distribución de edades, escolaridad, ingreso económico, género, uso
de servicios de salud, motivos de consulta médica, tabaquismo, etcétera. En el
caso de variables dicotómicas como presencia o ausencia de enfermedad los
datos se expresan como proporción y en el caso de variables continuas, como el
peso y la talla, los datos se presentan como medidas de tendencia central (media,
mediana, moda) y de dispersión (rangos, desviación estándar, varianza,
percentiles). a) Comparación de prevalencias: Si el objetivo del estudio es
comparar prevalencias entre grupos de exposición, los datos pueden ser
analizados a partir de una tabla tetracórica (2x2). En esta tabla se registra en las
columnas el número de enfermos y no enfermos y en las filas el número de el
número de expuestos y no expuestos
La medida de efecto o asociación puede ser expresada como:

En la razón de prevalencias el valor de uno se interpreta como igual prevalencia


de enfermedad entre expuestos y no expuestos.
Un valor mayor de uno significa que la prevalencia es mayor en los expuestos que
en los no expuestos.
Un valor menor a uno significa que la prevalencia es mayor en los no expuestos
que en los expuestos.
Alternativamente, se puede calcular el ODDS RATIO con la siguiente fórmula:

La interpretación del Odds Ratio es similar a la razón de prevalencias; un valor de


uno se interpreta como igual posibilidad de enfermar entre expuestos y no
expuestos. Un valor mayor de uno significa que la posibilidad de enfermar es
mayor en los expuestos que en los no expuestos. Un valor menor a uno significa
que la posibilidad de enfermar es mayor en los no expuestos que en los
expuestos.

b) Comparación de variables fisiológicas:


Además de determinar la presencia o ausencia de síntomas, enfermedad o muerte
como variables resultado, en algunos estudios transversales se mide como
resultado variables que están distribuidas de manera continua como por ejemplo
peso o presión arterial comparada entre dos o más grupos de trabajadores.
Cuando se compara el valor promedio entre dos grupos la prueba estadística
utilizada es la t-student y cuando se compara el valor promedio entre tres o más
grupos se OR = (a*d) / (b*c) Razón de Prevalencia: (a/a+b) / (c/c+d) ó Diferencia
de Prevalencias: (a/a+b) - (c/c+d) Estimador: Número de enfermos en la población
= a+c Prevalencia de enfermedad en la población = a+c /a+b+c+d Prevalencia de
enfermedad en los expuestos = a/a+b Prevalencia de enfermedad en los no
expuestos = c/c+d Razón de prevalencias de enfermedad = (a/a+b) / (c/c+d)
Elaborado por Verónica Iglesias utiliza la técnica de análisis de varianza conocida
como ANOVA. Ambas técnicas pueden ser utilizadas cuando los datos tienen una
distribución normal, de no ser así, es necesario realizar una transformación
logarítmica previamente a la comparación.
UNIDAD ACADÉMICA DE MEDICINA

EPIDEMIOLOGÍA
Tema: Vigilancia Epidemiológica

Responsable: Dra. Normayin Wences Calleja

Equipo: Nº 8

Integrantes:
Hernández Flores América Adriana
Ramón Felipe Abigail
Venancio Romero Angelina

Grupo: 504

Semestre: Febrero 2017- Julio 2017

VIGILANCIA EPIDEMIOLOGICA
Concepto
Proceso sistemático, ordenado y planificado de observación, medición, y registro
de ciertas variables definidas, para luego describir, analizar, evaluar e interpretar
tales observaciones y mediciones con propósitos definidos.
Objetivos
 Evaluar las medidas de prevención y control
 Intercambiar oportunamente información analizada entre los equipos de
salud del primer nivel de vigilancia epidemiológica
 Proporcionar evidencias para la formulación de políticas e intervenciones de
salud y evaluar las medidas de control e intervenciones sanitarias
 Controlar y prevenir los problemas de salud con bases científicas y no solo
la anotación de observaciones.
PROCESOS O ACTIVIDADES DE LA VIGILANCIA EPIDEMIOLÓGICA:
Recolección de datos
1. Identificar las personas o instituciones que pueden proveer datos.
2. Establecer instrumentos adecuados para la transmisión de los datos y la
frecuencia con que deben ser notificados.
3. Organizar registros simples de datos en el servicio de salud.
Análisis e Interpretación de Datos
Se basa en la consolidación y presentación, agrupamiento y ordenamiento de los
datos recolectados en cuadros, figuras o mapas que pueden facilitar su análisis e
interpretación.
Establecer las tendencias de la enfermedad, a fin de detectar los cambios que
puedan ocurrir en el comportamiento.
Identificar los factores asociados y grupos de riesgo.
Identificar las áreas en que se pueden aplicar las medidas de control.
Ejecución de acciones
Como resultado del análisis de los datos, se iniciará, tan pronto sea posible, la
aplicación de las medidas de prevención o control más adecuadas de la situación.
La vigilancia epidemiológica está constituida principalmente de cuatro
elementos:
1. Un sistema de información, definido como el proceso sistemático de
recolección, recuento y clasificación, presentación y análisis de los datos de la
epidemia de sida en la población; que además cumpla con los requisitos básicos
de calidad como: la integridad, la exactitud, la oportunidad y la comparabilidad.
2. Recursos humanos instruidos en epidemiología capaces de estimar la magnitud
que representa, detectar epidemias o subepidemias, documentar la distribución y
propagación de los padecimientos, detectar y efectuar el seguimiento de casos y
realizar el diagnóstico de laboratorio; con el objeto de ayudar a planificar, ejecutar
y evaluar las acciones para la prevención y control.
3. Laboratorios que garanticen la confirmación o descarte de diagnósticos de los
padecimientos sujetos a vigilancia.
4. Un sistema de evaluación y supervisión con asesoría técnica en los distintos
niveles técnico-administrativos.
El Sistema Vigilancia Epidemiológica es el resultado de un conjunto de relaciones
funcionales, en el cual participan coordinadamente los Servicios Estatales de
Salud para población abierta, Institutos de Seguridad Social, el DIF, Secretaría de
la Defensa Nacional, Secretaría de la Marina, Servicios Médicos de PEMEX,
institutos de salud, servicios médicos privados de salud, Médicos en ejercicio libre
de su profesión, también intervienen las escuelas y facultades de medicina y
enfermería, cuerpos colegiados, asociaciones médicas, clubes de servicios y
población en general los cuales conforman:
Las Unidades de Vigilancia Epidemiológica (uve)
Grupos institucionales
Grupos interinstitucionales
Órgano normativo
Estableciendo una coordinación en los siguientes niveles:
1. Local
Hace referencia a los recursos humanos que están capacitados para identificar
casos, tienen el compromiso del estudio inmediato de los casos, el seguimiento
clínico y epidemiológico de los casos probables hasta su clasificación definitiva. En
este nivel se incluyen las unidades de 1°, 2° y 3er. nivel de atención. La
Jurisdicción Sanitaria está ubicada dentro de este nivel contando con un
responsable jurisdiccional de la vigilancia epidemiológica (Epidemiólogo
jurisdiccional).
2. Estatal
Se ubican en las delegaciones de los institutos de salud, el Consejo Estatal de
Vigilancia Epidemiológica (CEVE), es el responsable estatal de vigilancia
epidemiológica y sus equivalentes en la organización gubernamental de prestación
de servicios de la población abierta, así como otras instituciones identificarán este
nivel para la notificación y apoyo de los casos detectados.

3. Nacional
Comprende las jefaturas nacionales de vigilancia epidemiológica de los institutos
de seguridad social y de otras dependencias sectoriales, el Comité Nacional de
Vigilancia Epidemiológica (CONAVE), el Instituto Nacional de Diagnóstico y
Referencia Epidemiológicos (INDRE) y la Dirección General de Epidemiología
(DGE) de la SSA. La DGE tiene la responsabilidad de la coordinación nacional
para la vigilancia epidemiológica, entre los estados.

Usos de la vigilancia epidemiológica

1. Estimación cuantitativa de la magnitud de un problema.


2. Determinar la distribución geográfica.
3. Identificar brotes y epidemias.
4. Conocer la historia natural de la enfermedad.
5. Evaluación de las medidas de control y prevención.
6. Monitorear los cambios de los agentes infecciosos.
7. Facilitar la investigación epidemiológica.
8. Comprobación de hipótesis.
9. Facilitar la información para la planificación.

Tipos de vigilancia epidemiológica.


Activa:
Se inicia frente a la sospecha de caso.
Se desarrolla un sistema con unidades notificadoras con personal de salud
capacitado para detectar el caso sospechoso.
Registros especiales para dejar constancia del estudio del caso sospechoso, de
laboratorio y de estudio de contactos.
Requiere de la confirmación del caso a través del laboratorio.
Se implementa cada vez que se requiere eliminar una enfermedad.
Requiere de notificación negativa semanal, que de cuenta que el sistema está
alerta en la búsqueda de casos sospechosos.

Pasiva
Se inicia cuando el caso consulta al personal de salud (médico)
No requiere de la implementación de unidades notificadoras. El caso consulta en
el sistema habitual
Registro a través del sistema habitual de notificación de casos.
El caso se notifica basado en los antecedentes clínicos
Se implementa por razones de control de enfermedad

Centinela o especializada
Es un tipo de vigilancia para una patología específica, la metodología puede ser
activa o pasiva, se utiliza para eventos en proceso de erradicación, cuando la
curva de incidencia esta en descenso.

Evaluación de la vigilancia epidemiológica


Evaluación: Actividad que permite un juicio de valor, su aplicación es válida para
todos los sistemas de vigilancia diseñados, pues posibilita identificar las brechas
existentes entre el cumplimiento de los objetivos y su comportamiento en un
momento determinado; recomienda posteriormente las medidas para su
corrección.
Los componentes que necesitan ser evaluados son: recursos, actividades y
objetivos. Estos componentes están haciendo referencia a los siguientes
elementos:
- Evaluación de la estructura: explora la cantidad, calidad y costos de los
recursos humanos, técnicos y financieros.
- Evaluación del proceso: se abordan los servicios producidos y utilizados en
el programa o sistema de salud desarrollado. Pretende conocer como está
funcionando. Se centra en lo que se hace y para quién lo hace.
- Evaluación de resultados: se intenta conocer bien los resultados directos
del sistema.
La evaluación puede ser externa cuando se realiza con personal que no está
involucrado en el desarrollo del sistema de vigilancia y es interna cuando se
realiza por los propios trabajadores del sistema.
La evaluación puede estar organizada en tres niveles:
1.- Evaluación operacional: Es la evaluación interna de los procesos propios del
funcionamiento del sistema. Esta implica la evaluación administrativa de todos los
niveles, de los recursos humanos, materiales, económicos, entre otros.
Cuando se evalúan recursos humanos se deben tener en cuenta aspectos de
calidad como competencia para desempeñar una función, cantidad de personas
necesarias para cubrir los objetivos, motivación y dedicación del personal.
En cuanto a los recursos económicos, se evaluarán los costos por cada actividad
en que este comprometido el sistema.
Cuando nos referimos es aquel gasto o sacrificio de un activo en el que se incurre
como consecuencia de la producción de un bien o de la prestación de un servicio.
Entre los costos en un sistema de vigilancia encontramos: costos directos,
tangibles, intangibles, totales y unitarios.
2.- Evaluación técnica: Es la evaluación de la naturaleza y de las características
del producto del sistema, o sea, de las recomendaciones y conclusiones. Está muy
relacionada con los propósitos y objetivos de cada sistema de vigilancia. En este
punto se examinará la información enviada por los distintos niveles operativos
para juzgar su confiabilidad.
Es de utilidad en la práctica la aplicación de encuestas que evalúen la calidad del
dato.
Se realizarán estudios puntuales en el terreno con encuestas de morbilidad y
prevalencia, también se deben evaluar la calidad del criterio diagnóstico, revisando
y estandarizando las técnicas utilizadas.
3.- Evaluación de los resultados: Se medirá teniendo en cuenta el cumplimiento de
los objetivos de los eventos objeto de vigilancia, también se describirá su
tendencia analizando si su comportamiento guarda relación con las medidas
desarrolladas a partir del sistema de vigilancia.
Se debe tener en cuenta que siempre se deberá evaluar los 3 tipos de
indicadores, es decir, de estructura, proceso y resultados.
En cada uno de los 3 niveles (evaluación técnica, operacional y de resultados) se
deben considerar 3 elementos indispensables:
1.- La utilidad: ¿Es útil la información que se está produciendo con las
conclusiones y recomendaciones?
2.- La calidad.
3.- El costo: ¿se realiza una evaluación sostenida de la relación costo-beneficio,
del ahorro logrado, de las muertes evitadas y de los gastos en atención médica?
EQUIPO 9

Estudios epidemiológicos de casos y controles.


Fundamento teórico, variantes
y aplicaciones
Los estudios de casos y controles fueron empíricamente empleados por John Snow en el
siglo XIX durante sus investigaciones sobre las causas de la epidemia de cólera, cuando
comparó casos y no casos en cuanto a su lugar de residencia y fuente de agua potable.
Los estudios de casos y controles representan una estrategia muestral, en la que de
manera característica se selecciona a la población en estudio con base en la presencia
(caso) o ausencia (control o referente) del evento de interés.
En teoría, los estudios de casos y controles se basan en la identificación de los casos
incidentes en una determinada población durante un periodo de observación definido, tal y
como se lleva a cabo en los estudios de cohorte. La diferencia estriba en que en el
estudio de casos y controles se identifica la cohorte, se identifica a los casos y se obtiene
una muestra representativa de los individuos en la cohorte que no desarrollaron el evento
en estudio; esto último tiene el propósito de estimar la proporción de individuos expuestos
y no expuestos en la cohorte o población base, evitando de esta manera la necesidad de
determinar la presencia de la exposición en todos los miembros de la población o cohorte
en estudio.
Selección de los controles
El grupo control o referente se utiliza fundamentalmente para estimar la proporción de
individuos expuestos y no expuestos en la población base que da origen a los casos.
Cuando los casos se obtienen de una población claramente definida en tiempo, espacio y
lugar, y éstos constituyen un censo de los eventos en estudio o una muestra
representativa de los mismos, la selección de controles se puede realizar mediante un
muestreo aleatorio simple de la población base. En este caso, la selección es un simple
procedimiento técnico que no introduce ningún sesgo más allá de los errores muestrales
que pudieran existir al utilizar la totalidad de la base poblacional como marco muestral
para la selección de los controles.
Para la selección del grupo control seleccionaron una muestra representativa de las
mujeres residentes en la ciudad de México durante el mismo periodo en el que se
seleccionaron los casos. La suposición en lo que se refiere al grupo control es que, en
caso de que las mujeres seleccionadas en este grupo hubiesen sido diagnosticadas con
cáncer de mama, éstas habrían sido detectadas y podrían haber sido estudiadas como
casos.
Las consideraciones básicas para la selección de los controles incluyen:
1. Los controles deben ser seleccionados de la misma base poblacional (de la cohorte
imaginaria) de donde se originaron los casos. Operacionalmente este último concepto
quiere decir que en el supuesto de que el control desarrollara la enfermedad o evento en
estudio, éste necesariamente tendría que aparecer en la lista de casos.
2. Los controles deben ser seleccionados independientemente de su condición de
expuestos o no expuestos para garantizar que representen adecuadamente a la población
base. Esto último se logra siempre y cuando la condición de exposición no determine la
posibilidad de que un individuo sea o no incluido en el estudio como control, lo que implica
que las fracciones muestrales para los controles expuestos y no expuestos, aunque la
mayor parte de las veces desconocidas por el investigador, deben ser las mismas. En la
medida en que éstas difieran, se introducirá un sesgo de selección y se comprometerá la
validez interna de la investigación.
3. La probabilidad de selección para los controles debe ser proporcional al tiempo que el
sujeto permaneció elegible para desarrollar el evento o enfermedad en estudio. Así, un
individuo que migró o que falleció durante el estudio dejará de ser elegible como control.
Una manera de operacionalizar este concepto es seleccionando un control del grupo de
individuos elegibles cada vez que se detecta o selecciona un caso; esto se conoce como
selección por grupo en riesgo. En teoría, utilizando este esquema de selección se asegura
que los controles están en riesgo de desarrollar el evento en el momento en que son
seleccionados. Este esquema también indica que un sujeto seleccionado como control en
una etapa temprana del estudio, podría también ser seleccionado como caso en etapas
posteriores del estudio.
4. En la selección de los controles se debe evitar, en la medida de lo posible, los factores
de confusión. Se espera que el grupo control sea similar al grupo de casos en lo que se
refiere a otras variables que pudieran ser factores de riesgo para el desarrollo del evento y
al mismo tiempo estar asociados con la exposición. Una estrategia frecuentemente
utilizada para lograr este requisito es el pareamiento o igualación de atributos. Este
esquema de selección implica un segundo requisito de elegibilidad para el control. Por
ejemplo, si al seleccionar el control se decidiera parear por edad y género, además de
cumplir el criterio de estar en riesgo deberá cumplir el criterio de ser del mismo género y
grupo de edad.
5. La medición de variables debe ser comparable entre los casos y los controles. Todos
los procedimientos para medir la exposición o los factores de confusión potenciales deben
ser aplicados, reportados y registrados de la misma manera en casos y controles.
En este contexto, existen diferentes posibilidades y fuentes de obtención de controles, a
saber:
Con base poblacional. Si los casos representan una muestra de todos los casos que
ocurren en una población identificada y definida claramente en tiempo y espacio, y los
controles se muestrean directamente de esta misma población, los controles son definidos
como base poblacional.
Controles vecindarios. Este tipo de controles puede ser utilizado cuando los
investigadores deciden comparar los casos pareando con sus respectivos controles
vecindarios.
Controles hospitalarios. Son sujetos que acuden al mismo hospital donde se realizó la
selección de los casos, pero acuden a este sitio por un padecimiento diferente.
Métodos en la selección de casos y controles
Pareamiento. Es la selección de controles en función de una o varias características
comunes a los casos, como el sexo, la edad y la condición socioeconómica, entre otras.
Tiene como ventajas aumentar la eficiencia estadística, y disminuir el sesgo asociado a
factores de confusión conocidos. Puede asegurar la homogeneidad por edad y sexo, y
facilitar la comparación de casos y controles en presencia de exposiciones que varían con
el tiempo. Dentro de las ventajas prácticas se encuentra la mayor facilidad de identificar a
los controles. Asimismo, existen dos tipos fundamentales de pareamiento: individual o
grupal (pareamiento por grupos de frecuencia). Esta estrategia facilita la detección de una
interacción entre la exposición y el factor por el que se parea, siempre que éste tenga un
gran efecto sobre el riesgo de padecer la enfermedad y sea poco frecuente en la
población.
Dentro de las desventajas de parear en un estudio de casos y controles se encuentra la
de no poder analizar el posible efecto de riesgo de una variable de pareamiento, porque,
por definición, son iguales para casos y controles.
Variantes del diseño de casos y controles
Los casos como los controles, en teoría, deben tener características de representatividad,
simultaneidad y homogeneidad. Representatividad significa que los casos deben
representar a todos los casos existentes en un tiempo determinado, y que los sujetos que
se seleccionen como controles debieran representar en el estudio a los sujetos que se
pueden convertir en casos, y proceder de la misma base poblacional.
Recientemente se han propuesto y formalizado, desde el punto de vista estadístico,
variantes que inciden sobre la selección de los casos o la definición del grupo control; a
continuación se describen las más utilizadas.
• Estudios caso-cohorte. En esta variante, la definición de casos y controles se
encuentra anidada en una cohorte fija, bien definida en tiempo, espacio y lugar, en la cual
existe el interés de estimar la razón de incidencia acumulada y es razonable asumir que
todos los miembros de la cohorte tendrán el mismo tiempo de seguimiento.
• Estudios de casos y controles anidados o de grupo de riesgo. En esta variante se utiliza
un esquema de muestreo conocido como de grupo de riesgo, ya que la elegibilidad de un
individuo como control depende de que éste se encuentre en riesgo, es decir, sea
miembro de la cohorte en el momento en que se selecciona o identifica el caso. Los casos
y el conjunto de individuos en riesgo que no desarrollaron el evento constituyen el grupo
de riesgo.
• Estudios de caso-caso. Este tipo de diseño es una manera científica de cuestionar y
responder la pregunta ¿estuvo el sujeto haciendo algo inusual justo antes del inicio de la
enfermedad o evento de estudio? Para responder esta pregunta, se necesita hacer la
comparación entre el mismo individuo, esto es, en este diseño se compara la exposición a
ciertos agentes durante el intervalo en que el evento no ha ocurrido (periodo de control),
con la exposición durante el intervalo en que el evento ocurre (periodo de riesgo).
• Estudios de mortalidad proporcional. Los casos son definidos como aquellas muertes
que ocurren de una fuente poblacional, mientras que los controles no son seleccionados
directamente de personas vivas de esta fuente poblacional, sino que son obtenidos de
otros tipos de muerte que ocurren en la población base.
Sesgos
El hecho de que casos y controles se seleccionen utilizando diferentes esquemas y que la
información se haremos una breve revisión de los sesgos que se presentan con mayor
frecuencia en los estudios de casos y controles.
Sesgos de selección. Puesto que en los estudios de casos y controles se selecciona a los
participantes sobre la base de la ocurrencia del evento, este tipo de estudio
epidemiológico es particularmente vulnerable a los sesgos de selección, por esta razón es
recomendable trabajar con casos incidentes y evitar que la exposición o variables
asociadas a ésta determinen o condicionen la participación en el estudio, ya sea como
caso o como control.
Sesgos de información. Los estudios de casos y controles están propensos a sesgos
que se introducen en el proceso de medición de la exposición, porque ésta se mide en
forma retrospectiva, después del inicio de la enfermedad o del evento en estudio, esto es:
a) la existencia del evento puede tener un efecto directo sobre la exposición (causalidad
inversa); b) la existencia del resultado afecta la calidad de la medición, y c) la existencia
del resultado afecta la determinación o registro de la exposición.
Análisis e interpretación
A diferencia de los estudios de cohorte, donde se puede calcular la razón de riesgos y la
razón de tasas de incidencia, en los estudios de casos y controles no se puede estimar
directamente la incidencia de la enfermedad en sujetos expuestos y no expuestos, debido
primordialmente a que los individuos son seleccionados con base en la presencia o
ausencia del evento de estudio y no por el estatus de exposición (una excepción son los
estudios anidados y de caso-cohorte), donde podrá estimarse la incidencia, si se conocen
las fracciones muestrales de exposición tanto en los casos como en los controles.
A continuación se presentan consideraciones básicas del análisis de casos y controles,
así como de sus diferentes modalidades.
Análisis sin pareamiento. Se basa en la tabla tradicional de 2 x 2: es indispensable
recordar que se parte de que el evento ya ocurrió y que se medirá el antecedente de
exposición. Se puede entonces calcular los momios de exposición tanto en los casos
como en los controles, esto es, comparar la posibilidad de ocurrencia de un evento con la
posibilidad de que no ocurra bajo las mismas condiciones, y se expresa de la siguiente
manera:
 Momios de exposición en el grupo de los casos: a / b
 Momios de exposición en el grupo de los controles: c / d
La interpretación de los resultados es la siguiente: si la RM es igual a uno, la exposición
no está asociada con el evento o enfermedad; si la RM es menor de uno, la exposición
está asociada de manera inversa con el evento, esto es, la exposición disminuye la
posibilidad de desarrollar el evento; si la RM es mayor de uno, la exposición se encuentra
asociada positivamente con el evento, lo que quiere decir que la exposición aumenta la
posibilidad de desarrollar el evento.
Epidemiologia

Tema: Estudios de Cohorte

Responsable: Dr. Normayin Wences Callejas

Equipo: Nº 12
Integrantes:
Hernández Pérez Janeth
López Jiménez Ma. Madeleine
Martínez Sarabia Víctor Manuel
Grupo: 504
Semestre: Febrero 2017- Julio 2017

ESTUDIOS DE COHORTE

El nombre de este grupo de estudios deriva del latín cohors, cohortis (séquito o
agrupación), que era el término romano para nombrar a un grupo de soldados,
En estudios médicos, para integrar una cohorte deben reclutarse
Los participantes no deben manifestar el evento de interés (enfermedad, curación,
cambio en algún estudio paraclínico, etc.)
Para su inclusión, los individuos son clasificados de acuerdo con las
características que podrían guardar relación con el resultado (potenciales factores
de riesgo o presunto factor causal)
Posteriormente, cada sujeto se sigue en el tiempo, a través de evaluaciones
repetidas, en búsqueda de la ocurrencia del evento de interés.
El seguimiento de cada sujeto de estudio se continúa hasta que ocurre una de las
siguientes condiciones:
Se manifiesta el evento de estudio
• Muerte del sujeto de estudio.
• Se pierde al sujeto de estudio durante el seguimiento.
• El estudio termina

En relación con el tipo de población, las cohortes pueden ser fijas (también
llamadas cerradas) o dinámicas
Las cohortes fijas son aquéllas que no consideran la inclusión de población en el
estudio,
Las dinámicas son aquellas cohortes que consideran la entrada y salida de nuevos
sujetos en el estudio, durante la fase de seguimiento

ESTUDIOS DE COHORTE PROSPECTIVO


En un estudio de cohorte prospectivo, el investigador inicia ensamblando una
muestra de sujetos.
El investigador mide características en cada sujeto que podrían predecir los
desenlaces subsecuentes y sigue a estos sujetos con mediciones periódicas de
los desenlaces de interés
Este diseño es útil para evaluar incidencias y para investigar las causas
potenciales de alguna condición.
El diseño prospectivo también permite al investigador medir las variables de
manera más completa y precisa de lo que es posible retrospectivamente.
Una debilidad particular del diseño prospectivo es su costo e ineficiencia para
estudiar desenlaces raros, ya que en estos casos deben seguirse grandes
números de personas durante largos periodos de tiempo para observar el número
suficiente de desenlaces que produzcan resultados significativos.

ESTUDIOS DE COHORTE RETROSPECTIVOS

En este diseño el ensamble de la cohorte, las mediciones basales y el seguimiento


han ocurrido en el pasado.
Estos estudios sólo son posibles si existen datos adecuados disponibles que
permitan establecer las características de la exposición y los desenlaces de
interés en una cohorte de sujetos que ha sido construida para otros propósitos
Frecuentemente se utilizan en las investigaciones de exposición ocupacional,
donde se reconstruye la exposición y frecuencia de eventos en un grupo
ocupacional o empresa durante un periodo determinado.
Las desventajas principales son el control limitado que el investigador tiene sobre
el método de muestreo de la población y sobre la naturaleza y la calidad de las
variables predictora

ESTUDIO DE CASOS Y CONTROLES ANIDADO EN UNA COHORTE Y


ESTUDIO DE CASOS-COHORTE
Un diseño de casos y controles “anidado” en una cohorte permite resolver
preguntas de investigación con la metodología de un estudio de casos y controles,
pero a partir de una cohorte formada con otro fin, siempre y cuando las variables
de interés puedan evaluarse al final del seguimiento de la cohorte.
El investigador inicia con una cohorte disponible con suficientes casos al final del
seguimiento
Posteriormente, se identifican todos aquellos sujetos que han desarrollado el
desenlace (los casos)
Luego, se selecciona una muestra aleatoria de los sujetos que no desarrollaron el
desenlace (los controles)
El estudio de casos-cohorte tiene el mismo diseño excepto que los controles son
una muestra aleatoria de todos los miembros de la cohorte sin importar los
desenlaces
Este diseño tiene la ventaja de que los controles representan la cohorte en general
y, por lo tanto, proporcionan una base para la estimación de incidencias y
prevalencias en la población de la cual fueron obtenidos.
Además de los ahorros en costos al no realizar las mediciones en la cohorte
completa, estos diseños preservan todas las ventajas de los estudios de cohorte
que resultan de colectar las variables predictoras antes que hayan ocurrido los
desenlaces y evitan los sesgos potenciales de los estudios de casos y controles
convencionales, que extraen a los casos y controles de diferentes poblaciones y
no pueden hacer mediciones en los sujetos que han muerto
Su principal desventaja es que muchas preguntas de investigación no son
compatibles con la estrategia de almacenar materiales de una muestra

SELECCIÓN DE LA COHORTE

La población usada para integrar una cohorte varía según la exposición que será
objeto de estudio
la cohorte puede conformarse con muestras de la población general, mientras que
si se trata de exposiciones raras o muy particulares es posible que se necesite
formarla a partir de grupos ocupacionales específico
Antes de que pueda identificarse a las personas expuestas es necesario definir
claramente las características de la exposición, tales como el nivel y duración
mínimas para considerar a un sujeto como expuesto.
Los sujetos no-expuestos deben ser similares a los expuestos en todos sus
aspectos, excepto en que no han estado sometidos a la exposición que se estudia.

MEDICIÓN DEL DESENLACE

Los eventos de estudio pueden ser:


• Evento simple, fijo en el tiempo (muerte o incidencia de enfermedad).
• Eventos múltiples (enfermedades recurrentes, sintomatología o eventos
fisiológicos).
Modificación de medida eje (modificación de la función en el tiempo hacia un
aumento o disminución; crecimiento),
• Marcadores intermedios del evento

SEGUIMIENTO

El periodo de seguimiento puede abarcar años, meses, semanas o días,


dependiendo de la frecuencia del evento estudiado.
El inicio del seguimiento depende del tipo de cohorte: si es cerrada o dinámica, ya
que en el caso de esta última, el inicio del seguimiento se define para cada
participante a través de un largo periodo de tiempo.
El seguimiento pasivo es el que se realiza mediante búsqueda sistemática en
registros prestablecidos

PÉRDIDAS EN EL SEGUIMIENTO
• Abandono del estudio. • Muerte por otra causa al evento de interés. • Pérdidas,
“administrativas”, originadas por la terminación temprana del estudio por razones
ajenas a las que se plantearon originalment
SESGO Y VALIDEZ EN ESTUDIOS DE COHORTE

A pesar de tener menor riesgo de presentar sesgos, los estudios de cohorte


también pueden presentarlos de manera importante.
Este tipo de sesgo en estudios retrospectivos es particularmente serio cuando los
participantes conocen también su condición de exposición y cuando la presencia
conjunta de estos eventos (exposición y enfermedad) motiva una participación
diferencial en el estudio.
Sesgos de selección

• Sesgo de seguimiento. En estudios clínicos de seguimiento es frecuente que


algunos participantes presenten condiciones comórbidas que generen, incluso de
manera no apreciable para los investigadore
• Sesgo del observador. Ocurre cuando el propio investigador evalúa de forma
diferencial la condición de interés, puesto que conoce las hipótesis bajo
investigación o la historia de exposiciones de los participantes
Sesgo de clasificación no diferencial. Se presenta cuando ocurre clasificación
errónea de los participantes respecto a la existencia o a la cuantificación de la
exposición estudiada
Sesgo de medición. Se produce por deficiencias en los instrumentos utilizados y
en su modo de aplicación (cuestionarios, técnicas analíticas, biomarcadores, etc.)
que pueden generar sub o sobreestimación de las mediciones de interés.

RESÚMEN
MATERIA: EPIDEMIOLOGÍA. TEMA: ASPECTOS BASICOS DE ESTUDIOS EXPERIMENTALES.
EQUIPO 13
INTEGRANTES:
 GARCIA DE LA CRUZ WENCESLAO.
 VALERIANO JUAREZ HUGO.
El objetivo de los estudios experimentales es estimar la eficacia de una intervención ya
sea ésta preventiva, curativa o rehabilitadora. Estos estudios se caracterizan porque los
investigadores tienen control sobre el factor de estudio, es decir, deciden qué
tratamiento, con qué pauta y durante cuánto tiempo, lo recibirá cada uno de los grupos
de estudio.

En estos estudios se asume que los grupos que se comparan son similares por todas las
características pronosticas que pueden influir sobre la respuesta, excepto por la
intervención que se está evaluando. La forma idónea de conseguir grupos comparables es
que la asignación de los individuos a los grupos de estudio se realice de forma aleatoria. Si
los grupos obtenidos de este modo son comparables y son estudiados con una misma
pauta de seguimiento, cualquier diferencia observada entre ellos al finalizar el
experimento puede ser atribuida, con un alto grado de probabilidad, a la diferente
intervención a que han sido sometidos los participantes. Así pues, la gran ventaja de los
diseños con asignación aleatoria radica en su alto grado de control de la situación, que
proporciona, en el caso de que exista una asociación entre el factor estudiado y la
respuesta observada, la mejor evidencia de que dicha relación es causal.
El objetivo de los estudios experimentales es evaluar los efectos de cualquier
intervención, ya sea preventiva, curativa o rehabilitadora. Por ejemplo, la efectividad de
diferentes tratamientos para la anemia ferropenia durante el embarazo, la efectividad de
las medidas de apoyo a la lactancia materna o la determinación de los efectos de las
prostaglandinas sobre la maduración cervical o la inducción del trabajo de parto.

Se llama ensayo clínico cuando el estudio se realiza en un contexto clínico, en la consulta,


con pacientes, y ensayo de campo cuando la intervención se lleva a cabo fuera del
contexto clínico y lo que se prueba es, por ejemplo, una vacuna.

El diseño clásico de un estudio experimental Se selecciona un grupo de individuos con


unos criterios más o menos restrictivos, se les solicita el consentimiento informado y se
dividen aleatoriamente en dos grupos: un grupo de estudio (el que se somete a la vacuna,
la intervención quirúrgica, el programa de educación sanitaria o el medicamento que se
quiere experimentar) y un grupo control (al que se le da un placebo, otro tratamiento o
simplemente nada).
RESÚMEN
MATERIA: EPIDEMIOLOGÍA. TEMA: ASPECTOS BASICOS DE ESTUDIOS EXPERIMENTALES.
EQUIPO 13
INTEGRANTES:
 GARCIA DE LA CRUZ WENCESLAO.
 VALERIANO JUAREZ HUGO.

El objetivo de los estudios experimentales es estimar la eficacia de una intervención ya


sea ésta preventiva, curativa o rehabilitadora. Estos estudios se caracterizan porque los
investigadores tienen control sobre el factor de estudio, es decir, deciden qué
tratamiento, con qué pauta y durante cuánto tiempo, lo recibirá cada uno de los grupos
de estudio.

En estos estudios se asume que los grupos que se comparan son similares por todas las
características pronosticas que pueden influir sobre la respuesta, excepto por la
intervención que se está evaluando. La forma idónea de conseguir grupos comparables es
que la asignación de los individuos a los grupos de estudio se realice de forma aleatoria. Si
los grupos obtenidos de este modo son comparables y son estudiados con una misma
pauta de seguimiento, cualquier diferencia observada entre ellos al finalizar el
experimento puede ser atribuida, con un alto grado de probabilidad, a la diferente
intervención a que han sido sometidos los participantes. Así pues, la gran ventaja de los
diseños con asignación aleatoria radica en su alto grado de control de la situación, que
proporciona, en el caso de que exista una asociación entre el factor estudiado y la
respuesta observada, la mejor evidencia de que dicha relación es causal.
El objetivo de los estudios experimentales es evaluar los efectos de cualquier
intervención, ya sea preventiva, curativa o rehabilitadora. Por ejemplo, la efectividad de
diferentes tratamientos para la anemia ferropenia durante el embarazo, la efectividad de
las medidas de apoyo a la lactancia materna o la determinación de los efectos de las
prostaglandinas sobre la maduración cervical o la inducción del trabajo de parto.

Se llama ensayo clínico cuando el estudio se realiza en un contexto clínico, en la consulta,


con pacientes, y ensayo de campo cuando la intervención se lleva a cabo fuera del
contexto clínico y lo que se prueba es, por ejemplo, una vacuna.
El diseño clásico de un estudio experimental Se selecciona un grupo de individuos con
unos criterios más o menos restrictivos, se les solicita el consentimiento informado y se
dividen aleatoriamente en dos grupos: un grupo de estudio (el que se somete a la vacuna,
la intervención quirúrgica, el programa de educación sanitaria o el medicamento que se
quiere experimentar) y un grupo control (al que se le da un placebo, otro tratamiento o
simplemente nada).
EQUIPO 14

ESTDUDIOS EXPERIMENTALES
Los estudios clínicos experimentales, también conocidos como ensayos clínicos
controlados, son estrategias diseñadas para evaluar la eficacia de un tratamiento en el ser
humano mediante la comparación de la frecuencia de un determinado evento de interés
clínico (o desenlace) en un grupo de enfermos tratados con la terapia en prueba con la de
otro grupo de enfermos que reciben un tratamiento control. Ambos grupos de enfermos
son reclutados y seguidos de la misma manera y observados durante un mismo periodo
de tiempo.
Es justamente esta propiedad la que distingue a los ensayos clínicos experimentales de
los estudios observacionales (de cohortes) ya que en estos el propio paciente o su médico
tratante decide quién se somete (y quién no) a la maniobra en evaluación; esta decisión
obedece a múltiples razones, algunas estrechamente ligadas al pronóstico de la
enfermedad. Debido a que los ensayos clínicos controlados son estudios diseñados con
antelación, la asignación de la maniobra experimental por el investigador puede seguir
diversos procedimientos; cuando es mediante un sorteo el estudio se conoce como un
ensayo clínico aleatorizado, o controlado por sorteo.
Cabe aclarar la connotación de diversos términos empleados en la anterior definición y a
lo largo del presente capitulo. El uso del término tratamiento (o terapia) es con un sentido
amplio; se refiere no sólo a un medicamento sino que también incluye otro tipo de
intervenciones (o maniobras) tales como un procedimiento quirúrgico, una medida
preventiva (o profiláctica), un programa educativo, un régimen dietético, etcétera. De igual
manera, el término evento (o desenlace) se puede referir a toda una diversidad de
resultados, tales como: mediciones bioquímicas, fisiológicas o microbiológicas, eventos
clínicos (intensidad del dolor, aparición de infecciones oportunistas, desarrollo de un
infarto al miocardio, recaída de una leucemia aguda, etc.), escalas de actividad de una
enfermedad (como la del lupus eritematoso generalizado), mediciones de bienestar o
funcionalidad (calificación de Karnofsky, escala de calidad de vida) o el tiempo de
supervivencia. Por último, el grupo control se refiere al grupo de individuos que reciben
una intervención que sirve de contraste para evaluar la utilidad relativa de la terapia
experimental y que no necesariamente tiene que ser un placebo pues en ocasiones lo
más adecuado (y ético) es que sea el tratamiento estándar, es decir, la mejor alternativa
terapéutica vigente en el momento del diseño del experimento clínico.

¿Por qué y cuándo son necesarios?

La pregunta nos remite a reflexionar sobre dónde surge la idea de que un cierto
tratamiento pueda modificar la historia natural de una enfermedad y acerca de la
necesidad de contar con suficientes observaciones sistematizadas para conocer el
verdadero efecto de la terapia en cuestión en los seres humanos, antes de prescribirlos
de manera rutinaria a los enfermos.
Seguimiento completo de los individuos en estudio

Este punto tiene que ver tanto con que se logre un seguimiento completo de todos los
sujetos participantes en el estudio durante el tiempo programado como con que se
incluyan en el análisis a todos los individuos respetando su pertenencia al grupo
(experimental o control) al que fueron originalmente asignados.
Todo paciente que ingresa al ensayo debe ser tomado en cuenta en el análisis y
conclusiones; de lo contrario, si un número importante de ellos se reporta como "sin
seguimiento suficiente" la validez del estudio se verá seriamente cuestionada. Mientras
más individuos se pierden mayor será́ la posibilidad de sesgo en el estudio debido a que
los pacientes que no completan su seguimiento pueden tener un pronóstico diferente al de
quienes sí permanecen hasta el final del estudio. Las pérdidas en el seguimiento pueden
obedecer a la aparición de eventos adversos al medicamento en estudio, a una mala
respuesta al mismo, a muerte, etcétera o, al contrario, porque tienen una evolución
particularmente benigna y su bienestar hace que no regresen a sus evaluaciones. Así́, al
ocurrir esto se puede tener una impresión distorsionada de las bondades (o de su
ausencia) del tratamiento bajo prueba.

¿Cuáles son sus ventajas y desventajas?


Respecto a los estudios observacionales de cohortes, la principal ventaja que ofrecen los
ensayos clínicos controlados (especialmente los que son mediante un sorteo) es que
asignan la maniobra experimental (el tratamiento en prueba) independientemente de
determinantes pronósticos o de la selección de la muestra; de tal suerte que disminuye el
riesgo de sesgos de susceptibilidad diferencial (confusores) o de un muestreo
distorsionado. Además, el diseño experimental facilita el enmascaramiento de los
individuos participantes y de sus evaluadores (doble cegamiento) ya que en un estudio
observacional los tratamientos generalmente son decididos y prescritos abiertamente por
los médicos tratantes.
Por otra parte, la posibilidad real de realizar los estudios experimentales puede verse
seriamente comprometida por razones de índole practica (logística) de costos y de ética.
Además, en un ensayo clínico se puede llegar a una situación tal de control de variables
(homegeneidad de la muestra estudiada, regulación del apego al tratamiento, atención y
seguimiento del enfermo, etc.) que haga que sus resultados se alejen de la realidad del
quehacer clínico cotidiano, restringiendo seriamente su extrapolación al resto de los
enfermos; es decir, que en la compulsión por diseñar estudios metodológicamente
impecables no se logre responder a las preguntas originales.
A pesar de esto último, los ensayos clínicos aleatorizados permanecen como el estándar
de oro (o paradigma) en la evaluación de la utilidad de nuevos tratamientos. A pesar de
no ser infalibles y de, en ocasiones, dejar resquicios de incertidumbre, los estudios
experimentales han contribuido enormemente a la evolución hacia terapias y medidas
profilácticas más eficaces y seguras.
EQUIPO 15

Epidemiologia
Tema: Bioética
Integrantes:
Galeana Torres Said Antonio
Ignacio Pineda David
Grupo 504

BIOÉTICA

La bioética es la rama de la ética dedicada a proveer los principios para la


conducta más apropiada del ser humano respecto a la vida, tanto de la vida
humana como de la vida no humana (animal y vegetal), así como al ambiente en
el que pueden darse condiciones aceptables para la misma.

Para la Comisión Nacional de Bioética es la rama de la ética aplicada que


reflexiona, delibera y hace planteamientos normativos y de políticas públicas para
regular y resolver conflictos en la vida social, especialmente en las ciencias de la
vida, así como en la práctica y en la investigación médica que afectan la vida en el
planeta, tanto en la actualidad como en futuras generaciones.

En relación con otros datos históricos sobre el término Bioética y su aplicación, es


importante mencionar que fue acuñado por Fritz Jahr en 1927, quien lo definió
como la ética de las relaciones de los seres humanos con los animales y la
naturaleza; sin embargo, es Van Rensselaer Potter quien lo incorpora al discurso
académico contemporáneo en el artículo Bioética, la ciencia de la supervivencia,
publicado en 1970.

Bioética y Derechos Humanos están, así, en clara e indivisible relación, y desde


allí se abordan las distintas problemáticas que emergen junto con el desarrollo
científico y la aplicación de la técnica, con las posibilidades de vida futura en el
planeta y las condiciones sociales de los seres humanos.
En suma, se acepta que la bioética emerge como resultado de tres aspectos: 1. La
aparición del paradigma de los derechos humanos, en el ámbito de la posguerra
mundial y el movimiento de derechos civiles en Estados Unidos, ambos en su
relación con la medicina y la salud; 2. El poderío y ambigüedad moral del
desarrollo científico y tecnológico, sus implicaciones para la supervivencia de la
especie humana y el bienestar de las personas, así como el cuidado del medio
ambiente; y 3. Los problemas de justicia en el derecho a la protección universal y
acceso a los servicios de salud.
Hay muchas cuestiones que ocupan a la Bioética y que no pertenecen al campo
de la Medicina, porque son cuestiones estrictamente políticas o ecológicas o
biológicas. La Medicina, en tanto que es un arte o una praxis, no es «Ética
aplicada» sino Ética fundamental y originaria, si por Ética entendemos, atendiendo
a una larga tradición, y a la propia etimología del término, la actitud práctica
orientada hacia la conservación de la salud de los cuerpos humanos, es decir, a la
transformación de los cuerpos enfermos en cuerpos sanos (o del cuerpo sano en
cuerpo sano); pero no a las transformaciones recíprocas que, sin embargo,
interesan también a la Biología científica, que, por ello, entra en conflicto constante
con la Medicina.

La Bioética no es, por tanto, Ética, de modo exclusivo; es también Moral. La


Bioética no se deja reducir ni a la Ética, ni a la Moral, ni a la Política, ni al
Derecho… aunque los problemas de los cuales se ocupa sean problemas éticos, o
morales, o políticos, o jurídicos… Pero son problemas que, aunque semejantes a
los que tradicionalmente se planteaban, han de experimentar un replanteamiento
nuevo.

PRINCIPIOS FUNDAMENTALES DE LA BIOETICA

Principio de Beneficencia

En el ámbito médico, este principio obliga al profesional de la salud a poner el


máximo empeño en atender al paciente y hacer cuanto pueda para mejorar su
salud, de la forma que considere más adecuada. Es un principio ético básico que
se aplica primariamente al paciente, aunque también a otros que pueden
beneficiarse de un avance médico en particular.

Principio de no-maleficencia

La práctica médica ha estado asociada con la máxima latina primum non nocere,
“sobre todo, no hacer daño” que los médicos hipocráticos practicaban y
enseñaban. Este principio es distinto a la beneficencia, ya que el deber de no
dañar es más obligatorio que la exigencia de promover el bien. Implica, sobre
todo, el imperativo de hacer activamente el bien y de evitar el mal.

Principio de autonomía

Este principio se basa en la convicción de que el ser humano debe ser libre de
todo control exterior y ser respetado en sus decisiones vitales básicas. Se refiere
al respeto debido a los derechos fundamentales del hombre, incluido el de la
autodeterminación. Es un principio profundamente enraizado en el conjunto de la
cultura occidental, aunque ha tardado en tener repercusiones en el ámbito médico.
Significa el reconocimiento de que el ser humano, también el enfermo, en un
sujeto y no un objeto.

Principio de justicia
Se refiere a la obligación de igualdad en los tratamientos y, respecto del Estado, en la
distribución equitativa de los recursos para prestar los servicios de salud, investigación,
etc. Esta justicia o equidad no significa que se deba tratar a todos los pacientes de la
misma forma, pero sí que cada uno tenga acceso a los servicios médicos adecuados,
dignos y básicos.

También podría gustarte