Está en la página 1de 89

Alumna:

 Hannia Jocelyn Ceceña Montoya


 Sheyla Guadalupe Sarao Morales
 Denis Betsabeth Tabuyo Caloca

Docente:
Marivel López Tiznado
Grado y grupo:
2°B “Matutino”
Cuarto semestre: Enero 2020- Junio 2023
Carrera:
Licenciatura en Enfermería
“Manual de procedimientos”

Materia:

“Epidemiologia”

Fecha de primera revisión:


18/Mayo/2023
INDICE
Introducción...............................................................................................................6

I. Epidemiología básica.........................................................................................6

1. Epidemiologia. Definición, clasificación, aplicaciones.................................6

2. Ecología y salud, multicasualidad, historia natural de la enfermedad.........8

3. Medición epidemiológica............................................................................13

4. Vigilancia epidemiológica...........................................................................13

5. Vigilancia epidemiológica en hospitales.....................................................15

II. Tasa, índices y razones de valor sanitario..........................................................15

1. Concepto y análisis de natalidad................................................................15

2. Morbilidad...................................................................................................16

3. Mortalidad y movimientos migratorios........................................................16

4. Ajustes de tasas.........................................................................................17

III. La variable epidemiológica............................................................................18

1. Escalas de medida.....................................................................................18

2. Fuentes de variabilidad..............................................................................19

3. Epidemiologia de los factores de riesgo (FR) y el efecto...........................20

IV. Medidas de frecuencia.......................................................................................20

1. Razón.........................................................................................................20

2. Porción........................................................................................................21

3. Tasa............................................................................................................21

4. Incidencia....................................................................................................22

5. Prevalencia.................................................................................................23

6. Mortalidad...................................................................................................24

V. Principales tipos de estudios epidemiológicos....................................................25


1. Estudios epidemiológicos descriptivos, analítico, cualitativo, cuantitativo,
observacionales y experimentales.......................................................................25

2. Objetivos y utilidad...........................................................................................27

3. Variable de persona, tiempo y lugar y sus combinaciones........................27

------------------------------Segunda vuelta------------------------------...............................33

VI. Estudios de cohortes..........................................................................................33

1. Selección de cohortes a estudio................................................................33

2. Selección del grupo de control...................................................................34

3. Determinantes de FR y el efecto................................................................37

4. Análisis e interpretación de los estudios de cohortes................................39

5. Cálculo de riesgos......................................................................................40

VII. Estudios de casos y controles...........................................................................41

1. Información sobre exposición al FR y al efecto.........................................41

2. Selección de casos.....................................................................................42

3. Selección de controles...............................................................................44

4. Análisis e interpretación de los estudios de casos y controles..................46

VIII. Estudios experimentales y cuasi experimentales............................................47

1. Aspectos generales....................................................................................47

2. Población de referencia..............................................................................47

3. Población experimental..............................................................................47

4. Grupo de estudio........................................................................................47

5. Grupo control..............................................................................................47

6. Análisis e interpretación.............................................................................48

IX. Errores y Sesgos................................................................................................48

1. Fiabilidad validez de la medida..................................................................48


2. Validez interna y externa............................................................................48

------------------------------Tercera vuelta------------------------------.................................48

X. El método estadístico..........................................................................................48

1. Estadística descriptiva e inferencial...........................................................48

2. Población y muestra...................................................................................48

3. Variables estadísticas.................................................................................49

4. Tipo de variable..........................................................................................49

XI. Procedimientos descriptivos en el análisis de datos.........................................51

1. Recogida y presentación grafica................................................................51

2. Frecuencias................................................................................................52

3. Percentiles..................................................................................................52

4. Medidas de tendencia central y de variabilidad.........................................53

Varianza...............................................................................................................54

5. Centro.........................................................................................................55

6. Dispersión y posición de una variable........................................................55

Varianza...........................................................................................................56

Los cuartiles dividen al conjunto en cuatro partes iguales, cada una con un 25 %
de los datos. Se denotan como Q1, Q2 y Q3 y la mediana es el cuartil Q2. De
esta manera, el 25% de los datos está por debajo del cuartil Q1, el 50% por
debajo del cuartil Q2 o mediana y el 75% bajo el cuartil Q3. Medidas de posición
..............................................................................................................................56

Cuartiles............................................................................................................57

Medidas de posición............................................................................................57

Cuartiles............................................................................................................57

Medidas de posición............................................................................................57

Cuartiles..........................................................................................................57
XII. Relaciones entre Variables Probabilidades......................................................58

1. Conceptos y principales propiedades........................................................58

2. Aplicación a los métodos de diagnostico...................................................58

3. Sensibilidad y especificad de un test riesgo relativo y odds ratio de un FR


58

XIII. Variables aleatorias..........................................................................................58

1. Función de densidad y de probabilidad.....................................................58

2. Media..........................................................................................................58

3. Varianza......................................................................................................58

4. Distribuciones de probabilidad...................................................................58

5. Distribución binomial..................................................................................58

6. Distribución normal.....................................................................................58

XIV. Teorías de Muestreo........................................................................................58

1. Muestreo.....................................................................................................58

2. Estimación..................................................................................................59

3. Metodología................................................................................................59

4. Eliminación puntual....................................................................................59

5. Intervalos de confianza..............................................................................59

XV. Contraste de hipótesis......................................................................................59

1. Metodología................................................................................................59

2. Fundamentos..............................................................................................59

3. Tipos de error.............................................................................................59

4. Nivel de significación..................................................................................59

5. Nivel critico.................................................................................................59

6. Contrastes sobre medias...........................................................................59


7. Proporciones más usuales.........................................................................59

8. Test Chi cuadrado para tablas de contingencia.........................................60

Conclusión...............................................................................................................60

Bibliografía...............................................................................................................60
Introducción

La epidemiología es la disciplina científica que estudia la frecuencia y distribución


de fenómenos relacionados con la salud y sus determinantes en poblaciones
específicas, y su aplicación al control de problemas de salud. La epidemiología
tiene entre uno de sus objetivos primordiales el estudio de la distribución y los
determinantes de las diferentes enfermedades. La cuantificación y la medida de la
enfermedad o de otras variables de interés son elementos fundamentales para
formular y testar hipótesis.
I. Epidemiología Básica

1. Epidemiologia. Definición, clasificación, aplicaciones.

La epidemiología es la base y el fundamento de la salud pública. Como agencia de


salud, la principal disciplina de la Organización Panamericana de Salud es por
ende la epidemiología, la cual nos permite medir, definir y comparar los problemas
y condiciones de salud y su distribución en un contexto poblacional, espacial y
temporal. La epidemiología nos dota de instrumentos fundamentales para el
contacto con las comunidades y para la observación de los proyectos.

La epidemiología es la disciplina que estudia la distribución de frecuencia de las


enfermedades o eventos y fenómenos de salud en grupos sociales y los factores
que influyen sobre la ocurrencia y variación de esta distribución

Clasificación de epidemiologia

 La epidemiología descriptiva; estudia la distribución relativa a todas las


variables y factores que condición la salud y la enfermedad en grupos y
comunidades. Su apoyo es la información existente sobre la historia natural
de las enfermedades y la estadística de la población de mortalidad,
morbilidad confiable, así como la investigación de todos los factores que
describen la salud y enfermedad y muerte de las poblaciones.
 La epidemiología analítica; investiga sobre hipótesis previamente
formuladas, la asociación entre la ocurrencia de la enfermedad, los factores
causales y procedimientos de prevención, atención o control. Sus
propósitos se justifican en la ausencia o inconsistencia de conocimientos
sobre la historia natural de la enfermedad.
 La epidemiología experimental; igual que la epidemiología analítica,
también verifica hipótesis, pero lo hace a través de ensayos o experimentos
en animales de laboratorio o en poblaciones humanas, puede utilizar
modelos matemáticos.

En este sentido la clasificación de la epidemiologia tiene relación con los tipos


de diseños de la investigación epidemiológica y/o de los estudios
epidemiológicos. Los estudios epidemiológicos pueden ser de dos tipos:
estudios observacionales y estudios experimentales.

Aplicaciones

Los usos más comunes son: la vigilancia de enfermedades determinando la


historia natural de la enfermedad, la búsqueda de las causas, la valoración de
las pruebas de diagnóstico, la evaluación de la eficacia de los tratamientos y de
nuevas intervenciones y en la evaluación del desempeño de los servicios de
salud.

La epidemiología ha cumplido con una tarea importante al permitir que el


movimiento de salud pública logre una de sus tareas actuales: el control de las
enfermedades infecciosas y la conquista de las enfermedades no infecciosas.

La epidemiología usa el diseño e implementación de las intervenciones


describiendo los patrones de la enfermedad. Esto proporciona la información
sobre quién, dónde, y cuándo enfocar las intervenciones, también sugieren las
medidas de prevención y de control en base a los datos y a la literatura.

2. Ecología y salud, multicausalidad, historia natural de la enfermedad.

Ecología

La ecología es la rama de la biología que se dedica al estudio de los seres vivos y


la relación de éstos con el medio ambiente en el que habitan. Además, la ecología
estudia la abundancia y distribución de seres vivos que existe en un área o región
determinada.

El estudio de la epidemiologia y ecología, aporta los saberes sobre los factores de


riesgos, el saneamiento sustentable y su relación con el proceso de salud y
enfermedad, aplicándolo en la práctica de campo e incidiendo en la mejoría de la
salud en la comunidad.

 La competencia ecológica es la capacidad de un organismo, a menudo un


patógeno, para sobrevivir y competir en nuevos hábitats.
 La epidemiología es otra herramienta importante utilizada para estudiar
enfermedades en una población.
 En la mayoría de los casos, los microorganismos viven en armonía con sus
huéspedes a través de interacciones mutuas o comensales.
 Las enfermedades pueden surgir cuando los parásitos existentes se
vuelven patógenos o cuando nuevos parásitos patógenos ingresan a un
nuevo huésped.

Salud

La salud es un estado de completo bienestar físico, mental y social, y no


solamente la ausencia de afecciones o enfermedades. El goce del grado máximo
de salud que se pueda lograr es uno de los derechos fundamentales de todo ser
humano sin distinción de raza, religión, ideología política o condición económica o
social.

La salud pública es una especialidad de la medicina que se orienta a la prevención


de las enfermedades y promueve la salud para que las personas tengan una vida
larga y saludable, mediante acciones organizadas entre las autoridades
responsables de la salud. En esta perspectiva, la salud pública es responsabilidad
de los gobiernos, a quienes corresponde la organización de todas las actividades
comunitarias que, directa o indirectamente, contribuyen a la salud de la población
con la mejor calidad posible.

 Salud física. Corresponde a la capacidad de una persona de mantener el


intercambio y resolver las propuestas que se plantea. Esto se explica por la
historia de adaptación al medio que tiene el hombre, por lo que sus estados
de salud o enfermedad no pueden estar al margen de esa interacción.
 Salud mental. El rendimiento óptimo dentro de las capacidades que posee,
relacionadas con el ámbito que la rodea. La salud radica en el equilibrio de
la persona con su entorno de ese modo, lo que le implica una posibilidad de
resolución de los conflictos que le aparecen.
 Salud social. Representa una combinación de las dos anteriores: en la
medida que el hombre pueda convivir con un equilibrio psicodinámico, con
satisfacción de sus necesidades y también con sus aspiraciones, goza de
salud social.

Multicausalidad

Según Rothman y Greenland (2005), el modelo de multicausalidad implica que


“una enfermedad en particular puede ser causada por más de un mecanismo
causal, y cada mecanismo causal involucra la acción conjunta de múlti- ples
causas componentes.

La multicausalidad indica que los eventos tienen distintos fundamentos. No hay


una única causa que produce el efecto en cuestión, sino que se llega a esa
consecuencia por la acción de diversos factores.

Por lo general se acepta que esas causas se encuentran ordenadas, están


vinculadas e interactúan entre sí. La noción de multicausalidad aparece tanto en el
terreno de las ciencias sociales como en el ámbito de las ciencias naturales.

Historia natural de la enfermedad

Se entiende por historia natural de la enfermedad, a la manera propia de evolución


que tiene una enfermedad
cuando se deja a su propio
curso. Es decir, es el
estudio de cualquier
enfermedad desde su
génesis y su evolución
hasta las últimas
consecuencias, sin la
intervención del hombre.

El período prepatogénico es el que ocurre antes de que el agente infecte al


huésped; En este período es donde se está llevando a cabo en forma permanente
la interacción de los componentes de la triada epidemiológica: el agente, el
huésped y el medio ambiente y mientras no se presente algún factor condicionante
o desencadenante, la relación en la triada tiende a guardar equilibrio. Cuando se
rompe el equilibrio entre el agente, el huésped y el medio ambiente a
consecuencia del estímulo, el organismo es invadido por el agente
estableciéndose la infección e iniciándose así el período patogénico. Lo primero
que ocurre es que el agente pasa por una fase de adaptación y multiplicación en
los tejidos blanco, ocasionando cambios patológicos a nivel celular que tiempo
después alterará tejidos y órganos, a este proceso se le denomina infección
subclínica la cual tiene una duración variable dependiendo de factores inherentes
al agente, al huésped o al medio ambiente y tiene su término al momento en que
aparecen los primeros signos de la enfermedad.

El curso de la infección subclínica sigue avanzando hasta alcanzar el horizonte


clínico, el cuál inicia al momento en que aparecen los primeros signos de la
enfermedad. Al tiempo que transcurre desde que ocurrió el estímulo y se
estableció la infección hasta que aparecen los primeros signos se le denomina
período de incubación, el cuál puede ser muy corto como el caso de las
intoxicaciones alimentarias o muy largo como sucede con el VIH en el hombre.

Triada ecológica

La tríada ecológica se compone de tres


elementos que están presentes en cada
enfermedad; el hospedero o huésped; el agente
causal; y el medioambiente.

Los factores que constituyen la triada ecológica


o epidemiológica son tres y suelen
representarse en forma de triángulo, que sirve
para explicar las relaciones que existen entre
ellos.

Agente epidemiológico
Los agentes son los factores externos o internos que, aunque intervienen para
provocar una enfermedad, por sí mismos no son capaces de producirlas, ya que
en la mayoría de los casos es necesaria la unión de los demás elementos.

La gran variedad de agentes epidemiológicos incluye los virus, las bacterias o los


parásitos microscópicos. Poseen unas características comunes que permiten que
desarrollen enfermedades en otros organismos:

 Patogenicidad
 Infectividad
 Virulencia
 Poder antigénico o inmunogenicidad
 Letalidad
 Mutación
Inicialmente, la triada ecológica se usaba tan solo para investigar enfermedades
infecciosas. Pero su uso se extendió al estudio de otras patologías y con ello se
ampliaron los agentes causantes:

 Psicológicos: miedos, frustraciones, ansiedad, estrés…


 Físicos: temperatura, radiaciones, electricidad…
 Químicos: efectos secundarios de los medicamentos, sustancias con
niveles de toxicidad…
 Nutricionales: padecimientos producidos por una mala alimentación.

Huésped epidemiológico
También conocido como huésped susceptible, debido a que puede contraer una
enfermedad ocasionada por el agente infeccioso. Todos los seres que poseen un
organismo vivo son considerados huéspedes. En el momento de la infección, sus
mecanismos de resistencia e inmunidad son deficientes y, por tanto, contraen la
enfermedad o infección. Esta susceptibilidad depende de varios factores:

 Estructura genética
 Género del huésped
 Inmunidad o el nivel de esta que posea el individuo
 Nutrición
 Estado mental
 Hábitos personales
Ambiente
El tercer elemento de la triada ecológica es el ambiente y juega un papel
determinante, dado que las condiciones ambientales condicionan que los agentes
sean capaces o no de llegar al huésped.

Dentro del ambiente, existen diferentes condiciones que facilitan la producción y


desarrollo de enfermedades:

 Físicas: geografía, clima y condición del agua o aire, entre otros.


 Biológicas: consiste en la naturaleza del lugar donde el individuo o sujeto de
estudio se desenvuelve, es decir, la flora y fauna.
 Sociales: estatus social, religión, círculos familiares, laborales y de amistad.
3. Medición epidemiológica

Concepto de Medición Epidemiológica

La medición en epidemiología puede llevarse a cabo estudiando a las personas


que enferman. Se pueden definir como la magnitud del cambio de una variable
(enfermedad o muerte) por unidad de cambio de otra (usualmente el tiempo) en
relación con el tamaño de la población que se encuentra en riesgo de
experimentar el suceso.

En epidemiología es primordial la medición, por ello es necesario un conocimiento


detallado de las diferentes medidas que se estiman en esta disciplina, porque de
esto depende la interpretación de la información y, lo más importante, las
decisiones que se tomen en la atención de los pacientes. Tres principales grupos
de medidas en epidemiología: frecuencia, asociación e impacto potencial; se dan
ejemplos y se indica cómo deben calcularse. La incidencia y la prevalencia son las
medidas de frecuencia más significativas y pueden obtenerse cuando se estudia la
morbilidad y mortalidad de las enfermedades; en la epidemiología descriptiva son
fundamentales e implican estudiar cómo se distribuye la enfermedad en la
población, en particular, la incidencia según la persona, lugar y el tiempo. También
se detallan las medidas de asociación que se emplean en la epidemiología
analítica, como la razón de prevalencias, razón de momios y el riesgo relativo.
Además, se abordan el riesgo atribuible, las fracciones poblacionales y etiológicas
en expuestos y las medidas de impacto potencial. En general es importante
considerar que la pertinencia de calcular las medidas de frecuencia, de asociación
y de impacto potencial depende del diseño de estudio.

4. Vigilancia epidemiológica

La vigilancia epidemiológica es uno de los instrumentos de la Salud Pública con


mayor aplicación en el mundo para registrar sistemáticamente la ocurrencia de
enfermedades y sus determinantes en un área geográfica determinada, con la
finalidad de conocer su frecuencia y sus tendencias, así como para llevar acciones
sanitarias para su control o eliminación.

Las medidas de asociación e impacto cuantifican la relación existente entre


variables independientes y dependientes. Una de ellas la exposición o factor de
riesgo y otra el efecto o enfermedad.

 De que se encarga la vigilancia epidemiológica


 La detección de brotes en forma precoz.
 La identificación de cambios en el comportamiento de agentes infecciosos y
la aparición de nuevos agentes.
 El uso de la información de la vigilancia de la resistencia antimicrobiana,
para la elaboración de guías y normas para el tratamiento empírico de las
infecciones.
 El suministro de información confiable que respalde la decisión sobre la
producción, pertinencia y selección de vacunas.
 El monitoreo y control de la fortificación de alimentos y la evaluación de su
impacto.
 La estandarización y normalización de los procedimientos de laboratorio y
de vigilancia, en las redes de servicios de salud.

La priorización de acciones de promoción de la salud, prevención, tratamiento y


control, logrando de esta manera, el uso eficiente y eficaz de los recursos.

Institutos de vigilancia epidemiologia en México


CONAVE - CEVESl: Comite Nacional para la Vigilancia Epidemiológica es un
órgano normativo a nivel nacional, que facilita, fomenta y orienta el quehacer
epidemiológico en el país; está integrado por los titulares de cada una de las
instituciones que forman el Sistema Nacional de Salud.

El Sistema Nacional de Vigilancia Epidemiológica (SINAVE) es el conjunto de


estrategias y acciones epidemiológicas que permiten la producción de información
epidemiológica útil para la salud pública.

SUIVE: El Sistema Único de Información para la Vigilancia Epidemiológica genera


información homogénea de los servicios de salud en sus diferentes niveles
técnico-administrativos.

SEEDE: El Sistema Epidemiológico y Estadístico de las Defunciones recopila


información proveniente de los certificados de defunción, con el objetivo de llevar
un registro de las causas de muerte en la población, para así detectar riesgos y
tener la posibilidad de desarrollar acciones de salud y evitar que la población
muera por estas causas.

5. Vigilancia epidemiológica en hospitales

La Unidad de Vigilancia Epidemiológica Hospitalaria, es creada para la vigilancia,


prevención y control de las infecciones nosocomiales y delimitar las
complicaciones infecciosas a los pacientes durante su hospitalización.

La Unidad de Vigilancia Epidemiológica Hospitalaria, mejora la atención de calidad


del personal de salud encargado del cuidado del paciente, mediante una serie de
esfuerzos y estrategias que permitan modificar y establecer medidas de control de
las infecciones intrahospitalaria

- Detectar y prevenir las complicaciones infecciosas y proponer medidas para


prevenirlas.
- Innovar los sistemas administrativos de la Unidad de Vigilancia
Epidemiológica Hospitalaria.
- Sugerir e implementar Acciones de Educación e Investigación encaminadas
a la prevención de infecciones intrahospitalarias.
- Participación activa con la Dirección General de Epidemiología.
- Fortalecer el desarrollo del personal de Enfermería de la Unidad de
Vigilancia
- Epidemiológica Hospitalaria.
II. Tasa, índices y razones de valor sanitario

1. Concepto y análisis de natalidad

El concepto de natalidad se utiliza para hacer referencia a la cifra proporcional de


los nacimientos que tienen lugar en una población y un periodo de tiempo
determinados. Desde la perspectiva de la demografía, la tasa de natalidad
constituye una medida que permite cuantificar los niveles de fecundidad. La
natalidad, por ejemplo, aporta datos que permiten el diseño de políticas sociales y
económicas. Las poblaciones que envejecen a tasas muy rápidas y registran
pocos nacimientos, es probable que queden estancadas y no sean productivas
desde el punto de vista económico. Por lo tanto, las autoridades intentarán facilitar
la radicación de matrimonios jóvenes que estén en condiciones de aportar nuevos
habitantes al pueblo.

2. Morbilidad

La morbilidad es un estado enfermo, de discapacidad, o mala salud debido a


cualquier causa. El término puede ser usado para referirse a la existencia de
cualquier forma de enfermedad, o al grado en que esa condición de salud afecta al
paciente. También se entiende como la proporción de seres vivos que enferman
en un sitio y tiempo determinado. Minoritariamente también se usa como sinónimo
de morbididad, que etimológicamente es correcto.

La morbilidad se refiere a males, enfermedades, lesiones y discapacidades dentro


de una población. Los datos acerca de la frecuencia y la distribución de una
enfermedad pueden ayudar a controlar su propagación y, en algunos casos, es
posible que pueda identificarse su causa.

La Organización Mundial de la Salud la define como “toda desviación subjetiva u


objetiva de un estado de bienestar”.

Los datos de morbilidad pueden provenir de los registros ordinarios que llevan los
registros sanitarios públicos, médicos y otros, así como encuestas. El índice se
obtiene al dividir la cantidad de enfermos de una localidad o región entre el total de
su población, multiplicado por 1000 o por 100.000.
Este dato permite a los gobiernos establecer políticas adecuadas para cumplir el
derecho a la salud consagrado en las distintas constituciones.

3. Mortalidad y movimientos migratorios

Cuando la migración es muy significativa, la pérdida de población puede mermar


el potencial productivo de las comunidades de origen, ya que su salida, temporal o
definitiva, genera escasez de fuerza de trabajo en ciertos sectores o industrias
específicas y, por ende, tiende a desincentivar el crecimiento económico
Particularmente, en los municipios en donde la migración ocurre con una mayor
intensidad, ésta se posterga a una mayor edad; el resultado de la pérdida de la
población en edades laborales y reproductivas es una tasa de envejecimiento en
estos municipios más alta que a nivel nacional, reflejada en un incremento en los
porcentajes de niños y adultos mayores.

Las causas y consecuencias de la migración son situaciones políticas, sociales,


económicas o culturales que impulsan la salida del lugar de origen o la llegada al
lugar de destino. Por lo general, se trata de factores que restan calidad de vida y
que el migrante trata de solucionar desplazándose de su ciudad o país

Las migraciones humanas son un fenómeno constante a lo largo de la historia de


la humanidad. Los movimientos migratorios han ido dando forma a las sociedades
en las que vivimos, todas han sido y son, en algún momento de su historia,
sociedades emisoras o sociedades receptoras de migrantes.

A los movimientos migratorios se les llama emigración o inmigración.

Las migraciones se pueden clasificar en dos tipos, las migraciones forzosas que
son las que se realizan involuntariamente, y están provocadas por guerras,
desastres naturales, motivos políticos, etc y las migraciones voluntarias que son
migraciones libres o espontáneas que se producen por el iniciativa personal y por
una motivación generalmente económica.
4. Ajustes de tasas

El ajuste de tasas por determinada variable plantea la comparación de tasas


globales de dos o más poblaciones, sobre la base de una distribución de dicha
variable común a estas poblaciones. La gran ventaja del método de ajuste directo
es que permite construir tasas ajustadas comparables gracias al empleo de una
misma población estándar; esta aseveración, como se verá más adelante, exige
alguna matización. Para comparar dos o más tasas ajustadas existen varios
indicadores. Los más utilizados son: la diferencia, la razón y el porcentaje de
variación entre tasas ajustadas. Si la medida de comparación es la diferencia de
tasas ajustadas entre dos puntos en el tiempo, las tasas específicas han de
mantener una diferencia constante a lo largo del tiempo para que la comparación
sea válida. Si la medida elegida es la razón o el porcentaje de cambio de las tasas
entre dos puntos en el tiempo, entonces las tasas específicas necesitan mantener
una razón de tasas constante a lo largo del tiempo para que la comparación sea
válida. Selección de la población estándar. Se puede clasificar las poblaciones
estándar en dos tipos: internas y externas. Las primeras se obtienen de los
propios datos que se van a utilizar en el análisis, por ejemplo, la suma o la media
de todas las poblaciones cuyas tasas brutas se van a ajustar. No exento de
ventajas –la población estándar resultante no sería radicalmente diferente a las
poblaciones de estudio- presenta un importante inconveniente: las tasas ajustadas
que se obtendrán no se podrían comparar con tasas ajustadas usando otras
poblaciones estándar. Las poblaciones estándar externas son aquellas obtenidas
de fuentes ajenas a los datos de análisis, por ejemplo, las propuestas por la
Organización Mundial de la Salud (OMS)

III. La variable epidemiológica

La medición es un proceso inherente y consustancial a toda investigación, sea


ésta cualitativa o cuantitativa. Medimos principalmente variables y ello
demanda considerar tres elementos básicos: el instrumento de medición, la
escala de medición y el sistema de unidades de medición. La validez,
consistencia y confiabilidad de los datos medidos dependen, en buena parte,
de la escala de medición que se adopte.

1. Escalas de medida

Otra aproximación es que los datos pueden definirse también por la escala usada
para la medición de las variables, distinguiéndose cuatro de ellas: nominales,
ordinales, de intervalo y de razón. Los cuatro niveles de medida determinan qué
operaciones son posibles de usar y por consiguiente las pruebas estadísticas que
son permisibles en cada nivel. Todas las escalas tienen algunas propiedades
formales que proporcionan definiciones de las características de la escala con
mayor exactitud que las que puede asignarse en términos verbales. Estas
propiedades pueden expresarse más abstractamente especificando las
operaciones aritméticas posibles y las relaciones entre los objetos que han sido
clasificados.

1) La escala nominal. Comprende los datos nominales que no tienen un orden:


los datos dicotómicos solo pueden tomar dos valores posibles (como vivo o
muerto). Es el nivel de medición más débil. Los números u otros símbolos
se usan simplemente para clasificar un objeto, persona o característica.
2) Escala ordinal o de rangos. Comprende los datos ordinales con un mínimo
de tres valores posibles y con un número total limitado. Los objetos en una
categoría no sólo son diferentes de los objetos en otras categorías de esa
misma escala sino que tienen alguna relación con ellos. Relaciones típicas
son: mayor, más alto, más difícil, más enfermo, menos grave. Su significado
específico depende de la naturaleza de la relación que define esa escala.
3) La escala de intervalo. Comprende los datos continuos o datos discretos
que contienen un elevado número de posibles valores. Las distancias entre
cualquier par de números de la escala tienen una dimensión conocida y
constante por lo que es posible conocer con certeza la magnitud de los
intervalos. Se caracteriza por tener una unidad común de medida que
asigna un número real a todos los pares de objetos en el conjunto
ordenado.
4) Escala de razón. Además de todos los atributos de una escala de
intervalos, ésta tiene en su origen un cero verdadero y en ella la razón entre
dos puntos de la escala es independiente de la unidad de medida. La masa,
el peso, la distancia, el tiempo se miden en esta escala.

2. Fuentes de variabilidad

Las medidas de variabilidad son aquellas que miden la dispersión de los datos, es
decir, nos dicen qué tan parecidos o que tan diferentes son entre si los valores
observados. La variabilidad es la dispersión de los valores de una variable en una
distribución teórica o en una muestra. Puede ser conocida o desconocida y deriva
de factores biológicos o de errores en la medición.

Una fuente de variación es cualquier causa que pueda generar variabilidad en la


respuesta. Es recomendable hacer una lista de todas las posibles fuentes de
variación del problema, distinguiendo las que generarán una mayor variabilidad.

Las fuentes de variabilidad epidemiológica están relacionadas con:

 El factor de riesgo
 El efecto
 Los factores asociados y de confusión
 Las características y atributos de persona, tiempo y de lugar
 La mayor precisión en establecer las variables es útil para presentar
categorías de interés epidemiológico

3. Epidemiologia de los factores de riesgo (FR) y el efecto

Los factores de riesgo son aquellas características y atributos (variables) que se


presentan asociados diversamente con la enfermedad o el evento estudiado. Los
factores de riesgo no son necesariamente las causas, solo sucede que están
asociadas con el evento.

Un factor de riesgo es toda circunstancia o situación que aumenta las


probabilidades de una persona de contraer una enfermedad o cualquier otro
problema de salud. Los factores de riesgo implican que las personas afectadas por
dicho factor de riesgo, presentan un riesgo sanitario mayor al de las personas sin
este factor.

IV. Medidas de frecuencia

1. Razón

La medida más elemental de frecuencia de una enfermedad, o de cualquier otro


evento en general, es el número de personas que la padecen o lo presentan (por
ejemplo, el número de pacientes con hipertensión arterial, el número de fallecidos
por accidentes de tráfico o el número de pacientes con algún tipo de cáncer en los
que se ha registrado una recidiva).

Las razones pueden definirse como magnitudes que expresan la relación


aritmética existente entre dos eventos en una misma población, o un solo evento
en dos poblaciones. En el segundo ejemplo se encuentran casos como la razón de
tasas de mortalidad por causa específica (por ejemplo, por diarreas) en dos
comunidades. En este caso, la razón expresaría la relación cuantitativa que existe
entre la tasa de mortalidad secundaria a diarreas registrada en la primera ciudad y
la tasa de mortalidad secundaria a diarreas registrada en la segunda. La razón
obtenida expresa la magnitud relativa con la que se presenta este evento en cada
población.

2. Porción

Son medidas que expresan la frecuencia con la que ocurre un evento en relación
con la población total en la cual éste puede ocurrir. Esta medida se calcula
dividiendo el número de eventos ocurridos entre la población en la que ocurrieron.
Como cada elemento de la población puede contribuir únicamente con un evento
es lógico que al ser el numerador (el volumen de eventos) una parte del
denominador (población en la que se presentaron los eventos) aquel nunca pueda
ser más grande que éste. Esta es la razón por la que el resultado nunca pueda ser
mayor que la unidad y oscile siempre entre cero y uno.

Por ejemplo, si en un año se presentan tres muertes en una población compuesta


por 100 personas, la proporción anual de muertes en esa población será:
A menudo las proporciones se expresan en forma de porcentaje, y en tal caso los
resultados oscilan entre cero y 100. En el ejemplo anterior, la proporción anual de
muertes en la población sería de 3 por 100, o de 3%. Nótese, asimismo, que el
denominador no incluye el tiempo. Las proporciones expresan únicamente la
relación que existe entre el número de veces en las que se presenta un evento y el
número total de ocasiones en las que se pudo presentar.

3. Tasa

El riesgo a la salud es una medida que refleja la probabilidad de que se produzca


un efecto o daño a la salud dentro de un periodo de tiempo establecido.

La tasa es una medida de la rapidez de cambio de un estado a otro estado (v.g.,


de sano a enfermo) y, por tanto, también expresa un riesgo. Sin embargo, a
diferencia del riesgo, la tasa involucra la experiencia de exposición de la población
en unidades efectivas de tiempo-persona.

La probabilidad es medible o cuantificable y su valor numérico se sitúa entre 0 y 1


(siendo 1 la certeza absoluta). Por conveniencia se puede expresar como un
número decimal, una fracción o un porcentaje. Se suele expresar como un valor
de fracción multiplicado por una constante. Tiene 3 componentes básicos: un
numerador, que corresponde al número de individuos que experimenta el evento
de interés (v.g., muerte, enfermedad, nacimiento, ingreso hospitalario); un
denominador, que corresponde al número total de individuos en la población
expuestos o en riesgo de presentar el evento; y, un período de tiempo específico,
durante el cual se observa la frecuencia del evento de interés y la población que
ha estado expuesta efectivamente.

4. Incidencia

La incidencia, por su parte, expresa el volumen de casos nuevos que aparecen en


un periodo determinado, así como la velocidad con la que lo hacen; es decir,
expresa la probabilidad y la velocidad con la que los individuos de una población
determinada desarrollarán una enfermedad durante cierto periodo. En los estudios
epidemiológicos en los que el propósito es la investigación causal o la evaluación
de medidas preventivas, el interés está dirigido a la medición del flujo que se
establece entre la salud y la enfermedad, es decir, a la aparición de casos nuevos.
Como ya se mencionó anteriormente, la medida epidemiológica que mejor expresa
este cambio de estado es la incidencia, la cual indica la frecuencia con que
ocurren nuevos eventos.

A diferencia de los estudios de prevalencia, los estudios de incidencia inician con


poblaciones de susceptibles libres del evento en las cuales se observa la
presentación de casos nuevos a lo largo de un periodo de seguimiento. De esta
manera, los resultados no sólo indican el volumen final de casos nuevos
aparecidos durante el seguimiento, sino que permiten establecer relaciones de
causa-efecto entre determinadas características de la población y enfermedades
específicas. La incidencia de una enfermedad puede medirse de dos formas:
mediante la tasa de incidencia (basada en el tiempo-persona) y mediante la
incidencia acumulada (basada en el número de personas en riesgo).

La tasa de incidencia (también denominada densidad de incidencia) expresa la


ocurrencia de la enfermedad entre la población en relación con unidades de
tiempo- persona, por lo que mide la velocidad de ocurrencia de la enfermedad. La
incidencia acumulada, en cambio, expresa únicamente el volumen de casos
nuevos ocurridos en una población durante un periodo, y mide la probabilidad de
que un individuo desarrolle el evento en estudio. La incidencia acumulada, por
esta razón, también es denominada riesgo.

5. Prevalencia

La enfermedad puede medirse en términos de prevalencia o de incidencia. La


prevalencia se refiere al número de individuos que, en relación con la población
total, padecen una enfermedad determinada en un momento específico. Debido a
que un individuo sólo puede encontrarse sano o enfermo con respecto a cualquier
enfermedad, la prevalencia representa la probabilidad de que un individuo sea un
caso de dicha enfermedad en un momento específico.

La prevalencia es una proporción que indica la frecuencia de un evento. En


general, se define como la proporción de la población que padece la enfermedad
en estudio en un momento dado, y se denomina únicamente como prevalencia (p).
Como todas las proporciones, no tiene dimensiones y nunca puede tomar valores
menores de 0 o mayores de 1. A menudo, se expresa como casos por 1,000 o por
100 habitantes.

En la construcción de esta medida no siempre se conoce en forma precisa la


población expuesta al riesgo y, por lo general, se utiliza sólo una aproximación de
la población total del área estudiada. Si los datos se han recogido en un momento
o punto temporal dado, p es llamada prevalencia puntual.

6. Mortalidad

El concepto de mortalidad expresa la magnitud con la que se presenta la muerte


en una población en un momento determinado. A diferencia de los conceptos de
muerte y defunción que reflejan la pérdida de la vida biológica individual, la
mortalidad es una categoría de naturaleza estrictamente poblacional. En
consecuencia, la mortalidad expresa la dinámica de las muertes acaecidas en las
poblaciones a través del tiempo y el espacio, y sólo permite comparaciones en
este nivel de análisis. La mortalidad puede estimarse para todos o algunos grupos
de edad, para uno o ambos sexos y para una, varias o todas las enfermedades. La
mortalidad se clasifica de la siguiente manera: a) general y b) específica.

Mortalidad general

La mortalidad general es el volumen de muertes ocurridas por todas las causas de


enfermedad, en todos los grupos de edad y para ambos sexos. La mortalidad
general, que comúnmente se expresa en forma de tasa, puede ser cruda o
ajustada, de acuerdo con el tratamiento estadístico que reciba.

La mortalidad cruda expresa la relación que existe entre el volumen de muertes


ocurridas en un periodo dado y el tamaño de la población en la que éstas se
presentaron; la mortalidad ajustada (o estandarizada) expresa esta relación pero
considera las posibles diferencias en la estructura por edad, sexo, etcétera, de las
poblaciones analizadas, lo que permite hacer comparaciones entre éstas. En este
caso, las tasas se reportan como tasas ajustadas o estandarizadas. La tasa cruda
de mortalidad se calcula de acuerdo con la siguiente fórmula:

V. Principales tipos de estudios epidemiológicos

1. Estudios epidemiológicos descriptivos, analítico, cualitativo, cuantitativo,


observacionales y experimentales.

Descriptiva (Observacional, Exploratoria, “No experimental”, Formulativa, etc).


Exhibe el conocimiento de la realidad tal como se presenta en una situación de
espacio y de tiempo dado. Aquí se observa y se registra, o se pregunta y se
registra. Describe el fenómeno sin introducir modificaciones: tal cual. Las
preguntas de rigor son: ¿Qué es?, ¿Cómo es?, ¿Dónde está?, ¿Cuándo ocurre?,
¿Cuantos individuos o casos se observan?, ¿Cuáles se observan?. La expresión
relacional es: “X”. . . (Tal cual, como una foto). “Y”]

b. Analítica (Explicativa, Relacional, Estocástica, Correlacional, etc). Busca la


asociación o correlación entre variables. No establece relaciones causales. El
Objetivo y/o hipótesis y las variables postulan “relaciones” probabilísticas. La
expresión relacional es: “X” • “X”→. “Y”. En el mercado de los conocimientos
(sociosfera) los de mayor demanda son los analíticos, o de dependencia mutua
(Informacionalización); pues con ella se puede manejar más expeditivamente
múltiples variables. La data es: Descriptivos: 15 %, Analíticos: 50 % y
Experimentales: 35 %.

c. Experimental (De Comprobación, de hipótesis causales o de Desarrollo o de


Innovación). Aquí se aplica estímulos (X) a “sujetos o unidades experimentales
(UE)”: animales, plantas, etc. Se observa la reacción (Y) y se registra el resultado
u observación (O). Establecen la relación causa-efecto. Las preguntas de rigor
son: ¿cuántos experimentos se debe realizar? y, ¿bajo qué condiciones? Estas
interrogantes son respondidas por el “diseño o estrategia experimental” para
garantizar: i) homogeneidad de las unidades experimentales, ii) asignación
aleatoria de tratamientos, y iii) orden de ejecución de experimentos. Los objetivos
y/o hipótesis postulan una relación causa-efecto. La expresión relacional es: “X” –
“Y” → “Y”.

Los métodos de investigación son procedimientos específicos para recopilar y


analizar datos. En este sentido, lo primero que hay que hacer al planificar un
método de investigación es decidir qué técnica utilizar: la cualitativa o cuantitativa.
No obstante, esta elección dependerá en gran medida del tema que se quiera
abordar, del tipo de datos que se necesiten y de las personas o los elementos de
los que se recopilarán datos. 

Los datos recogidos se pueden representar tanto en números como en palabras;


ahí la diferencia entre ambos tipos. Y es que, mientras la investigación
cuantitativa se ocupa de los números y las estadísticas, en la investigación
cualitativa se emplean las palabras y los significados. 

Como hemos mencionado, si bien presentan ciertas diferencias, tanto la


investigación cualitativa como la cuantitativa son importantes para adquirir
diversos tipos de conocimiento. A continuación, te explicamos cuáles son sus
características y en qué casos se emplea cada una de ellas.

Investigación cuantitativa

La investigación cuantitativa se usa para comprender frecuencias, patrones,


promedios y correlaciones, entender relaciones de causa y efecto, hacer
generalizaciones y probar o confirmar teorías, hipótesis o suposiciones mediante
un análisis estadístico. De esta manera, los resultados se expresan en números o
gráficos.  

Algunas de las herramientas empleadas en investigación cuantitativa para


recopilar datos son:

 Encuestas o cuestionarios: las encuestas o los cuestionarios que se


emplean plantean una misma serie de preguntas cerradas a un gran
número de participantes o utilizan escalas para medir datos numéricos.

 Experimentos: se incluyen pruebas de hipótesis en un laboratorio y


pruebas de relaciones de causa y efecto.

 Observación: se cuenta el número de veces que ocurre un fenómeno o


evento en concreto o se codifican datos observados para expresarlos en
números.

 Selección de documentos: se obtienen datos numéricos de informes


financieros o a partir de un recuento de apariciones de palabras.

Investigación cualitativa implica recopilar y analizar datos no numéricos para


comprender conceptos, opiniones o experiencias, así como datos sobre
experiencias vividas, emociones o comportamientos, con los significados que las
personas les atribuyen. Por esta razón, los resultados se expresan en palabras.

Este tipo de investigación se basa en el juicio de los investigadores, por lo que se


debe reflexionar cuidadosamente sobre sus elecciones y suposiciones. Se trata de
una técnica que se emplea habitualmente en áreas como la antropología, la
sociología, la educación o la historia, entre otras, ya que esta les ayuda a obtener
una mejor comprensión de conceptos complejos, interacciones sociales o
fenómenos culturales. Asimismo, es útil para explorar cómo o por qué han ocurrido
los hechos, permite interpretarlos y contribuye a describir las acciones a realizar.
2. Objetivos y utilidad.

La información necesaria para cumplir con los objetivos de la investigación


epidemiológica, ya sea de tipo descriptivo o analítico, se deriva de la
experimentación con seres humanos o, más frecuentemente, de la observación
directa de grupos poblacionales. A pesar de que para la epidemiología es de
interés principal derivar conocimiento de aplicación poblacional, raramente estudia
a la población en su conjunto.

3. Variable de persona, tiempo y lugar y sus combinaciones.

Los principios para el estudio de la distribución de dichos eventos de salud se


refieren al uso de las tres variables clásicas de la epidemiología: tiempo, lugar y
persona.

La descripción del problema incluye las diferentes características de un evento


epidemiológico: la identificación de una enfermedad, la frecuencia de su
distribución en grupos de población específicos, los aspectos del/los factores de
riesgo, la determinación de los efectos y la población en riesgo.

Con respecto a la enfermedad se deben establecer las definiciones de caso tanto


clínico como de laboratorio y en qué momento de la evolución de la enfermedad
se va establecer.

Las variables de persona. Son rasgos, cualidades, propiedades de la persona,


que, por tener alguna relación con una enfermedad, tienen interés epidemiológico
ya que individuos con ciertas características pueden tener mayor o menor
probabilidad de padecer una enfermedad.

Entre las características generales de las personas, suelen tenerse en cuenta


algunas como: religión, educación, clase social, estatus socioeconómico,
ocupación, cultura, costumbres, y por supuesto, aquellas que son inherentes a las
personas como: sexo, raza, edad, orden de nacimiento. De las variables de
persona, las más usadas son: edad y sexo.

Variables de tiempo.
La distribución temporal de los casos de una determinada enfermedad o evento
epidemiológico permite detectar cambios en la tendencia de una enfermedad o
identificar enfermedades emergentes. Los cambios en la tendencia temporal
pueden ser debidos a factores como: cambios en las formas diagnósticas de la
enfermedad; Modificación en las definiciones de caso; cambios en la exactitud de
la población en riesgo; en la distribución por edad de la población; en la
supervivencia de los enfermos; en la incidencia de por alteración de factores
medioambientales o estilos de vida. Es muy importante la unidad de tiempo
empleada en el análisis para distinguir algunos aspectos de importancia En
relación con enfermedades de tipo agudo, intoxicaciones o enfermedades
infectocontagiosas, en general, la unidad de tiempo utilizada puede expresarse en
horas, días o semanas.

Con respecto a las enfermedades de tipo crónico, la unidad puede ser, el año, el
quinquenio o aún la década.

Variables de lugar.

Las consideraciones epidemiológicas deben tener en cuenta los aspectos


relacionados con la unidad de lugar empleada y la morbilidad del mismo para
distinguir entre factores inherentes de aquel lugar y factores agregados.

El lugar epidemiológico puede ser tan pequeño como una institución hospitalaria, o
una escuela, un barrio; puede representar un área administrativa como una
comunidad local, o un área regional, o un conjunto de áreas ecológicas, país o
continente.

Las tasas o proporciones crudas o brutas establecen la frecuencia de la


enfermedad en relación con la población en riesgo que es la población de sujetos
susceptibles de poder tener la enfermedad investigada y también con la población
general.

Incidencia: es el número de casos nuevos de una enfermedad que aparecen en


una población en un período de tiempo determinado. Hay dos tipos de medida de
incidencia, la incidencia acumulada y la densidad de incidencida. La Incidencia
acumulada es la probabilidad que tiene un individuo de desarrollar la enfermedad
en la población estudiada y en el período de tiempo definido.

Tasa de ataque: es la proporción de personas que estando expuestas a una


fuente de infección contraen la enfermedad. Mide el riego de enfermar tras una
determinada exposición. Para que la tasa de ataque sea válida es necesario
conocer todas las personas que han estado en riesgo.

Prevalencia: es la proporción de persona enfermas (casos nuevos + casos que


aún no se han curado) en una población en un determinado período de tiempo.

Cuando la comparación se hace entre dos o más lugares, se debe tratar con tasas
o proporciones específicas, ajustadas, por edad o por alguna otra característica, o
variable de importancia, es decir, tasas estandarizadas.

Formulación y pruebas de hipótesis

Además de revisar la distribución de la enfermedad en relación con las categorías


de persona, tiempo y lugar, se pueden formular hipótesis basadas en estas
variables para orientar hacia causalidad.

En enfermedades agudas infecciosas, el aislamiento de algún tipo de


microorganismo proporciona la causa necesaria para el desarrollo de la
enfermedad. En enfermedades crónicas, no siempre se obtienen datos sobre la
secuencia del factor de riesgo, del efecto y del tiempo transcurrido entre lo uno y lo
otro.

4. Clasificación

La epidemiologia puede ser clasificada en descriptiva, analítica y experimental


la epidemiología descriptiva; estudia la distribución relativa a todas las
variables y factores que condición la salud y la enfermedad en grupos y
comunidades. Su apoyo es la información existente sobre la historia natural de
las enfermedades y la estadística de la población de mortalidad, morbilidad
confiable, así como la investigación de todos los factores que describen la
salud y enfermedad y muerte de las poblaciones. La epidemiología analítica;
investiga sobre hipótesis previamente formuladas, la asociación entre la
ocurrencia de la enfermedad, los factores causales y procedimientos de
prevención, atención o control. Sus propósitos se justifican en la ausencia o
inconsistencia de conocimientos sobre la historia natural de la enfermedad. La
epidemiología experimental; igual que la epidemiología analítica, también
verifica hipótesis, pero lo hace a través de ensayos o experimentos en
animales de laboratorio o en poblaciones humanas, puede utilizar modelos
matemáticos La Epidemiología es la rama de la Medicina que estudia la
frecuencia, la distribución y los determinantes de estados y sucesos
relacionados con la salud y enfermedad. Como todo método científico, el
método epidemiológico tiene 3 fases. En primer lugar, observar o conocer la
frecuencia y distribución de las enfermedades. A continuación, los patrones de
frecuencia y distribución pueden dar lugar a hipótesis de asociación entre la
enfermedad y un determinado factor. Finalmente, se diseña un estudio
experimental para verificar o refutar la hipótesis planteada. Los estudios
epidemiológicos se clasifican en descriptivos o analíticos. Los estudios
descriptivos valoran la frecuencia y la distribución de las enfermedades en las
poblaciones, con relación a las variables de persona, lugar y tiempo. Estos
pueden aportar indicios que contribuyan a generar hipótesis sobre
asociaciones entre factores de exposición y estados de salud o enfermedad.
Los estudios analíticos valoran los determinantes de los estados de salud o
enfermedad, comprobando o rechazando las hipótesis generadas por los
estudios descriptivos, con el objetivo de identificar factores de riesgo o
protectores de una enfermedad. Entre los estudios descriptivos encontramos
los estudios ecológicos, realizados sobre poblaciones, y las series de casos y
estudios transversales, realizados sobre individuos. Los estudios analíticos
pueden ser observacionales (estudios de casos y controles, estudios de
cohortes) o intervencionistas (ensayos clínicos, ensayos de campo, ensayos
comunitarios).
5. Criterios de causalidad

Los epidemiólogos a menudo hallan el análisis de los datos como la parte más
disfrutable de llevar a cabo un estudio epidemiológico, dado que después de
todo el duro trabajo y la espera, tienen la oportunidad de encontrar las
respuestas. ¡Si los datos no proveen respuestas, es una oportunidad más para
la creatividad! De manera que el análisis y la interpretación de los resultados
son el “premio” que recompensa el trabajo de recolección de datos los datos,
sin embargo, no “hablan por sí mismos”. Revelan lo que el analista puede
detectar. De manera que cuando el investigador novato, tratando de obtener
esta recompensa, se encuentra sólo con el conjunto de datos y ninguna idea
de cómo proceder, la sensación puede ser una de más ansiedad que de
entusiasta anticipación. Igual que con otros aspectos de un estudio, el análisis
e interpretación del estudio debe relacionarse con los objetivos del mismo y el
problema de investigación. Una estrategia, a menudo útil, es comenzar
imaginando o hasta trazando el (los) manuscrito(s) que deberían escribirse a
partir de los datos. El enfoque habitual es comenzar con los análisis
descriptivos, explorar y lograr “sentir” los datos. El analista luego dirige su
atención a las preguntas específicas planteadas en los objetivos o hipótesis de
estudio, de los hallazgos y planteos informados en la literatura, y de los
patrones sugeridos por lo análisis descriptivos. Antes de comenzar el análisis
en serio, sin embargo, habitualmente hay que llevar a cabo una cantidad
considerable de trabajo preparatorio. En epidemiología, la causalidad se define
como el estudio de la relación etiológica entre una exposición, por ejemplo, la
toma de un medicamento y la aparición de un efecto secundario los efectos
pueden ser:

• Enfermedad
• Muerte
• Complicación
• Curación
• Protección (vacunas)
• Resultado (uso de métodos, cambio de prácticas, erradicación de una
enfermedad, participación en un programa, etc.)
Las causas o factores que influyen en el proceso salud-enfermedad de la
población requieren una investigación adecuada para prevenir la aparición
de efectos no deseados y controlar su difusión a continuación
mencionamos algunos factores causales de enfermedades:
• Factores biológicos (edad, sexo, raza, peso, talla, composición genética,
estado nutricional, estado inmunológico).
• Factores psicológicos (autoestima, patrón de conducta, estilo de vida,
respuesta al estrés).
• Factores relacionados con el medio ambiente social y cultural
(calentamiento global, contaminación, cambios demográficos, estilo de vida,
actividad física durante el tiempo de ocio, pertenencia a una red social,
acceso a servicios básicos, hacinamiento, drogadicción, alcoholismo).
• Factores económicos (nivel socioeconómico, categoría profesional, nivel
educativo, pobreza.
• Ámbito laboral (accidente de trabajo, empleo, pérdida del empleo, acceso
a la seguridad social, tensión laboral, contaminación sonora, condiciones
del ambiente de trabajo).
• Factores políticos (guerras, embargos, pago de la deuda externa,
globalización, invasión).
• Factores relacionados con el medio ambiente físico (geología, clima,
causas físicas, causas químicas, presencia de vectores, deforestación.
• Servicios de salud (acceso a servicios de salud, programas de control y
erradicación de enfermedades, vigilancia epidemiológica, vigilancia
nutricional).
VI. Estudios de cohortes

1. Selección de cohortes a estudio

Antes de que pueda identificarse a las personas expuestas es necesario definir


explícitamente los niveles y duración mínima de la exposición. Adicionalmente, en
el estudio pueden fijarse criterios de elegibilidad, pero lo más importante es que
los sujetos estén libres al menos momentáneamente del evento de estudio. En
estudios de cohorte se puede contar con más de un grupo de exposición. La
decisión de incluir o excluir a determinados sujetos de la población de estudio
dependerá de la exposición y del resultado que interesa, así como de la medida en
que se influye sobre la heterogeneidad al restringir la admisión a ciertos grupos.
La exposición y las covariables en estudio pueden ser dependientes del tiempo,
por lo que es necesario considerar los factores por los cuales el nivel de
exposición varía con el tiempo, así como variación de tasas y la posibilidad de que
los confesores y modificadores de efecto varíen en el tiempo. En las exposiciones
fijas los factores no cambian a través del tiempo, tal es el caso del sexo y el lugar
de nacimiento, entre otros. Existen otras múltiples aplicaciones en que pueden
utilizarse los estudios de cohorte, como puede observarse en el cuadro II, de
acuerdo con su dimensión tiempo. Entre ellos la edad que es un determinante de
incidencia; el tiempo calendario, donde los antecedentes y exposición pueden
variar con el tiempo; el seguimiento propiamente dicho que puede ser un índice de
exposición. Asimismo, la duración de la exposición refleja un índice de exposición
acumulada. El tiempo transcurrido desde la exposición útil al evento es también
referido como latencia y, finalmente, el tiempo desde el final de la exposición
puede reflejar declinación en el riesgo. Los sujetos no-expuestos han de ser
similares a los expuestos en todos sus aspectos excepto en que no han estado
sometidos a la exposición que se estudia. La captación de los sujetos no-
expuestos debe ser la misma que se aplicó a los sujetos expuestos. Deben tener,
además, el mismo riesgo potencial de presentar el evento de estudio, y tener las
mismas oportunidades que los expuestos de ser diagnosticados del evento
resultado en estudio. Las opciones utilizadas para la conformación de las cohortes
varían según la exposición que es objeto de estudio. Así, por ejemplo, el estudio
de la dieta o estilos de vida se ha estudiado en cohortes conformadas con
muestras de la población general, mientras que exposiciones poco frecuentes se
han estudiado en cohortes ocupacionales.

2. Selección del grupo de control

Para realizar un estudio de cohorte se deben seleccionar dos grupos o cohortes


libres del desenlace o enfermedad, con características muy similares y que sólo
difieran en la presencia o no del factor de riesgo que se sospecha como causa del
desenlace. Estos dos grupos son seguidos a través de un período establecido, y al
final de éste se observa quiénes presentaron la enfermedad y quiénes no (véase
de acuerdo con la forma como se recolecta la información de la exposición, los
estudios de cohorte se dividen en:

• Prospectivo (cohorte concurrente).

• Retrospectivos (cohorte histórica).

• Mixtos (ambidireccionales).

En una cohorte prospectiva, el investigador recolecta la información de la


exposición o no exposición de los sujetos al tiempo que el estudio inicia
(concurrente), e identifica a lo largo del seguimiento los nuevos casos de
enfermedad desde el momento en que se inició. Por ejemplo, si se tiene un grupo
de personas víctima de sexual durante el abuso de la infancia (grupo expuesto) y
otros que no han sido abusados sexualmente (grupo no expuesto) y se siguen
hasta los 25 años para evaluar cuál de los grupos presenta mayor somatización.
En la cohorte retrospectiva, al principio del estudio se posee información sobre la
exposición o no y sobre la presencia del desenlace o no que se pretende estudiar.
Por ejemplo, se cuenta con la información en una base de datos de personas que
han consumido o no inhibidores selectivos de la recaptación de serotonina (ISRS)
y de excelentes han presentado o no hemorragia de vías digestivas altas (HVDA)
(2). Por último, en la cohorte ambidireccional la exposición ya ha ocurrido en el
pasado, pero el desenlace esperado no los tres tipos de estudios clasifican a los
sujetos dependiendo de la presencia o no de la exposición. Ventajas de los
estudios de cohortes Los tres tipos de estudios clasifican a los sujetos
dependiendo de la presencia o no de la exposición. Ventajas de los estudios de
cohortes Los tres tipos de estudios clasifican a los sujetos dependiendo de la
presencia o no de la exposición. Ventajas de los estudios de cohortes

• Permiten establecer causalidad: aunque la certeza absoluta de causalidad sólo


puede ser proporcionada por el diseño experimental, el estudio de cohortes es el
que entre los diseños observacionales proporciona mejor información.

• Ofrecen la posibilidad de medir la incidencia de una enfermedad o condición.

• Establecen una relación temporal entre exposición y desenlace: la exposición


precede a la enfermedad.

• Permiten la cuantificación del riesgo.

• Son eficientes para el estudio de exposiciones raras.

• Posibilitan estudiar más de un desenlace derivado de la exposición. Desventajas


de los estudios de cohortes

• Pueden requerir largos períodos de seguimiento: los grupos bajo observación


requieren un tiempo adecuado para poder observar los desenlaces.

• Se presentan pérdidas en el seguimiento: dado que suelen requerirse largos


períodos de seguimiento, los pacientes pueden abandonar el estudio por diversos
factores y afectar de esta forma la validez de los resultados.

• Son costosos.

• Pueden ser afectados por otras exposiciones no consideradas en el diseño


(variables de confusión) que pueden influir en el desenlace.

• Requieren, a menudo, gran tamaño de muestra.

• Son poco útiles para el estudio de enfermedades raras.

Sesgos en estudios de cohorte


• Sesgo de selección: se presenta más en los estudios de cohorte retrospectivos
que en los prospectivos, puesto que en el primero el diagnóstico ya está realizado
para cuando inicia el estudio, y éste podría estar equivocado.

• Sesgo de mala clasificación: este sesgo en los estudios de cohorte puede ocurrir
ya sea durante el reclutamiento de los sujetos o en su seguimiento, por una mala
clasificación entre los expuestos y los no expuestos.

• Sesgo de pérdida de seguimiento: este sesgo es de especial importancia en los


estudios de cohorte prospectivos, pues al hacer seguimiento de los pacientes
mientras se desarrolla el resultado de interés, éstos pueden perderse por diversos
factores como muerte, poca adherencia o simplemente dificultades en el
seguimiento.

Estas pérdidas pueden introducir sesgos cuando las personas que se pierden
diferentes de aquellas que quedan con respecto a la exposición y al desenlace;
además, si no se siguen los pacientes por un tiempo adecuado hasta la aparición
del desenlace, la asociación puede estar subestimada. En estos casos se
aconseja realizar análisis por intención de tratamiento y realizar pruebas de
sensibilidad, y atribuir diferentes desenlaces a aquellos que se perdieron en el
seguimiento.

• Sesgo de confusión: se presenta cuando una variable externa enmascara una


verdadera asociación, es decir, una asociación aparente entre una exposición y
una enfermedad es debida por otra variable que se encuentra relacionada con la
exposición y es factor de riesgo para la enfermedad. Por ejemplo, si se está
estudiando la asociación del consumo de cocaína y la depresión, es muy probable
que el consumo de alcohol sea un factor de confusión, por cuanto está vinculado
con el consumo de cocaína y, a la vez, el alcohol es un factor de riesgo para la
depresión.

Análisis de los resultados

6Una vez establecida la homogeneidad entre los grupos que se van a comparar,
es decir, son similares a excepción del factor de exposición bajo estudio, los
resultados obtenidos pueden ser resumidos en una tabla de 2x2, de la siguiente
manera:

 Incidencia expuesta en expuestos y no expuestos (3): uno de los principales


intereses del investigador es calcular la tasa de incidencia del desenlace en
los dos grupos de observación. La incidencia o riesgo en el grupo es la
proporción de eventos en los (A /A+B) y la incidencia o riesgo en el grupo
no expuesto es la proporción de eventos en los sujetos no expuestos
(C/C+D).
 Riesgo relativo (RR): otro cálculo de interés que normalmente se hace es el
de riesgo relativo. Esta medida es útil para determinar la magnitud de la
asociación entre el factor del riesgo y la enfermedad (2). El RR es el
resultado de la razón entre los riesgos individuales de expuestos y no
expuestos.

Por ejemplo, un estudio muestra que las personas expuestas a hospitalizaciones


durante la infancia tendrán dos veces más riesgo (RR=2) de padecer trastornos
hipocondríacos durante la adultez que aquellos que no tuvieron estas
internaciones en hospitales.

3. Determinantes de FR y el efecto

Los determinantes de la salud han sido clasificados en torno a cuatro grandes


categorías: medio ambiente, estilo de vida, genética y servicios de atención (1).
Argentina ha tenido dos encuestas nacionales de factores de riesgo para
enfermedades no transmisibles, 2005 y 2009 (2,3). Estos influyen centralmente
sobre el estilo de vida. Dada la importancia que tienen las enfermedades no
transmisibles en el perfil epidemiológico del país y ya que el estilo de vida es un
determinante importante de aquellas, se impone revisar sus resultados mediante
un análisis que permita cruzar la información entre las diferentes variables
medidas. En este trabajo se realizó una matriz de correlación con los datos de
dicha encuesta y se los cruzó con otros indicadores referidos al gasto en salud,
producto bruto por habitante, mortalidad infantil, disponibilidad de médicos etc. Un
análisis de componentes principales, permitió disminuir el número de variables y
generar ejes que luego sirvieron para clasificar los distritos políticos de Argentina,
en función de los factores de riesgo y variables sociodemográficas. También se
compararon los valores de 2005 y 2009, dados en la misma encuesta. El alcance
del estudio es descriptivo y correlacional y el diseño longitudinal. Entre los
principales resultados se puede decir que existen correlaciones múltiples entre
una serie de indicadores que evidencian buena cobertura de salud, controles,
urbanización y riqueza provincial, pero aun así la población muestra hábitos no
saludables como consumo de riesgo de sal, de tabaco y de alcohol. Por otro lado,
una población vulnerable, con necesidades básicas insatisfechas, analfabetismo y
alta autopercepción de salud regular/ mala, a pesar de que existan
establecimientos públicos de salud sin internación. La gente no va al médico
porque no lo considera importante, no tiene dinero o no tiene tiempo. Argentina
queda particionada en tres tipologías de provincias, en la primera clase se hallan
las provincias grandes centrales y la mayoría de las patagónicas, que se hallan
bien posicionadas en cuanto a cobertura, pero no a hábitos saludables, un grupo
de provincias con alta vulnerabilidad social, las del norte principalmente y un grupo
intermedio, que comparte algunos valores con el grupo 1 y otros con el grupo 3.
Entre 2005 y 2009, se puede decir que, si bien ha aumentado la cobertura de
salud, y los controles de la misma, disminuyendo la autopercepción de
salud/regular mala, no se evidencian mejoras en los parámetros fisiológicos de la
población. Por otro lado, han aumentado las conductas no saludables como la
inactividad física y el consumo de sal, que factores de riesgo y determinantes de la
salud 55 entre otros riesgos conducen a la prevalencia de obesidad también
aumentada se puede añadir aquí que el gasto público provincial en salud no
correlaciona con ningún factor de riesgo, pero si con la riqueza provincial.

4. Análisis e interpretación de los estudios de cohortes

Dependiendo de la relación temporal del inicio del estudio respecto a la ocurrencia


del evento, los estudios de cohorte se han clasificado como: prospectivos, y
retrospectivos (o históricos). Los estudios de cohorte histórica reconstruyen la
experiencia de la cohorte en el tiempo, por esta razón dependen de la
disponibilidad de registros para establecer exposición y resultado. Una aplicación
frecuente de una cohorte histórica son los estudios de exposición ocupacional,
donde se reconstruye la exposición y frecuencia de eventos en un grupo
ocupacional o empresa durante un periodo determinado. La validez del estudio
dependerá en gran medida de la calidad de los registros utilizados. En contraste,
en las cohortes prospectivas es el investigador quien documenta la ocurrencia del
evento en tiempo venidero en la población en estudio, por lo que la exposición y
resultado se valoran de manera concurrente, y la calidad de las mediciones puede
ser controlada por los investigadores. Con relación al tipo de población, las
cohortes construidas pueden ser fijas, también llamadas cerradas, y dinámicas
(figura 1). Cerradas o fijas son las cohortes que por diseño de estudio no
consideran la inclusión de población en estudio más allá del periodo de
reclutamiento fijado por los investigadores, por ejemplo: estudiantes de la Escuela
de Salud Pública de México, generación 1945. Dinámicas son aquellas cohortes
que consideran la entrada y salida de nuevos sujetos de estudio durante la fase de
seguimiento, por lo que el número de miembros puede variar a través del tiempo.
Los participantes entran o salen de la cohorte cuando cumplen criterios de
elegibilidad, incorporando la aportación años-persona desde el momento de
inclusión en el estudio; frecuentemente están definidos por unidades geográficas y
grupos poblacionales, por ejemplo: población asegurada por el Instituto Mexicano
del Seguro Social, durante el periodo de 1995 a 2000. Antes de que pueda
identificarse a las personas expuestas es necesario definir explícitamente los
niveles y duración mínima de la exposición. Adicionalmente, en el estudio pueden
fijarse criterios de elegibilidad, pero lo más importante es que los sujetos estén
libres al menos momentáneamente del evento de estudio. En estudios de cohorte
se puede contar con más de un grupo de exposición. La decisión de incluir o
excluir a determinados sujetos de la población de estudio dependerá de la
exposición y del resultado que interesa, así como de la medida en que se influye
sobre la heterogeneidad al restringir la admisión a ciertos grupos.

5. Cálculo de riesgos

El objetivo de la evaluación de riesgos es identificar y analizar los factores que


puedan afectar negativamente las operaciones. Los cálculos del riesgo evalúan la
probabilidad y las consecuencias de que ocurra un incidente en particular el
proceso consiste en la evaluación de la vulnerabilidad de un proyecto en un riesgo
determinado. Los datos y la información que se utilizan para realizar las
evaluaciones de riesgos y los cálculos pueden dar un tiempo al director del
proyecto para ajustar los objetivos o acciones también se puede revelar la
necesidad de abordar demandas a corto plazo, tales como un aumento en los
recursos de capital, o las necesidades a largo plazo, tales como la capacitación
adicional para los miembros del equipo del proyecto todas las ideas de negocio
pasan por un filtro básico en los proyectos se caracteriza de la manera siguiente:

 Cálculo de Riesgo de un Proyecto

Fórmula para calcular el riesgo o la probabilidad de fracaso de un proyecto:

 Criterios para hacer el cálculo: serán los tres mencionados previamente.


Dependencia de terceros, conocimiento del mercado e inversión.
 Cuantificar el riesgo con los criterios: la clasificación más negativa recibe un
multiplicador de 0.2.
 Un criterio que considero de nivel medio o neutral se le aplica un 0.5. En el
caso ideal la cifra sería 0.8.
 Haciendo uso de una formula muy sencilla: multiplicamos los 3 factores y
restamos el resultado de 1.
 Para tener un porcentaje lo multiplicamos otra vez por 100.

Probabilidad de fracaso [%] = (1 – Dependencia de terceros x Conocimiento del


Mercado x Inversión necesaria) x 100

Por ejemplo:

 Dependencia de terceros/neutral = 0.5


 Conocimiento del mercado/negativo = 0.2
 Inversión/ideal = 0.8

Grado de dependencia de terceros: típicamente negativo o neutral. Este tipo de


proyecto tiene como objetivo no depender de muchos favores o ayuda externa
para poder montarlo. En cuantos más pasos podamos dar nosotros mismos mejor.
Nivel de conocimiento del mercado: debería ser neutral o aún mejor ideal. Está
directamente relacionado con el primer punto. El éxito de un producto depende
mucho de conocimiento del sector. Sin experiencia es complicado desarrollar una
oferta que encaje a la perfección para el público objetivo. Volumen de inversión:
normalmente los proyectos requieren inversiones importantes para adquirir lo
necesario, ya sea mobiliario, equipos, permisos, maquinas, patentes, etc.

(1 – 0.5 x 0.2 x 0.8) x 100 = 92 %

El riesgo de este proyecto seria de un 92%

Aunque tu porcentaje de éxito sea muy pequeño no te tienes que desmotivar. Esta
pequeña fórmula explica de manera “matemática” que para tener éxito tienes que
haber fracasado una o varias veces previamente. Según este cálculo la suma de
todos los proyectos que vas a llevar a cabo a lo largo de tu vida da tu probabilidad
de éxito. Si no te rindes llegarás.

VII. Estudios de casos y controles

1. Información sobre exposición al FR y al efecto

En contraste por cada grado que cae la temperatura por debajo de los 18ºC las
muertes aumentan en cerca de un 1,5%. Y no sólo debido a infecciones de vías
respiratorias, ya que con el frío aumentan también los infartos y eventos
vasculares cerebrales. Las personas más vulnerables a estos cambios suelen ser
los ancianos y los sujetos con sistemas inmunes comprometidos. Este fenómeno
se debe a que cuando el cuerpo se expone a temperaturas muy bajas pierde más
calor del que es capaz de generar, y los vasos sanguíneos de la piel se contraen
para conservar la temperatura corporal. La composición de la sangre también
cambia con el frío. Así, el corazón tiene que trabajar con más fuerza para bombear
la sangre a través de los vasos contraídos, a la vez que los cambios en la
concentración sanguínea aumentan el riesgo de formación de coágulos, con el
consiguiente riesgo que esto implica. En cuanto a las infecciones de vías
respiratorias, el aire frío afecta las barreras inmunitarias inespecíficas, ya que se
produce mucosidad más densa que es menos efectiva para deshacerse de los
patógenos intrusos, como los virus. Una de las afectaciones más importantes a la
salud por el clima frío es la hipotermia, dicha entidad se produce cuando la
temperatura corporal es inferior a 35ºC. Los síntomas más precoces de la
hipotermia son los escalofríos, pilo erección, así como el aumento de la frecuencia
respiratoria y cardíaca, en tanto que los síntomas más graves incluyen la dificultad
para moverse, la somnolencia, y confusión mental, que finalmente derivan en el
fallo de los órganos vitales y posteriormente en la muerte. Panorama de los
efectos a la salud por temperaturas extremas en México a partir de 2012, fecha en
que se implementó el registro nominal de los daños a la salud por temperaturas
naturales extremas, se cuenta con la siguiente información histórica: Durante la
temporada de calor, que corresponde también a la temporada donde se
incrementa la vigilancia de padecimientos gastrointestinales, en los últimos años
se ha observado un incremento de los casos de deshidratación, golpe de calor y
quemaduras solares, así como de las defunciones por estas causas (gráfico 1), las
cuales se presentan con mayor frecuencia en el norte y sureste del país, lo cual
concuerda con lo observado por el Servicio Meteorológico Nacional respecto al
comportamiento histórico que ha presentado el clima en nuestro país en los
últimos años, con una tendencia al incremento de la temperatura.

2. Selección de casos

Estudio que compara a dos grupos de personas: aquellos con la enfermedad o


afección en estudio (casos) y un grupo muy similar de personas que no tienen la
enfermedad o la afección (controles). Los investigadores estudian los
antecedentes médicos y el modo de vida de las personas en cada grupo para
saber cuáles factores pueden estar relacionados con la enfermedad o la afección.
Por ejemplo, un grupo puede haber estado expuesto a una sustancia particular a
la que el otro grupo no fue expuesto. También se llama estudio retrospectivo. Es la
selección de controles en función de una o varias características comunes a los
casos, como el sexo, la edad y la condición socioeconómica, entre otras. Tiene
como ventajas aumentar la eficiencia estadística, y disminuir el sesgo asociado a
factores de confusión conocidos. Puede asegurar la homogeneidad por edad y
sexo, y facilitar la comparación de casos y controles en presencia de exposiciones
que varían con el tiempo. Dentro de las ventajas prácticas se encuentra la mayor
facilidad de identificar a los controles. Asimismo, existen dos tipos fundamentales
de paramiento: individual o grupal (paramiento por grupos de frecuencia). Esta
estrategia facilita la detección de una interacción entre la exposición y el factor por
el que se parea, siempre que éste tenga un gran efecto sobre el riesgo de padecer
la enfermedad y sea poco frecuente en la población. Dentro de las desventajas de
parear en un estudio de casos y controles se encuentra la de no poder analizar el
posible efecto de riesgo de una variable de paramiento, porque, por definición, son
iguales para casos y controles. Asimismo, otra posible desventaja es la de sobre
paramiento, que consiste en reducción de la eficiencia del estudio, y se genera
porque se parea por una variable que es una condición intermedia en el camino
causal entre exposición y enfermedad. Es necesario destacar que los controles
brindan información acerca de la distribución de la exposición en la cohorte de
donde se originan los casos, y la exposición del control es relevante sólo para el
día en que se haga un muestreo. Sin embargo, podemos afirmar que, en relación
con la medición de la exposición, este tipo de estudio puede ser evaluado en
forma retrospectiva o prospectiva. En forma retrospectiva, cuando los casos y
controles son identificados en el presente y los factores de riesgo son
determinados de la historia de los sujetos bajo estudio (historias clínicas o
entrevistas para cuantificar eventos pasados). En casos especiales, este diseño
de estudio puede ser prospectivo; por ejemplo, cuando los casos y controles
potenciales fueron identificados en el pasado y la exposición se determina
posteriormente (utilizando, por ejemplo, un banco de sueros). Finalmente, si
ambos, el evento resultado y los factores de exposición, son determinados al
mismo tiempo, y los investigadores no conocen la condición de caso o no caso, se
puede considerar como un estudio transversal.

3. Selección de controles

Dentro de las desventajas de parear en un estudio de casos y controles se


encuentra la de no poder analizar el posible efecto de riesgo de una variable de
paramiento, porque, por definición, son iguales para casos y controles. Asimismo,
otra posible desventaja es la de sobre paramiento, que consiste en reducción de la
eficiencia del estudio, y se genera porque se parea por una variable que es una
condición intermedia en el camino causal entre exposición y enfermedad.

Es necesario destacar que los controles brindan información acerca de la


distribución de la exposición en la cohorte de donde se originan los casos, y la
exposición del control es relevante sólo para el día en que se haga un muestreo.
Sin embargo, podemos afirmar que, en relación con la medición de la exposición,
este tipo de estudio puede ser evaluado en forma retrospectiva o prospectiva. En
forma retrospectiva, cuando los casos y controles son identificados en el presente
y los factores de riesgo son determinados de la historia de los sujetos bajo estudio
(historias clínicas o entrevistas para cuantificar eventos pasados). En casos
especiales, este diseño de estudio puede ser prospectivo; por ejemplo, cuando los
casos y controles potenciales fueron identificados en el pasado y la exposición se
determina posteriormente (utilizando, por ejemplo, un banco de sueros).
Finalmente, si ambos, el evento resultado y los factores de exposición, son
determinados al mismo tiempo, y los investigadores no conocen la condición de
caso o no caso, se puede considerar como un estudio transversal. Los casos
como los controles, en teoría, deben tener características de representatividad,
simultaneidad y homogeneidad. Representatividad significa que los casos deben
representar a todos los casos existentes en un tiempo determinado, y que los
sujetos que se seleccionen como controles debieran representar en el estudio a
los sujetos que se pueden convertir en casos, y proceder de la misma base
poblacional. Asimismo, simultaneidad significa que los controles deben obtenerse
en el mismo tiempo de donde surgieron los casos. Finalmente, homogeneidad
significa que los controles se deb6en obtener de la misma cohorte de donde
surgieron los casos e independientemente de la exposición bajo estudio. Estas
tres características se describen en el cuadro III, donde se observan las
limitaciones inherentes que por definición tienen las diversas variantes de diseños
de casos y controles, y donde cualquier factor que se aleje de estos principios
producirá que la medida de efecto –RM– se sobre o subestime, afectando la
validez del estudio. Durante los últimos años se ha avanzado considerablemente
sobre los aspectos metodológicos de los estudios de casos y controles; en
particular se ha conceptualizado más claramente la estrecha relación que existe
entre estos estudios y los de cohorte, lo que ha permitido el desarrollo de
esquemas de muestreo del tipo de casos y controles, con el fin de reducir los
costos que implica la realización de los grandes estudios de cohorte.
Recientemente se han propuesto y formalizado, desde el punto de vista
estadístico, variantes que inciden sobre la selección de los casos o la definición
del grupo control; a continuación, se describen las más utilizadas.

 Estudios caso-cohorte. En esta variante, la definición de casos y controles


se encuentra anidada en una cohorte fija, bien definida en tiempo, espacio y
lugar, en la cual existe el interés de estimar la razón de incidencia
acumulada y es razonable asumir que todos los miembros de la cohorte
tendrán el mismo tiempo de seguimiento. En un primer tiempo se define la
cohorte o población en estudio; en un segundo paso se selecciona el grupo
control que se utilizará para estimar la proporción de individuos expuestos y
no expuestos que se encuentran en riesgo de desarrollar el evento al inicio
del estudio y, posteriormente, se realiza el seguimiento de la cohorte, con el
fin de detectar los eventos (casos incidentes) que se desarrollan a lo largo
del tiempo y caracterizarlos en términos de su pertenencia al grupo
expuesto o no expuesto. Es evidente que al usar este tipo de selección, un
sujeto inicialmente identificado como control podría desarrollar el evento de
interés durante el seguimiento y ser seleccionado como caso. Esta última
situación, cuando ocurre con frecuencia, puede convertirse en una limitante
importante y comprometer el poder estadístico del estudio. Por esta razón
este tipo de estrategia se recomienda para el estudio de enfermedades
poco frecuentes, en cohortes fijas, claramente definidas, donde la
determinación de la exposición en todos los miembros de la cohorte
resultaría muy costosa
4. Análisis e interpretación de los estudios de casos y controles

Los estudios de casos y controles representan una estrategia muestral, en la que


de manera característica se selecciona a la población en estudio con base en la
presencia (caso) o ausencia (control o referente) del evento de interés. Es común
que se utilicen sistemas de registro de eventos relacionados con la salud, registros
de padecimientos, listados de pacientes hospitalizados, etcétera, para identificar y
seleccionar de manera costo-efectiva los casos; también, que una vez delimitada
la población fuente –definida como aquella de donde se originan los casos–, se
utilice esta misma para la selección de los controles; estos últimos deberán
representar de manera adecuada a los miembros de la población fuente que no
desarrollaron el evento en estudio. Una vez seleccionados los casos y los
controles se compara la exposición relativa de cada grupo a diferentes variables o
características que pueden tener relevancia para el desarrollo de la condición o
enfermedad. En teoría, los estudios de casos y controles se basan en la
identificación de los casos incidentes en una determinada población durante un
periodo de observación definido, tal y como se lleva a cabo en los estudios de
cohorte. La diferencia estriba en que en el estudio de casos y controles se
identifica la cohorte, se identifica a los casos y se obtiene una muestra
representativa de los individuos en la cohorte que no desarrollaron el evento en
estudio; esto último tiene el propósito de estimar la proporción de individuos
expuestos y no expuestos en la cohorte o población base, evitando de esta
manera la necesidad de determinar la presencia de la exposición en todos los
miembros de la población o cohorte en estudio. En este sentido, la principal
diferencia entre los diseños de cohorte y de casos y controles se encuentra en la
selección de los sujetos de estudio. Un estudio de cohorte selecciona sujetos a
partir de la exposición; se parte de un grupo de individuos inicialmente exentos de
la enfermedad o evento de estudio y se les sigue en el tiempo, con el fin de
registrar la ocurrencia del evento. En contraste, en el estudio de casos y controles
se selecciona a los sujetos de estudio en función de la presencia o ausencia de la
enfermedad o evento en estudio. Esto es lo que constituye el paradigma de este
tipo de diseños, y repercute ampliamente en su interpretación, aplicación y
principales limitantes. En los estudios de cohorte se comparan dos o más grupos
de exposición y se estima la posibilidad o riesgo de tener el evento o enfermedad
en función de la condición o exposición estudiada, es decir, se parte de la causa al
efecto. A diferencia de los estudios de casos y controles, en los que se compara
un grupo de sujetos con el evento en estudio y un grupo control o referente (sin el
evento en estudio) y, posteriormente, se estiman en estos grupos las diferencias
en la exposición (figura 1); consecuentemente, en este tipo de estudios se parte
del efecto en busca de la posible causa, por lo que se considera que no cuentan
con una relación de causa-efecto correcta y, por esta razón, pueden ser
susceptibles a diferentes errores o sesgos en su interpretación. Otra limitación de
estos estudios es que, en general, no se pueden estimar de manera directa las
medidas de incidencia o prevalencia que tradicionalmente se obtienen en los
estudios de cohorte o transversales.

VIII. Estudios experimentales y cuasi experimentales

1. Aspectos generales

A través de los procedimientos documentados se pretende que las actividades


sean realizadas de manera ordenada y sin improvisaciones, conduciendo al
cumplimiento del objetivo planteado, a través de los puestos que intervengan. Los
procedimientos establecen la secuencia para efectuar las actividades rutinarias y
específicas; se instituyen de acuerdo con la situación de cada institución, de su
estructura organizacional, clase del producto (bien o servicio) turno de trabajo,
disponibilidad del equipo y material, incentivos y otros factores el procedimiento
determina el orden en que debe realizarse un conjunto de actividades, pero no
indica la manera en que deben realizarse los métodos, mismos que van implícitos
en el procedimiento. Tanto los métodos como los procedimientos están
íntimamente relacionados, ya que los procedimientos determinan la secuencia
lógica que debe seguir una serie de actividades, y los métodos sustituyen a una
actividad en un procedimiento, por lo tanto, los métodos son parte de los
procedimientos. Los procedimientos una vez implementados generan diversos
provechos. En todo tipo de organizaciones (públicas o privadas), por medio del
establecimiento de sistemas y procedimientos administrativos, se logran ciertas
ventajas como son las siguientes:

• Conservar el esfuerzo administrativo.

• Ayudar a imponer un nivel de consistencia en toda la organización.

• Facilitar la delegación de autoridad y la fijación de responsabilidad.

• Conducir al desarrollo de métodos más eficientes de operación.

• Permitir importantes economías de personal.

• Facilitar la acción de controlar.

• Ayudar a lograr la coordinación de actividades.

Es conveniente que los procedimientos operativos sean elaborados directamente


por el personal que ocupa los puestos involucrados, ya que conocen como se
realizan las actividades para el cumplimiento de los objetivos planteados; en su
redacción colaboran los titulares de las áreas que participan en su desarrollo.

La descripción narrativa del procedimiento se podrá acompañar de un diagrama


de flujo para facilitar la interpretación y visión global del mismo.

Un procedimiento que está documentado siempre:

• Ayuda a realizar las actividades con facilidad en secuencia lógica y cronológica.

• Coadyuva y facilita la inducción y capacitación del personal de nuevo ingreso.

• Facilita el trabajo de optimización y mejora de procesos, al mostrar en conjunto


todas las

actividades/ tareas que se realizan y las interdependencias entre éstas.

• Muestra el panorama general del procedimiento y la interrelación e interacción de


los diferentes puestos o especialidades involucradas en el mismo.

En resumen, un procedimiento documentado es un documento oficial, dictaminado


como favorable y debidamente autorizado, que contiene la descripción detallada
de las tareas que se hacen en una unidad administrativa u orgánica, para obtener
un resultado planeado en beneficio de los usuarios.

2. Población de referencia

Concepto estadístico. Para que una medida referida a una capacidad o un


rendimiento de una persona tenga sentido y se pueda valorar su importancia, se la
debe comparar con el grupo de personas en el cual se incluye ese individuo y en
relación a la habilidad o rendimiento que se mide. Así, si se trata del rendimiento
escolar de un niño que ha obtenido un notable en Historia, para valorar
adecuadamente este dato es necesario relacionarlo con los resultados de sus
compañeros de clase en dicha materia. Ese grupo con el que se comprara una
medida es la población de referencia.

La población objetivo es aquella que será


beneficiada con el proyecto. Se identifica a
partir de la población de referencia, definida
como la población total del área de influencia,
perteneciente al grupo en estudio (por
ejemplo, si el problema identificado afecta a la tercera edad, la población de
referencia es el total de la población de la tercera edad ubicada en el área de
influencia). Población de referencia concepto estadístico. Para que una medida
referida a una capacidad o un rendimiento de una persona tenga sentido y se
pueda valorar su importancia, se la debe comparar con el grupo de personas en el
cual se incluye ese individuo y en relación a la habilidad o rendimiento que se
mide. Así, si se trata del rendimiento escolar de un niño que ha obtenido un
notable en Historia, para valorar adecuadamente este dato es necesario
relacionarlo con los resultados de sus compañeros de clase endicha materia se
grupo con el que se comprara una medida es la población de referencia casos,
esta podrá estimarse mediante censos (conteo del total de la población) o
muestreos (estimación de la población a partir de una muestra, e-tripulando los
resultados al total de la población).
3. Población experimental

Población estadística, en estadística, también llamada universo, es el conjunto de


elementos de referencia sobre el que se realizan las observaciones. También es el
conjunto sobre el que estamos interesados en obtener conclusiones (inferir).
Normalmente es demasiado grande para poder abarcarla, motivo por el cual se
puede hacer necesaria la extracción de una muestra de ésta.

El diseño experimental es una técnica estadística que permite identificar y


cuantificar las causas de un efecto dentro de un estudio experimental. En un
diseño experimental se manipulan deliberadamente una o más variables,
vinculadas a las causas, para medir el efecto que tienen en otra variable de
interés. El diseño experimental prescribe una serie de pautas relativas qué
variables hay que manipular, de qué manera, cuántas veces hay que repetir el
experimento y en qué orden para poder establecer con un grado de confianza
predefinido la necesidad de una presunta relación de causa-efecto.

Ronald Fisher es considerado el padre del diseño experimental en sus estudios de


agronomía en el primer tercio del siglo XX. A la lista de los pioneros de su uso hay
que añadir los de Frank Yates, W.G. Cochran y G.E.P. Box. Muchas de las
aplicaciones originarias del diseño experimental estuvieron relacionadas con la
agricultura y la biología, disciplinas de las que procede parte de la terminología
propia de dicha técnica.

Las aplicaciones a la industria textil comenzaron en la década de 1930 en


Inglaterra y se popularizaron y extendieron a las industrias química y
manufacturera de Europa y EE. UU. tras la II Guerra Mundial. Es de notar su uso
actual en la industria de la electrónica y los semiconductores

La metodología del diseño de experimentos se basa en la experimentación. Es


conocido que, si se repite un experimento, en condiciones indistinguibles, los
resultados presentan variabilidad que puede ser grande o pequeña. Si la
experimentación se realiza en un laboratorio donde la mayoría de las causas de
variabilidad están muy controladas, el error experimental será pequeño y habrá
poca variación en los resultados del experimento. Pero si se experimenta en
procesos industriales, administrativos, ... la variabilidad es grande en la mayoría
de los casos.

El diseño cuasiexperimental consiste en la escogencia de los grupos, en los que


se prueba una variable, sin ningún tipo de selección aleatoria o proceso de
preselección.

Por ejemplo, para realizar un experimento educacional, una clase puede ser
arbitrariamente dividida por orden alfabético o por disposición de los asientos. La
división es a menudo conveniente y, sobre todo en una situación educacional, se
genera la menor interrupción posible.

Después de esta selección, el experimento procede de manera muy similar a


cualquier otro, con una variable que se compara entre grupos diferentes o durante
un período de tiempo.

si se estudia el efecto del consumo de alcohol materno, cuando la madre está


embarazada, sabemos que el alcohol hace daño a los embriones. Un diseño
estrictamente experimental implicaría que a las madres se les fuese
aleatoriamente asignado beber alcohol. Esto sería ilegal por el posible daño que el
estudio podría causar a los embriones.

Entonces lo qué hacen los investigadores es preguntar a las personas cuánto


alcohol ingirieron en sus embarazos y luego las asignan a sus respectivos grupos.

Por ejemplo, estos diseños experimentales no tienen en cuenta todos los factores
preexistentes (como para las madres: lo que las hizo beber o no alcohol), ni
reconocen que las influencias ajenas al experimento pudieron haber afectado los
resultados.
4. Grupo de estudio

La formación de grupos de estudio en el aula es un enfoque didáctico que tiende a


producir resultados positivos. Sin embargo, estudiar en grupo es un tema que
suscita debates.

Algunos afirman que estudiar en grupo no es la mejor manera de aprender, otros


creen que tiene muchas ventajas.

Sin duda, los grupos de estudio ayudan a los estudiantes a desarrollar habilidades
que son útiles a lo largo de la formación académica y la carrera profesional. Por
ejemplo, el trabajo en equipo y la colaboración.

¿Cuál es entonces el papel de los grupos de estudio? ¿Qué lo hace bueno y qué
podría salir mal con él?

En este artículo te desvelamos sus ventajas y desventajas. Esperamos que esta


información te ayude a elegir el mejor método de estudio para lograr tus objetivos:
tales como prepararte para tus exámenes, presentar una prueba de admisión a la
universidad, etc.

¿En qué consisten los grupos de estudio?

El grupo de estudio es una estrategia didáctica que consiste en reunir a varios


estudiantes con el objetivo de aprender. Esto se logra a través de una variedad de
actividades, que incluyen el intercambio de conocimientos, la colaboración grupal
y la interacción interpersonal.

Estudiar en grupo es el método más cómodo para muchos alumnos porque ayuda
a aumentar su motivación. Además, les da acceso a más recursos y materiales de
los que podrían obtener por sí mismos.

beneficio-grupos-de-estudio

Principales beneficios de los grupos de estudio


Hay ciertas ventajas de estudiar en grupo que quizás no experimentes si estudias
solo. Por ejemplo, puede ayudarte a reforzar lo aprendido en clase, mejorar la
comunicación interpersonal o involucrarte más en tu aprendizaje.

Asimismo, los grupos de estudio te brindan la oportunidad de aprender y


desarrollar competencias como la comunicación. Una de las habilidades más
demandadas en el mercado laboral.

Estudiar con otros tiene otros beneficios además de los ya mencionados. ¡Mira los
principales a continuación

1. Conocer diferentes perspectivas sobre un tema

La diversidad de los grupos de estudio brinda la oportunidad de conocer muchos


puntos de vista sobre un tema determinado. Además, te permitirá aprender nuevos
enfoques para manejar una situación o encontrar una solución para un problema.

Por este motivo, el aprendizaje en grupo es una técnica muy recomendable a la


hora de estudiar contenidos complejos. Además, para tratar temas en los que sea
necesario contrastar puntos de vista y opiniones.

2. Evita la procrastinación

A diferencia de estudiar solo, estudiar con otros compañeros de clase puede


aumentar tu motivación. Por lo tanto, no intentarás retrasar tu trabajo y lo
completarás a tiempo, lo que mejorará tu rendimiento.

Además, cuando estudias en grupo, puedes ser más productivo y aprendes a usar
tu tiempo con eficacia. También te puede ayudar a retener la información por más
tiempo y a hacer un análisis profundo de los temas.

3. Mayor comprensión sobre el tema de estudio

Otro beneficio de los grupos de estudio es que tendrás acceso a más materiales
de estudio (apuntes o libros). Con todas estas referencias, podrás aprender más
sobre el tema de estudio y obtener mejores resultados en los exámenes y
evaluaciones.
4. Consolidación de conocimientos

Integrarte en un grupo de estudio te permitirá optimizar la calidad de los


conocimientos adquiridos. Esto se hace a través de la discusión, el análisis y las
diferentes opiniones de los participantes.

Y si estás atascado en la solución de un problema determinado y no puedes


seguir adelante, pedir ayuda a tus compañeros de equipo te brindará confianza y
serenidad para pensar y tomar decisiones.

5. Determinar cuánto sabes realmente sobre un tema

Los grupos de estudio te ayudarán a evaluar tus conocimientos sobre un tema


determinado. Se espera que contribuyas a las discusiones, aclares conceptos,
prepares presentaciones grupales y participes en discusiones.

La ventaja de esta situación es que puedes aprender de otros miembros si no


sabes mucho sobre un tema.

6. Se aprende a trabajar en equipo

Finalmente, al aprender en grupo, puedes desarrollar habilidades valiosas para tu


carrera como el trabajo en equipo o la colaboración. Cuando te gradúes, estas
serán de gran ayuda para encontrar empleo rápidamente.

5. Grupo control

La variación biológica normal, el sesgo del investigador y la variación ambiental


son factores que pueden sesgar los datos. Por esta causa, los grupos de control
científicos brindan un punto de referencia.

Además de eliminar otras variables, los grupos de control científicos ayudan al


investigador a mostrar que el diseño experimental es capaz de generar resultados.

¿Qué es un grupo de control científico?


Un investigador sólo debe medir una variable a la vez y utilizar un grupo de control
científico aporta datos de referencia fiables con los cuales comparar sus
resultados por ejemplo, un estudio médico utilizará dos grupos y dará a uno de
ellos el medicamento verdadero y al otro un placebo, con el fin de descartar el
efecto placebo. En este tipo de investigación, el experimento es de doble ciego ni
los médicos ni los pacientes saben qué pastilla están recibiendo, para frenar el
sesgo de investigación potencial en las ciencias sociales, los grupos de control
constituyen la parte más importante del experimento, ya que es prácticamente
imposible eliminar todas las variables de confusión y el sesgo por ejemplo, el
efecto placebo de la medicación está bien documentado y el Efecto Hawthorne es
otra influencia en donde si las personas saben que son sujetos de un experimento,
cambian automáticamente su comportamiento existen dos tipos principales de
control, positivo y negativo, y ambos brindan a los investigadores formas de
aumentar la validez estadística de sus datos.

Grupo de control científico positivo

Los grupos de control científicos positivos son aquellos en donde se espera que el
grupo de control brinde un resultado positivo y permiten al investigador demostrar
que el armado fue capaz de producir resultados en general, un investigador
utilizará un procedimiento de control positivo, el cual es similar al diseño real con
un factor que se sabe que funciona por ejemplo, un investigador que prueba el
efecto de nuevos antibióticos sobre placas de Petri con bacterias puede utilizar un
antibiótico establecido que se sabe que funciona. Si todas las muestras fallan
excepto esa, es probable que los antibióticos probados sean ineficaces.

Sin embargo, si el control también falla, hay algo mal en el diseño. Los grupos de
control científico positivos reducen las posibilidades de falsos negativos.

Grupo de control científico negativo

El control científico negativo es el proceso que consiste en utilizar el grupo de


control para asegurarse de que ninguna variable de confusión haya afectado los
resultados o eliminar las posibles fuentes de sesgo. Se utiliza una muestra que no
se espera que funcione en el ejemplo de los antibióticos, el grupo de control
negativo sería un plato de Petri sin antibiótico, lo que permite al investigador
demostrar que los resultados son válidos y que no hay variables de confusión si
todos los medicamentos nuevos funcionaron pero el grupo de control negativo
también mostró inhibición del crecimiento bacteriano, entonces alguna otra
variable podría haber tenido un efecto, invalidando los resultados un control
negativo también puede ser una forma de establecer un punto de referencia un
investigador que prueba los niveles de radioactividad de varias muestras con un
contador Geiger también probará el nivel de fondo, lo que le permite ajustar los
resultados en consecuencia se podría decir que en cualquier diseño científico, el
establecimiento de grupos de control científicos fuertes es una parte más
importante que las muestras reales si no se brindan pruebas suficientes de grupos
de control fuertes, esto puede invalidar el estudio por completo. Sin embargo, los
niveles de significación altos indican una baja probabilidad de error.

6. Análisis e interpretación

En efecto, estas etapas van a permitir extraer conclusiones en función del


problema, las variables, la formulación de las hipótesis y el marco teórico
elaborado por el investigador. El análisis consiste en descomponer la información.
El mismo requiere efectuar un plan previo, es decir, un «plan de análisis» que, de
manera general, consiste en describir que tipo de tratamiento (cuantitativo y/o
cualitativo) se le dará a la información. La interpretación apunta a darle sentido,
esto es, efectuar eventualmente una recomposición teórica para luego redactar el
informe final de la investigación de esta manera, ya desarrollado el proceso de
recolección de datos, se procederá a convertir los datos en bruto del instrumento
de que se usó para tal fin, en una forma legible y entendible para su posterior
análisis para esto, se tomará en cuenta la siguiente secuencia:

Verificación y edición de cuestionarios aceptables: Cada cuestionario tendrá una


etapa de revisión, en donde se verificará los datos obtenidos, es decir, que estén
bien contestados (completos), mirar en base a las respuestas dadas si estas
fueron bien comprendidas, que los elementos de la muestra sean los que hayan
contestado la encuesta, etc. Para tal fin, el porcentaje de cuestionarios
defectuosos permitidos será del 5% del total. En caso de que el porcentaje sea
mayor, se enviarán nuevamente a trabajo de campo y se volverán a formular los
cuestionarios.

Edición y depuración de datos: Los datos a procesar tendrán legibilidad, que se


puedan entender con facilidad; consistencia, que estén acordes a los objetivos del
estudio y con exactitud, ya que se evaluarán de acuerdo a una serie de
parámetros para verificar si fueron obtenidos con honestidad por los
encuestadores. Los datos serán procesados y analizados usando software
destinado para esto. Se hará empleo de SPSS y Microsoft Excel, programas
destinados a realizar análisis estadísticos, con un ambiente amigable para el
usuario, a través de interfaces fáciles de manejar y entender.

Herramientas Estadísticas

 Para un correcto análisis de datos, se usarán las siguientes ayudas


estadísticas: Tabulación cruzada: Tabulación de datos que consiste en
identificar una relación entre variables, describiendo dos ó más variables en
forma simultánea y dar como resultado tablas que reflejan la distribución
conjunta de las variables con un número limitado de categorías o valores
distintivos.
 Herramientas de estadística inferencial: Pruebas ji cuadrado para probar la
significancia estadística que hay entre la relación de variables.
 Procedimientos de análisis de relación: Regresiones para verificar el grado
de dependencia y relación entre variables.
 Procedimientos generales de análisis: Gráficos estadísticos para evaluar
proporciones, histogramas de frecuencia, pruebas de hipótesis para evaluar
a las mismas, etc.

Análisis Descriptivo
El primer paso en el análisis de datos, una vez introducidos los mismos, es
realizar un análisis descriptivo de la muestra. Este análisis nos permitirá controlar
la presencia de posibles errores en la fase de introducción de los datos, es decir,
detectaremos con él valores fuera de rango (p. ej. un peso de 498 Kg es
claramente un dato extraño), o la presencia de valores perdidos. Este análisis
inicial también nos proporcionará una idea de la forma que tienen los datos: su
posible distribución de probabilidad con sus parámetros de centralización; media,
mediana y moda; así como sus parámetros de dispersión; varianza, desviación
típica, etc.

INFORMA SOBRE ESTE ANUNCI

Este análisis es muy básico. Aunque hay tendencia a generalizar a toda la


población, las primeras conclusiones obtenidas tras un análisis descriptivo, es un
estudio calculando una serie de medidas de tendencia central, para ver en qué
medida los datos se agrupan o dispersan en torno a un valor central. Esto es lo
que podría ser un concepto aproximado.

 Entre las opciones que fueron enumeradas arriba, los indicios más salientes
para seleccionar el método de análisis pueden ser obtenidos mirando la
extensión de datos y la perspectiva de tiempo. Una vez que usted haya
decidido sobre éstos, se puede encontrar en las células de la tabla
siguiente los métodos de análisis usuales para cada acercamiento.

Análisis Inferencial

El análisis inferencial se emplea solo en los estudios correlaciónales, esto se


realiza a través de los resultados obtenidos al cruzar las variables independientes
con la variable dependiente. A través de los resultados obtenidos en las tablas que
genera el programa estadístico solo puede inferir si la variable independiente
objeto de análisis influye sobre la variable dependiente y si esta influencia es
significativa o no.

Contrastación de Hipótesis
 Según el análisis inferencial se puede entonces afirmar si se acepta la
hipótesis nula, o las hipótesis nulas que se plantearon en el capítulo
metodológico del estudio correlacional, o si se rechaza la hipótesis nula,
aceptando la alterna.
 El objetivo del análisis de contenido es la realización de inferencias, cuando
el contenido de los mensajes es analizado para apoyar conclusiones no
relacionadas con el contenido, entonces adquiere la investigación de
carácter explicativo o inferencial.

Hay dos categorías de inferencias:

1.- Las que se refieren al origen, causas, condiciones, antecedentes de la


comunicación y especialmente al autor de la misma, estas inferencias responden a
las preguntas < quién > y < por qué >.

2.- La segunda está formada por las inferencias que se refieren a efectos o
resultados de la comunicación y el análisis responde al interrogante combinando
las aportaciones de Berelson y Holsti se obtiene la siguiente clasificación del
análisis de contenido de carácter inferencial: Análisis para realizar inferencias
acerca de las causas, de los productores o de los antecedentes de la
comunicación para identificar las intenciones y otras características de los
creadores de las comunicaciones.

IX. Errores y Sesgos

1. Fiabilidad validez de la medida

Una alta fiabilidad es un indicador de que una medición es válida. Si un método no


es fiable, probablemente no sea válido.

Por ejemplo, si el termómetro muestra temperaturas diferentes cada vez, aunque


se hayan controlado cuidadosamente las condiciones para garantizar que la
temperatura de la muestra sea la misma, es probable que el termómetro funcione
mal y, por tanto, sus mediciones no sean válidas.
Si un cuestionario de síntomas da lugar a un diagnóstico fiable cuando se
responde en diferentes momentos y con diferentes médicos, esto indica que tiene
una gran validez como medida de la condición médica.

Sin embargo, la fiabilidad por sí sola no es suficiente para garantizar la validez.


Incluso si una prueba es fiable, puede no reflejar con exactitud la situación real.

Medición de la Fiabilidad y la Validez

Un grupo de participantes realiza una prueba diseñada para medir la memoria de


trabajo. Los resultados son fiables, pero las puntuaciones de los participantes
están fuertemente correlacionadas con su nivel de comprensión lectora. Esto
indica que el método podría tener una baja validez: la prueba puede estar
midiendo la comprensión lectora de los participantes en lugar de su memoria de
trabajo.

La validez es más difícil de evaluar que la fiabilidad, pero es aún más importante.
Para obtener resultados útiles, los métodos que utilices para recoger los datos
deben ser válidos: la investigación debe medir lo que dice medir. Esto garantiza
que la discusión de los datos y las conclusiones que se extraigan sean también
válidas.

Cuando se realiza una investigación cuantitativa, hay que tener en cuenta la


fiabilidad y la validez de los métodos de investigación y los instrumentos de
medición.

Tipos de Fiabilidad

La fiabilidad indica la consistencia con la que un método mide algo. Cuando se


aplica el mismo método a la misma muestra en las mismas condiciones, se
deberían obtener los mismos resultados. Si no es así, el método de medición
puede ser poco fiable.

Según Yang (1995), hay cuatro tipos principales de fiabilidad. Cada uno de ellos
puede estimarse comparando diferentes conjuntos de resultados producidos por el
mismo método.
Fiabilidad test-retest

La fiabilidad test-retest mide la consistencia de los resultados cuando se repite la


misma prueba en la misma muestra en un momento diferente. Se utiliza cuando se
mide algo que se espera que permanezca constante en la muestra.

Un test de daltonismo para aspirantes a piloto en prácticas debería tener una alta
fiabilidad de test-retest, porque el daltonismo es un rasgo que no cambia con el
tiempo.

Por qué es importante

Hay muchos factores que pueden influir en los resultados en diferentes momentos:
por ejemplo, los encuestados pueden experimentar diferentes estados de ánimo o
las condiciones externas pueden afectar a su capacidad para responder con
precisión

La fiabilidad de la prueba-retest puede utilizarse para evaluar la resistencia de un


método a estos factores a lo largo del tiempo. Cuanto menor sea la diferencia
entre las dos series de resultados, mayor será la fiabilidad test-retest.

Cómo se mide

Para medir la fiabilidad test-retest, se realiza la misma prueba en el mismo grupo


de personas en dos momentos diferentes. A continuación, se calcula la correlación
entre los dos conjuntos de resultados

Ejemplo de fiabilidad test-retest

Se diseña un cuestionario para medir el coeficiente intelectual de un grupo de


participantes (una propiedad que probablemente no cambie de forma significativa
con el paso del tiempo). Se administra la prueba con dos meses de diferencia al
mismo grupo de personas, pero los resultados son significativamente diferentes,
por lo que la fiabilidad test-retest del cuestionario de coeficiente intelectual es baja.

Cómo mejorar la fiabilidad de la prueba de retrospección


Cuando diseñe pruebas o cuestionarios, intente formular las preguntas, los
enunciados y las tareas de forma que no se vean influidos por el estado de ánimo
o la concentración de los participantes

Al planificar los métodos de recogida de datos, intente minimizar la influencia de


factores externos y asegúrese de que todas las muestras se someten a las
mismas condiciones.

Recuerde que es de esperar que se produzcan cambios en los participantes a lo


largo del tiempo, y téngalos en cuenta.

Fiabilidad entre evaluadores

La fiabilidad de la intercalación (también llamada fiabilidad interobservador) mide


el grado de acuerdo entre diferentes personas que observan o evalúan lo mismo.
Se utiliza cuando los datos son recogidos por investigadores que asignan
calificaciones, puntuaciones o categorías a una o más variables.

En un estudio de observación en el que un equipo de investigadores recoge datos


sobre el comportamiento en el aula, la fiabilidad interobservador es importante:
todos los investigadores deben estar de acuerdo en cómo categorizar o calificar
los diferentes tipos de comportamiento.

Por qué es importante

Las personas son subjetivas, por lo que las percepciones de los distintos
observadores sobre las situaciones y los fenómenos difieren naturalmente. Una
investigación fiable pretende minimizar la subjetividad en la medida de lo posible,
de modo que otro investigador pueda replicar los mismos resultados.

A la hora de diseñar la escala y los criterios para la recogida de datos, es


importante asegurarse de que diferentes personas calificarán la misma variable de
forma coherente con un sesgo mínimo. Esto es especialmente importante cuando
hay varios investigadores implicados en la recogida o el análisis de datos.

Cómo medirla
Para medir la fiabilidad entre evaluadores, diferentes investigadores realizan la
misma medición u observación en la misma muestra. A continuación, se calcula la
correlación entre sus diferentes conjuntos de resultados. Si todos los
investigadores dan calificaciones similares, la prueba tiene una alta fiabilidad entre
los evaluadores.

Ejemplo de fiabilidad entre evaluadores

Un equipo de investigadores observa el progreso de la cicatrización de las heridas


en los pacientes. Para registrar las etapas de cicatrización, se utilizan escalas de
valoración, con un conjunto de criterios para evaluar diversos aspectos de las
heridas. Se comparan los resultados de diferentes investigadores que evalúan el
mismo conjunto de pacientes, y existe una fuerte correlación entre todos los
conjuntos de resultados, por lo que la prueba tiene una alta fiabilidad entre los
evaluadores.

Mejora de la fiabilidad entre evaluadores

Defina claramente sus variables y los métodos que se utilizarán para medirlas.

Desarrolle criterios detallados y objetivos sobre cómo se calificarán, contarán o


categorizarán las variables.

Si hay varios investigadores implicados, asegúrese de que todos tienen


exactamente la misma información y formación

Fiabilidad de las formas paralelas

La fiabilidad de las formas paralelas mide la correlación entre dos versiones


equivalentes de un test. Se utiliza cuando hay dos herramientas de evaluación o
conjuntos de preguntas diferentes diseñados para medir lo mismo.

Por qué es importante

Si quieres utilizar varias versiones diferentes de una prueba (por ejemplo, para
evitar que los encuestados repitan las mismas respuestas de memoria), primero
tienes que asegurarte de que todos los conjuntos de preguntas o mediciones dan
resultados fiables.

En la evaluación educativa, a menudo es necesario crear diferentes versiones de


las pruebas para garantizar que los alumnos no tengan acceso a las preguntas de
antemano. La fiabilidad de las formas paralelas significa que, si los mismos
alumnos realizan dos versiones diferentes de una prueba de comprensión lectora,
deberían obtener resultados similares en ambas pruebas.

Cómo se mide

La forma más habitual de medir la fiabilidad de las formas paralelas es elaborar un


gran conjunto de preguntas para evaluar lo mismo y, a continuación, dividirlas
aleatoriamente en dos conjuntos de preguntas.

El mismo grupo de encuestados responde a ambos conjuntos y se calcula la


correlación entre los resultados. Una alta correlación entre los dos indica una alta
fiabilidad de los formularios paralelos.

Ejemplo de fiabilidad de formularios paralelos

Se formula un conjunto de preguntas para medir la aversión al riesgo financiero en


un grupo de encuestados. Las preguntas se dividen aleatoriamente en dos
conjuntos, y los encuestados se dividen aleatoriamente en dos grupos. Ambos
grupos realizan las dos pruebas: el grupo A realiza primero la prueba A y el grupo
B la prueba B. Se comparan los resultados de las dos pruebas y los resultados
son casi idénticos, lo que indica una alta fiabilidad de las formas paralelas.

Cómo mejorar la fiabilidad de los formularios paralelos

Asegúrese de que todas las preguntas o ítems del test se basan en la misma
teoría y están formulados para medir lo mismo

Consistencia interna

La consistencia interna evalúa la correlación entre varios ítems de un test que


pretenden medir el mismo constructo.
Se puede calcular la consistencia interna sin necesidad de repetir la prueba o de
involucrar a otros investigadores, por lo que es una buena forma de evaluar la
fiabilidad cuando sólo se dispone de un conjunto de datos

Por qué es importante

Cuando se diseña un conjunto de preguntas o valoraciones que se combinarán en


una puntuación global, hay que asegurarse de que todos los ítems reflejan
realmente lo mismo. Si las respuestas a los distintos ítems se contradicen, la
prueba podría no ser fiable.

Para medir la satisfacción de los clientes con una tienda online, podría crear un
cuestionario con un conjunto de afirmaciones con las que los encuestados deben
estar de acuerdo o en desacuerdo. La consistencia interna le indica si todas las
afirmaciones son indicadores fiables de la satisfacción del cliente.

Para medir la consistencia interna se utilizan dos métodos habituales.

Correlación media entre elementos: Para un conjunto de medidas diseñadas para


evaluar el mismo constructo, se calcula la correlación entre los resultados de todos
los pares de ítems posibles y luego se calcula la media.

Fiabilidad por mitades: Se divide aleatoriamente un conjunto de medidas en dos


conjuntos. Después de probar todo el conjunto con los encuestados, se calcula la
correlación entre los dos conjuntos de respuestas.

Ejemplo de consistencia interna

Se presenta a un grupo de encuestados un conjunto de afirmaciones diseñadas


para medir la mentalidad optimista y pesimista. Deben calificar su acuerdo con
cada afirmación en una escala de 1 a 5. Si la prueba es internamente consistente,
un encuestado optimista debería dar generalmente calificaciones altas a los
indicadores de optimismo y bajas a los de pesimismo. Se calcula la correlación
entre todas las respuestas a las afirmaciones «optimistas», pero la correlación es
muy débil. Esto sugiere que la prueba tiene una baja consistencia interna.
2. Validez interna y externa

Una contribución fundamental de un experimento es que ayuda a excluir las


diferentes variables que podrían explicar un fenómeno. Pero un experimento
determinado no excluye necesariamente todas las explicaciones alternativas
posibles. Desde un punto de vista metodológico, el mejor experimento es aquél
cuyo diseño excluye las explicaciones alternativas de los resultados. Idealmente,
los resultados de un experimento tendrán sólo una interpretación, que sería que la
variable independiente es la responsable de los cambios en la dependiente. Las
variables extrañas que puedan afectar los valores obtenidos en la V.D. suponen
una amenaza para la validez experimental. Un experimento resulta válido en la
medida que los resultados pueden ser atribuidos a la V.I., y en el grado que se
generalizan fuera del experimento. Si los resultados de un experimento pueden
ser atribuidos inequívocamente a la V.I., se dice que el experimento es
internamente válido. El grado en que permite la generalización se refiere a los
aspectos relativos a la validez externa.

1.1. Validez Interna.

1.1.1. Concepto de validez interna.

Se refiere al grado en que un experimento excluye las explicaciones alternativas


de los resultados, es decir, al grado en que ciertamente la manipulación de la V.I.
es responsable de los cambios en la V.D. Cualquier factor o fuente que no sea la
V.I. y que pudiera explicar los resultados es una amenaza para la validez interna.
De esta forma, la validez interna es un mínimo básico sin el cual un experimento
está abierto a múltiples explicaciones alternativas.

1.1.2. Amenazas a la validez interna.

Consideremos a continuación, las variables que pueden afectar la validez interna;


variables que han sido consideradas amenazas para ella. Un experimento que
controle las siguientes amenazas reduce la ambigüedad de las conclusiones o
explicaciones alternativas. Las amenazas pueden proceder de las siguientes
fuentes:
Factores organísmicos: características del sujeto y estados internos que pueden
influir en los valoresobservados de la V.D.:

· Rasgos y habilidades. Sujetos con distinta inteligencia, personalidad, aprendizaje


previo, habilidades motoras, etc., pueden ejecutar un experimento de forma
distinta.

· Error de medida. Un mismo sujeto puede responder de modo diferente de una


ocasión a otra (variabilidad en la ejecución de un mismo sujeto en observaciones
repetidas), debido a fluctuaciones en su estado biológico y/o psicológico.

X. El método estadístico

1. Estadística descriptiva e inferencial

La estadística descriptiva, también conocida como estadística deductiva, es la


rama de la estadística que se encarga de resumir listas largas de datos con el
objetivo de obtener las características generales de un determinado grupo. Este
tipo de estadística se utiliza para organizar, sintetizar y describir información de
una manera fácil y rápida. Comúnmente también emplea gráficos, cuadros y tablas
para representar los valores y facilitar la comprensión de los datos.

La estadística inferencial, también conocida como estadística inductiva, es la


rama de la estadística que analiza y estudia los datos de una población a partir de
una muestra extraída. Este método se encarga de analizar y estudiar los datos
más allá de la estadística descriptiva, con el objetivo de tomar decisiones y realizar
predicciones.

2. Población y muestra

La población es el conjunto de todos los individuos u objetos de estudio. En este


conjunto se toman datos referentes de ciertas características de un grupo de
individuos u objetos, hay una gran variedad de características como la edad y
sexo de estudiantes de una escuela o el número de bombillos defectuosos o no
producidos por una fábrica en un día determinado. A veces resulta nada fácil
obtener un total de los individuos u objetos observados, en especial si son
demasiados numerosos. Para la solución de este problema se toma una muestra
representativa del conjunto de estudio.

La muestra en estadística es una porción o un subconjunto que se extrae de una


población, con el fin de conocer las características de dicha población.

La muestra nos permite facilitar y simplificar el estudio que se desea realizar. Está
compuesta por un número más manejable que son seleccionados al azar, este
número tiene que ser representativo a la hora de hacer el estudio ya que hemos
definido ambos términos, vamos a ver la diferencia que existe entre población y
muestra.

3. Variables estadísticas

Las variables estadísticas son características que poseen las personas, cosas o
lugares y que pueden ser medidas. Ejemplos de variables de uso frecuente son la
edad, el peso, la estatura, el sexo, el estado civil, el nivel académico, la
temperatura, el número de horas que dura un bombillo incandescente y muchas
otras. Uno de los objetivos de la ciencia es saber cómo se comportan las variables
de un sistema para poder hacer predicciones sobre su futuro comportamiento. De
acuerdo a su naturaleza, cada variable requiere un tratamiento específico para
obtener de ella la máxima información. La cantidad de variables a estudiar es
enorme, pero examinando con atención el grupo antes mencionado, notamos de
inmediato que algunas pueden ser expresadas en forma numérica, mientras que
otras no. Esto nos da pie para una clasificación inicial de las variables estadísticas
en dos tipos fundamentales: cualitativas y numéricas.

4. Tipo de variable

Variables cualitativas

Como su nombre lo indica, las variables cualitativas se utilizan para designar


categorías o cualidades. Un conocido ejemplo de este tipo de variables es el
estado civil: soltero, casado, divorciado o viudo. Ninguna de estas categorías es
mayor que la otra, solamente designa una situación diferente.

Las variables cualitativas pueden ser a su vez:

- Nominales, que asignan un nombre a la cualidad, como puede ser el color por
ejemplo.

- Ordinales, que representan orden, como el caso de una escala de estratos


socioeconómicos (alto, medio, bajo) o de opiniones acerca de alguna clase de
propuesta (a favor, indiferente, en contra).

– Binarias, también llamadas dicotómica, solamente hay dos valores posibles,


como el sexo. A esta variable se le puede asignar una etiqueta numérica, como 1
y 2, sin que represente valoración numérica o alguna clase de orden.

Variables numéricas o cuantitativas

A estas variables sí se les asigna un número, ya que representan cantidades,


como por ejemplo el salario, la edad, las distancias y las calificaciones obtenidas
en un examen. Son ampliamente utilizadas para contrastar preferencias y estimar
tendencias. Se pueden asociar con las variables cualitativas y construir gráficos de
barras e histogramas que facilitan el análisis visual.

Algunas variables numéricas pueden ser transformadas en variables cualitativas,


pero lo contrario no es posible. Por ejemplo la variable numérica “edad”, puede
dividirse en intervalos con etiquetas asignadas, como bebés, niños, adolescentes,
adultos y ancianos. Si lo que se quiere es hacer cálculos, hay que mantener la
variable “edad” como variable numérica. Pero otras aplicaciones puede que no
requiera detalle numérico, para estas bastaría con dejar las etiquetas nombradas.
Las variables numéricas se dividen a su vez en dos grandes categorías: variables
discretas y variables continuas.

Variables discretas: Las variables discretas únicamente toman ciertos valores y se


caracterizan por ser contables, por ejemplo, el número de hijos de una familia, la
cantidad de mascotas, el número de clientes que visitan a diario una tienda y los
suscriptores de una compañía de cable, por mencionar algunos ejemplos.

Variables discretas: Las variables discretas únicamente toman ciertos valores y se


caracterizan por ser contables, por ejemplo, el número de hijos de una familia, la
cantidad de mascotas, el número de clientes que visitan a diario una tienda y los
suscriptores de una compañía de cable, por mencionar algunos ejemplos.

Variables continuas: A diferencia de las variables discretas, las variables continuas


pueden tomar cualquier valor. Por ejemplo, el peso de los estudiantes que cursan
determinada asignatura, la estatura, la temperatura, el tiempo, la longitud y
muchas otras más.

Variables dependientes e independientes: Las variables dependientes son las que


se miden durante un experimento, para estudiar la relación que tienen con otras,
que serían consideradas las variables independientes.

XI. Procedimientos descriptivos en el análisis de datos

1. Recogida y presentación grafica

La recogida de información es un elemento central de los procesos de


investigación. Para dar respuesta a los problemas de investigación y alcanzar los
objetivos previstos será necesario recoger evidencias de la realidad estudiada. De
forma general, hay dos procedimientos que podemos utilizar: la observación y/o la
interrogación. Podemos observar la realidad para registrar los fenómenos que se
producen en ella o preguntar a los implicados. En la investigación con un enfoque
cuantitativo, en muchas ocasiones, el propósito de la recogida de información es
utilizar o construir escalas de puntuaciones que permitan ordenar y comparar a los
sujetos de la muestra en alguna característica. En estos casos, el proceso de
recogida de evidencias está vinculado a un proceso de medida de variables.

Presentación grafica
Es una representación de datos, generalmente numéricos, mediante líneas,
superficies o símbolos, para ver la relación que guardan entre sí. También puede
ser un conjunto de puntos, que se plasman en coordenadas cartesianas, y sirven
para analizar el comportamiento de un proceso, o un conjunto de elementos o
signos que permiten la interpretación de un fenómeno. La representación gráfica
permite establecer valores que no han sido obtenidos experimentalmente, es
decir, mediante la interpolación (lectura entre puntos) y la extrapolación (valores
fuera del intervalo experimental). La estadística gráfica es una parte importante y
diferenciada de una aplicación de técnicas gráficas, a la descripción e
interpretación de datos e inferencias sobre éstos. Forma parte de los programas
estadísticos usados con los ordenadores.

2. Frecuencias

La frecuencia utilizada tanto para datos cualitativos y cuantitativos. Representa la


frecuencia o el recuento de los diferentes resultados en un conjunto de datos o
muestras. La distribución de frecuencias se presenta normalmente en una tabla o
un gráfico. Cada entrada de la tabla o el gráfico va acompañada del recuento o la
frecuencia de aparición de los valores, en un intervalo, rango o grupo específico.

La distribución de frecuencias es básicamente una presentación o un resumen de


datos agrupados que se han clasificado en función de clases mutuamente
excluyentes y del número de ocurrencias en cada clase respectiva. Permite una
forma más estructurada y organizada de presentar los datos en bruto. Los cuadros
y gráficos más comunes utilizados en la presentación y visualización de la
distribución de frecuencias incluyen gráficos de barras, histogramas, gráficos
circulares y gráficos de líneas.

3. Percentiles

los percentiles son los valores que dividen a un conjunto de datos ordenados en
cien partes iguales. De manera que un percentil indica el valor por debajo del cual
se encuentra un porcentaje del conjunto de datos. Por ejemplo, el valor del
percentil 35 es más grande que el 35% de los datos observados, pero es más
pequeño que el resto de datos.

Los percentiles se representan mediante la letra P mayúscula y el subíndice del


percentil, es decir, el primer percentil es P1, el percentil 40 es P40, el percentil 79
es P79, etc.

4. Medidas de tendencia central y de variabilidad

Las medidas de variabilidad, también llamadas medidas de dispersión, son


indicadores estadísticos que señalan cuán cercanos o alejados se encuentran los
datos de su media aritmética. Si los datos están cercanos a la media, la
distribución está concentrada, y si están lejos, se trata entonces de una
distribución dispersa. Hay muchas medidas de variabilidad, entre las más
conocidas están:

- Rango
- Desviación media
- Varianza
- Desviación estándar

Estas medidas complementan a las medidas de tendencia central y son


necesarias para comprender la distribución de los datos obtenidos y extraer de
ellos la mayor cantidad de información posible.

Rango

El rango o recorrido mide la amplitud de un conjunto de datos. Para determinar su


valor se halla la diferencia entre el dato de mayor valor xmáx y el de menor valor
xmín: R = xmáx – xmín

Desviación media

Esta medida de variabilidad se calcula a través del promedio de los valores


absolutos de las desviaciones respecto a la media. Denotando la desviación
media como DM, para datos no agrupados, la desviación media se calcula
mediante la siguiente fórmula:

Donde n es el número de datos de que se dispone, x i representa a cada dato y x̄


es el promedio, el cual se determina sumando todos los datos y dividiendo entre n:

La desviación media permite conocer, en promedio, en cuantas unidades los datos


se desvían de la media aritmética y tiene la ventaja de tener las mismas unidades
que los datos con los que se trabaja.

Varianza

La desviación media es una medida de variabilidad mucho más fina que el rango,
pero como se calcula a través del valor absoluto de las diferencias entre cada dato
y la media, no ofrece mayor versatilidad desde el punto de vista algebraico. Por
ello se prefiere la varianza, que corresponde al promedio de la diferencia
cuadrática de cada dato con la media y se calcula mediante la fórmula:

En esta expresión, s2 denota la varianza, y como siempre xi representa a cada uno


de los datos, x̄ es la media y n el total de datos. Cuando se trabaja con una
muestra en vez de la población, se prefiere calcular la varianza así:

La diferencia con la fórmula anterior es que en el denominador hay n−1 en vez de


n. Sucede que al dividir por n, la varianza de la muestra subestima la varianza de
la población de la cual se extrajo, pero no así cuando se divide por n−1. En
algunos textos aparece esa expresión con el nombre de cuasi-varianza. En todo
caso, varianza se caracteriza por ser siempre una cantidad positiva, pero al ser el
promedio de las diferencias cuadráticas, es importante observar que no tiene las
mismas unidades que las de los datos.

Desviación estándar
La varianza no tiene la misma unidad que la de la variable en estudio, por ejemplo,
si los datos vienen en metros, la varianza resulta en metros cuadrados. O en el
ejemplo de los goles sería en goles al cuadrado, que no tiene sentido. Puede
servirte: Trapecio isósceles: propiedades, relaciones y fórmulas, ejemplos

Por ello se define la desviación estándar, también llamada desviación típica, como
la raíz cuadrada de la varianza: s = √s2

De esta forma se obtiene una medida de variabilidad de los datos en las mismas
unidades que estos, y cuanto menor sea el valor de s, más agrupados están los
datos alrededor de la media.

Tanto la varianza como la desviación estándar son las medidas de variabilidad a


escoger cuando la media aritmética es la medida de tendencia central que mejor
describe el comportamiento de los datos. Y es que la desviación estándar tiene
una importante propiedad, conocida como el teorema de Chebyshev: al menos el
75% de las observaciones se encuentran en el intervalo definido por x̄ ± 2s. En
otras palabras, un 75% de los datos está, a lo sumo, a una distancia igual a 2s
alrededor de la media. Asimismo, al menos un 89% de los valores están a una
distancia de 3s de la media, un porcentaje que puede ampliarse, siempre que se
disponga de muchos datos y estos sigan una distribución normal.

5. Centro

El "centro" de un conjunto de datos también es una forma de describir la


ubicación. Las dos medidas más utilizadas del “centro” de los datos son la media
(promedio) y la mediana. … La media es la medida más común del centro. Las
palabras "media" y "promedio" a menudo se usan indistintamente.

Centro describe un valor típico de un punto de datos. Dos medidas del centro son
la media y la mediana. Spread describe la variación de los datos. Dos medidas de
dispersión son el rango y la desviación estándar.

6. Dispersión y posición de una variable

Las medidas de dispersión describen qué tan agrupados están los datos alrededor
de las medidas centrales.

Rango
Se calcula restando el dato mayor y el dato menor. Si esta diferencia es grande,
es señal de que los datos son dispersos, mientras que los valores pequeños
indican que los datos se encuentran cercanos a la media.

Varianza
 Varianza para datos no agrupados
Para hallar la varianza s2 se  requiere conocer primero la media aritmética, luego
se calcula la diferencia al cuadrado entre cada dato y la media, se suman todas y
se divide entre el total de observaciones. A estas diferencias se las conoce
como desviaciones.

La varianza, que siempre es positiva (o cero), indica qué tan alejadas están las
observaciones de la media: si la varianza es elevada, los valores están más
dispersos que cuando la varianza es pequeña.

Medidas de posición

Las medidas de posición dividen a un conjunto ordenado de datos en partes de


igual tamaño. La mediana, además de ser una medida de tendencia central es
también una medida de posición, ya que divide al conjunto en dos partes iguales.
Pero se pueden obtener partes de menor tamaño con cuartiles, deciles y
percentiles.

Cuartiles

Los cuartiles dividen al conjunto en cuatro partes iguales, cada una con un
25 % de los datos. Se denotan como Q1, Q2 y Q3 y la mediana es el cuartil
Q2. De esta manera, el 25% de los datos está por debajo del cuartil Q1, el
50% por debajo del cuartil Q2 o mediana y el 75% bajo el cuartil Q3. Medidas
de posición

Las medidas de posición dividen a un conjunto ordenado de datos en partes de


igual tamaño. La mediana, además de ser una medida de tendencia central es
también una medida de posición, ya que divide al conjunto en dos partes iguales.
Pero se pueden obtener partes de menor tamaño con cuartiles, deciles y
percentiles.
Cuartiles
Los cuartiles dividen al conjunto en cuatro partes iguales, cada una con un 25 %
de los datos. Se denotan como Q1, Q2 y Q3 y la mediana es el cuartil Q2. De esta
manera, el 25% de los datos está por debajo del cuartil Q 1, el 50% por debajo del
cuartil Q2 o mediana y el 75% bajo el cuartil Q 3.

Medidas de posición

Las medidas de posición dividen a un conjunto ordenado de datos en partes de


igual tamaño. La mediana, además de ser una medida de tendencia central es
también una medida de posición, ya que divide al conjunto en dos partes iguales.
Pero se pueden obtener partes de menor tamaño con cuartiles, deciles y
percentiles.

Cuartiles
Los cuartiles dividen al conjunto en cuatro partes iguales, cada una con un 25 %
de los datos. Se denotan como Q1, Q2 y Q3 y la mediana es el cuartil Q2. De esta
manera, el 25% de los datos está por debajo del cuartil Q 1, el 50% por debajo del
cuartil Q2 o mediana y el 75% bajo el cuartil Q 3.

Medidas de posición

Las medidas de posición dividen a un conjunto ordenado de datos en partes de


igual tamaño. La mediana, además de ser una medida de tendencia central es
también una medida de posición, ya que divide al conjunto en dos partes iguales.
Pero se pueden obtener partes de menor tamaño con cuartiles, deciles y
percentiles.

Cuartiles
Los cuartiles dividen al conjunto en cuatro partes iguales, cada una con un 25 %
de los datos. Se denotan como Q1, Q2 y Q3 y la mediana es el cuartil Q2. De esta
manera, el 25% de los datos está por debajo del cuartil Q 1, el 50% por debajo del
cuartil Q2 o mediana y el 75% bajo el cuartil Q 3.

Cuartiles para datos no agrupados


Se ordenan los datos y se divide el total en 4 grupos con igual número de datos
cada uno. La posición del primer cuartil se halla mediante:

Q1 =(n+1)/4

Siendo n el total de datos. Si el resultado es entero se ubica el dato


correspondiente a esa posición, pero si es decimal, se promedia el dato
correspondiente a la parte entera con el siguiente, o para mayor precisión se
interpola linealmente entre dichos datos.
XII. Relaciones entre Variables Probabilidades

1. Conceptos y principales propiedades

La propiedad es la facultad que tiene una persona


(natural o jurídica) para disponer de un objeto. Esto,
siempre dentro de lo que permitan las leyes.

Es decir, la propiedad es la atribución de un individuo


o empresa para poseer un determinado bien, como
un inmueble o un coche.

La propiedad puede aplicar a todos los objetos que cumplan con las siguientes
características:

 Limitados: Debe tratarse de un bien que no sea ilimitado, como el aire, pues
en este caso no tendría sentido delimitar la propiedad a un individuo.
 Útiles: Esto significa que el bien que brindar algún tipo de beneficio a su
propietario, ya sea monetario o no. En este último caso, podríamos hablar
de la simple satisfacción.

Cabe aclarar, sin embargo, que la propiedad también puede ejercerse sobre una
cualidad o atributo personal. Por ejemplo, una persona puede poseer una gran
creatividad artística.

2. Aplicación a los métodos de diagnostico

La utilización del método clínico para lograr un diagnóstico preciso de las


enfermedades en el ser humano, surge con el nacimiento de la Medicina, en la
antigua Grecia y tiene como componentes fundamentales la relación médico-
paciente, el interrogatorio, el examen físico y la historia clínica; esta última
constituye su herramienta más importante en la recogida de datos. Se reflexiona
sobre la importancia de su aplicación correcta para llegar a un diagnóstico preciso
en los pacientes con hemorragia digestiva alta no variceal comenzando en la
atención primaria de salud donde se puede lograr un diagnóstico precoz de esta
entidad y evitar complicaciones que ocurren en estos pacientes cuando el
diagnóstico es tardío, por lo que lejos pensar en la muerte del método clínico, su
vigencia e importancia en la medicina contemporánea es incuestionable.

3. Sensibilidad y especificad de un test riesgo relativo y odds ratio


de un FR

El riesgo relativo (RR) y la odds ratio (OR) constituyen dos razones de interés
cuando se necesita ofrecer una magnitud de la relación entre las medidas
nominales asociadas a estudios que implican la medición de riesgos de un
resultado dado en relación si está presente o no un factor predisponente.6

El RR, o razón del riesgo de una enfermedad, se calcula mediante el cociente


entre la incidencia de personas expuestas y la incidencia en personas no
expuestas al factor; se utiliza en los estudios de cohorte. Por su parte la OR se
puede calcular tanto en estudios de caso control y como en los prospectivos a
partir del cociente entre los momios, odds o ventajas del éxito,7 una vez que se
han identificado las variables dicotómicas estado de salud (enfermo, no enfermo) y
exposición al factor de riesgo (si, no) y los datos se disponen adecuadamente en
una tabla de doble entrada.6,7

Sean:

a: cantidad de personas enfermas en presencia del factor de riesgo; b: cantidad de


personas no enfermas expuestas al factor de riesgo; c: cantidad de personas
enfermas no expuestas al factor de riesgo; d: cantidad de personas no enfermas
en las que el factor de riesgo no está presente.

P1: probabilidad de padecer la enfermedad en presencia del factor de riesgo


(probabilidad de que ocurra el evento o proporción en que este tiene lugar).

Q1: probabilidad de no estar enfermo (estar sano) en presencia del factor de


riesgo (probabilidad de que no ocurra dicho evento o proporción en que no ocurre)
P2: probabilidad de estar enfermo en ausencia del factor de riesgo (probabilidad
de que ocurra el evento o proporción en que este tiene lugar).

Q2: probabilidad de no estar enfermo (estar sano) en ausencia del factor de riesgo
(probabilidad de que no ocurra dicho evento o proporción en que no ocurre)

Dado que el momio se define como la razón entre la probabilidad de que ocurra el
evento y la probabilidad de que no ocurra dicho evento, la odds ratio la razón entre
momios y el RR el cociente entre el riesgo de sufrir un determinado evento en el
grupo expuesto a un factor de riesgo dado y el riesgo de sufrir dicho evento en el
grupo de los no expuestos a idéntico factor de riesgo, se tiene que:

No es difícil demostrar que:

Al realizar algunas transformaciones algebraicas, el riesgo relativo se puede


representar en la forma:

donde: x=c/d y y=a/b. Así, se puede analizar dicho riesgo como una función de
dos variables x e y con dominios: y

Para patologías poco frecuentes, los enfermos en presencia del factor de riesgo
son mucho menores que los no enfermos (a<<b) en presencia del mismo factor y
de igual forma la cantidad de aquejados de la enfermedad es mucho menor que la
cantidad de no enfermos (c<<d) en ausencia del propio factor. Por tanto: x<<1 e
y<<1.

El desarrollo en serie de potencias de una función de dos variables F(x,y)


alrededor del punto (x,y)=(0,0)8 está dado por la expresión general:

Si se limita el desarrollo hasta los términos del primer orden resulta:

De manera que la función RR(x,y) desarrollada en serie de Taylor hasta el primer


término adopta la forma:
Si la enfermedad es de baja frecuencia, dado que la cantidad de sujetos con la
condición es también baja, a<<b, por lo que el término y=a/b se puede despreciar
y se concluye que en estos casos RROR, o sea al cumplirse tal condición, el
riesgo relativo se puede aproximar por la razón de productos cruzados, resultados
que coincide con el obtenido en.4

XIII. Variables aleatorias

1. Función de densidad y de probabilidad

1-LA FUNCIÓN DE DENSIDAD

también llamada función de densidad de probabilidad, es una función matemática


que describe la probabilidad de que una variable aleatoria continua tome un
determinado valor. Es decir, la función de densidad asociada a una variable define
matemáticamente las probabilidades de que la variable tome cualquier valor.

Por ejemplo: , imaginemos que la probabilidad de que


una persona adulta mida más de 1,80 m en una
población es del 35%, entonces la función de densidad
indicará un 35% de probabilidades al hacer el cálculo de
dicha probabilidad. En ocasiones, la función de densidad
de probabilidad se abrevia mediante las siglas FDP.

LA FUNCIÓN DE PROBABILIDAD

también llamada función de masa de probabilidad, es


una función matemática que describe la probabilidad de que una variable aleatoria
discreta tome un determinado valor. Es decir, una función de probabilidad
devuelve la probabilidad asociada a que una variable discreta sea exactamente
igual a un valor.

Por ejemplo, la probabilidad de sacar cualquier número al lanzar un dado es de


1/6 (un dado tiene seis caras), por lo tanto, la función de probabilidad asociada a
este espacio muestral será igual a 1/6 para cualquier valor.

Ejemplo: Ahora que ya sabemos la definición y las características de la función de


probabilidad, vamos a ver un ejemplo de este tipo de función probabilística.

Calcula las probabilidades de sacar cara 0, 1, 2, 3 y 4 veces haciendo cuatro


lanzamientos de monedas independientes. Luego grafica la función de
probabilidad hallada.
En primer lugar, tenemos que calcular las probabilidades de obtener cara, para
ello, se deben dividir los casos posibles entre el número total de casos. Puedes
ver el cálculo de todas las probabilidades en la siguiente tabla

Y una vez hemos calculado


todas las probabilidades,
podemos representar los
valores de la función de
probabilidad en una gráfica:

Como puedes comprobar, la


función probabilística del ejercicio cumple todas las propiedades de las funciones
de probabilidades, ya que todos sus valores están entre 0 y 1 y, además, la suma
de todos sus valores es equivalente a 1.
2. Media

La media estadística, promedio o media aritmética corresponde al valor que


obtendrían un conjunto de datos si todos ellos fuesen iguales o el valor que
tendrían si la suma de cada una de ellos se repartiera de forma equitativa, es
decir, la media estadística también se conoce como un reparto equitativo. 

Los datos que se estudian en la media estadística son siempre valores


cuantitativos y objetos de estudios basados en un valor esperado, el cual es
resultado de la suma de todos los valores divididos entre el total de datos
recolectados.  Cuando se habla de media, generalmente surgen confusiones con
la concepción de la esperanza matemática, la cual no atribuye a esto, ya que la
esperanza matemática es un término estadístico correspondiente a las
probabilidades y la media es solo un término matemático. 

Lo que causa la confusión entre estos dos términos, es que el método de cálculo
es similar, sin embargo, no abarcan el mismo contexto.  En la estadística, existen
muchas maneras de calcular la media, bien sea para un conjunto de valores, la
media aritmética que es la más común y otros tipos como la geométrica, para
conocer un poco más de ellas las veremos a continuación:

Media aritmética: es la forma más común y antigua de calcular la media donde


todas las observaciones tienen el mismo valor, su expresión está dada por:
Dónde:

 N: es el valor total de observaciones.


 X: es el valor de la observación. 

Media geométrica: es la raíz enésima de la multiplicación o producto del conjunto


de valores observador. Está expresada por la siguiente ecuación:

Media ponderada: es cuando los valores o datos conllevan un peso, los cuales son
números positivos pertenecientes a todos los números reales y viene dada de la
siguiente manera:

Media armonizada: la media armonizada no es más que la inversa de la media


aritmética, o el inverso del conjunto de valores aritméticos. Su expresión se denota
de la siguiente manera:

Finalmente es importante mencionar que en las ciencias financieras y puras, la


media elemental o la más conocida, es la media aritmética. 

3. Varianza

La varianza de una muestra o de un conjunto de valores, es la sumatoria de las


desviaciones al cuadrado con respecto al promedio o a la media, todo esto
dividido entre el número total de observaciones menos 1. De manera muy general
se puede decir que la varianza es la desviación estándar elevada al cuadrado.

En las áreas de economía y finanzas, la varianza se interpreta como el riesgo de


que el rendimiento realizado en algún procedimiento sea distinto al rendimiento
esperado. Por lo general cuando se espera un mayor rendimiento, el riesgo a su
vez es mayor.

Ejemplo de Varianza

Para calcular la varianza, primero se debe calcular la media o el promedio de los


datos usados. Por otro lado, si se tiene la desviación estándar, simplemente se
eleva al cuadrado ese resultado y así se obtiene la varianza. A continuación, se
muestra un ejemplo para entender cómo se calcula la varianza y cuál podría ser
su interpretación.

Supongamos que se tienen los ingresos anuales de cinco empresas distintas,


pertenecientes a un mismo empresario, los cuales son:

 Empresa A: 2.500 $
 Empresa B: 1.800 $
 Empresa C: 2.300 $
 Empresa D: 3.000 $
 Empresa E: 2.700 $
Entonces calculamos la media de los ingresos, simplemente sumando cada cifra y
dividiéndolo entre el número total de empresas, lo cual da como resultado: 2.460$.

Promedi Datos –
Datos
o Promedio

Dato 1 2500 2460 40 1600

Dato 2 1800 2460 -660 435600

Dato 3 2300 2460 -160 25600

Dato 4 3000 2460 540 291600


Dato 5 2700 2460 240 57600

Total 812000

La varianza de la población es la sumatoria de las diferencias de los datos con el


promedio al cuadrado, dividido en n, en este caso es 5.

S2 =812000/5 = 203000

σ2=162400

Al sacar la raíz cuadrada a este resultado obtenemos la desviación estándar,


siendo ésta 402 $ de diferencia entre los ingresos de las cinco empresas.

4. Distribuciones de probabilidad

5. Distribución binomial

6. Distribución normal

XIV. Teorías de Muestreo

1. Muestreo

2. Estimación
3. Metodología

4. Eliminación puntual

5. Intervalos de confianza

XV. Contraste de hipótesis

1. Metodología

2. Fundamentos

3. Tipos de error

4. Nivel de significación

5. Nivel critico

6. Contrastes sobre medias

7. Proporciones más usuales

8. Test Chi cuadrado para tablas de contingencia


Conclusión

Bibliografía

Vista de Principales medidas en epidemiología | Salud Pública de México. (Dakota


del Norte).
https://www.saludpublica.mx/index.php/spm/article/view/6248/7453#:~:text=La
%20raz%C3%B3n%20representa%20cu%C3%A1ntas%20veces,no%2Dasociaci
%C3%B3n%20o%20valor%20nulo.

Rojas Cairampoma, M., (2015). Tipos de Investigación científica: Una


simplificación de la complicada incoherente nomenclatura y clasificación.
REDVET. Revista Electrónica de Veterinaria, 16 (1),1-14.[fecha de Consulta 15 de
Abril de 2023]. ISSN: . Recuperado de: https://www.redalyc.org/articulo.oa?
id=63638739004

Abramson JH. Making sense of data. Segunda edición. New York, USA: Oxford
University Press; 1994.

Argimon JP, Jiménez JV. Métodos de investigación clínica y epidemiológica.


Tercera edición. Madrid, España: Elsevier España; 2004.

Fajardo-Gutiérrez A, Rendón-Macías ME, Mejía-Aranguré JM. Epidemiología del


cáncer en niños mexicanos. Resultados globales. Rev Med Inst Mex Seguro Soc.
2011;49(Supl 1):S43-S70.

Greemberg RS, Daniels SR, Flanders WD, Eley JW, Boring JR. Medical
epidemiology. Tercera edición. New York, USA: McGraw-Hill; 2001.
Licenciatura en Enfermería y Obstetricia. (13 de Abril de 2018). Unidad didáctica
6: Proporciones, tasas y razones. Medidas de resumen de una distribución
y Comparación de dos proporciones. Obtenido de Licenciatura en
Enfermería y Obstetricia: https://blogs.ugto.mx/enfermeriaenlinea/unidad-
didactica-6-proporciones-tasas-y-razones-medidas-de-resumen-de-una-
distribucion-y-comparacion-de-dos-proporciones/

Moreno-Altamirano, A., & Sergio López-Moreno, A. C.-B. (2016). Principales


medidas en epidemiología. Obtenido de Salud Pública:
https://www.saludpublica.mx/index.php/spm/article/view/6248/7453#:~:text=
Las%20proporciones%20son%20medidas%20que,poblaci%C3%B3n
%20en%20la%20que%20ocurrieron.

http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S1684-
18592011000200005

También podría gustarte