Está en la página 1de 75

Epidemiologia-JorgePresno.

pdf

Jorge_Presno12

Epidemiología

1º Grado en Medicina

Facultad de Medicina y Ciencias de la Salud


Universidad de Oviedo

Reservados todos los derechos.


No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
2022
EPIDEMIOLOGÍA

Jorge Presno García


Universidad de Oviedo

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


2
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Epidemiología
Banco de apuntes de la
Tema 1: Epidemiología: Concepto y Clasificación
La epidemiología es una ciencia en la que no se estudia a los individuos, sino a la población. Es
decir, su ámbito de interés son los problemas de salud de la comunidad. Teniendo en cuenta esta
característica, se denomina a la epidemiología como el estudio de la distribución y los
determinantes de los sucesos y estados relacionados con la salud en poblaciones determinadas,
y en la aplicación de ese estudio para controlar los problemas de salud.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
1. Problemas de salud
La epidemiología se ha encargado de los problemas de salud, pero este interés ha ido variando a
lo largo del tiempo. En la etapa clásica, esta disciplina se ocupaba de las enfermedades
transmisibles. Sin embargo, en los últimos treinta años la epidemiología había destinado su
atención a las denominadas enfermedades crónicas.
Por sorpresa, en 2020 irrumpe la pandemia de la covid-19 que lleva de nuevo al foco de atención
a las enfermedades transmisibles, esas que en su momento dejaron de ser centro del estudio
gracias a la vacunación. En epidemiología, los problemas infecciosos se tratan como sucesos
mientras que los crónicos se tratan como estados.
¡¡¡OJO!!! Es importante distinguir los conceptos siguientes:

• Endemia: El número de casos es asumible por la sanidad pública.


• Epidemia: El número de casos es mayor del esperado.
• Pandemia: Es una epidemia que se extiende por varios continentes.

2. Características de la epidemiología
Las características de la epidemiología son fundamentalmente tres:
➢ El enfoque de la epidemiología es más comunitario que individual.
➢ Los estudios epidemiológicos siempre se refieren a grupos de individuos.
➢ Se emplea con asiduidad la cuantificación y la estadística como principal herramienta de
análisis, sin dejar de lado la demografía y la sociología.

3. Evolución histórica de la epidemiología


Etimológicamente, la palabra epidemiología significa el estudio (logos) de lo que sucede (epi)
sobre la población (demos). A pesar del origen griego de la palabra, no se tiene constancia de un
uso de este término previo al siglo XVI. Sin embargo, no es hasta 1802 que se publica el primer
libro “Epidemiología española” de Joaquín Villalba.
A lo largo del siglo XVII, se empiezan a sentar las bases de la epidemiología, precisamente con
la introducción de los métodos cuantitativos en el análisis de los problemas de salud. El primero
en usar la estadística dentro del campo sanitario será Pierre Louis, cuyas investigaciones sobre la
fiebre amarilla y la tuberculosis tuvieron una gran influencia.
Otro hecho fundamental que se produce en este siglo es el descubrimiento de asociaciones
relevantes entre los factores externos y las enfermedades gracias al análisis de grupos de personas
expuestas a unas condiciones particulares. En esta etapa destacan los estudios de Gaspar Casal
sobre la pobreza y la dieta carencial de los campesinos asturianos y las investigaciones de Percival
Pott acerca del cáncer escrotal en niños deshollinadores, apareciendo gracias a este último
ejemplo lo que conocemos como la primera enfermedad laboral. Otros estudios como los de Lind
y Semmelweis favorecerían al desarrollo de la epidemiología.
Ya entrados en el siglo XIX, con los descubrimientos de Pasteur y Koch, la epidemiología
dispondrá de un modelo teórico sobre el que desarrollar el estudio de las enfermedades
transmisibles. Pero, unas décadas antes del trabajo de estos dos científicos, aparece John Snow,

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


el primer médico/investigador en emplear el método epidemiológico al estudiar las epidemias de
cólera en Londres.
En 1850 se crea la primera sociedad de epidemiología, en Londres. Sin embargo, en España no
se fundaría la Sociedad Española de Epidemiología hasta 1977. También se crean Escuelas de
Salud Pública, siendo la primera también londinense. La Escuela Nacional de Sanidad sería
fundada en 1924.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
4. Propósitos de la epidemiología
Los propósitos de la epidemiología se agrupan en dos categorías:
La detección, caracterización y cuantificación de la salud y la enfermedad. Todo esto nos
permite ordenar los problemas de salud según su impacto para diseñar políticas sanitarias.
Uno de los sistemas más empleados son los cribados que nos permiten un diagnóstico
precoz de la enfermedad, antes de que se presente síntoma alguno.
La detección, caracterización y cuantificación de los determinantes de salud. Así, se logra
conocer las causas de la enfermedad a través de la investigación etiológica, así como
comprobar la eficacia de las intervenciones sanitarias.

5. Método epidemiológico
El método epidemiológico se divide en 7 pasos:
I. Observación de un fenómeno (sin ninguna idea preconcebida o prejuicio)
II. Recogida de la información
III. Tabulación y análisis de datos
IV. Elaboración de hipótesis
V. Confirmación o Refutación de la hipótesis
VI. Establecimiento de conclusiones
VII. Presentación de resultados

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


Tema 2: Definición de Demografía. Demografía Estática y
Dinámica
La demografía es una ciencia esencial en medicina porque siempre se ha de tener en cuenta que
lo que afecta a un individuo afecta al resto. Esta afirmación se aleja de la creencia común de
mucho personal sanitario de que solo se trata de salvar a un individuo sin tener en cuenta su
entorno.
La demografía nos permite:
➔ Calcular medidas de frecuencia (tasas, índices e indicadores).
➔ Hacer diagnóstico de salud de poblaciones.
➔ Estimar necesidades y recursos sanitarios.
➔ Planificar y programar la atención sanitaria.
➔ Hacer estudios epidemiológicos.
➔ Evaluar el impacto de intervenciones.

1. Demografía
La demografía es la ciencia que estudia las poblaciones humanas respecto a:
I. Tamaño, composición, características y distribución geográfica.
II. Evolución y procesos que hacen que cambie la sociedad.
Es decir, la demografía también se encarga de estudiar sucesos como nacimientos (tasas de
natalidad y fecundidad), defunciones (tasas de mortalidad), migraciones (tasas de movilidad) e
incluso matrimonios.
Podemos dividir a la demografía en dos tipos:
❖ Demografía estática: Es el estudio descriptivo de una población, es decir, analiza la
dimensión y estructura de una población en un momento determinado del tiempo.
❖ Demografía dinámica: Estudia la evolución y los cambios que se producen en una
población en el tiempo, analizando las causas y los mecanismos de los cambios
poblacionales. Además, interpreta y predice estos cambios.

2. Fuentes de datos demográficos


Las fuentes de datos demográficos pueden ser:
➢ Fuentes primarias: Los datos son recogidos con un fin específico.
➢ Fuentes secundarias: Son datos recogidos previamente con otro fin pero que nosotros
empleamos a posteriori para nuestro determinado fin.
A nivel nacional, los datos son competencia del Instituto Nacional de Estadística (INE), mientras
que a nivel europeo los recoge Eurostat y a nivel mundial el UNFPA (Fondo de Población de las
Naciones Unidas).
El INE recibe los datos a partir del censo de población y viviendas y del padrón municipal de
habitantes, elaborando proyecciones de población. El censo de población es el conjunto de
recogida, resumen, análisis y publicación de datos demográficos de los habitantes de una
determinada zona. Sus objetivos son contar la población, conocer su estructura y evolución y
permitir así el análisis demográfico. El censo se realiza cada 10 años y es de obligado
cumplimiento.
El padrón municipal de habitantes es un registro que realiza el ayuntamiento para saber las
personas que residen habitualmente en su municipio, así como las características demográficas

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
básicas. La suma de los datos recogidos en cada padrón constituye las cifras oficiales publicadas
por Real Decreto. Se realiza cada 5 años, aunque recibe una rectificación anual.
Las proyecciones de población son hipótesis sobre la evolución demográfica a partir de los datos
recogidos en el último censo. En ellas se valora la mortalidad, la natalidad y las migraciones,
y nos permiten estimar la población futura y su distribución a partir de una serie de variables.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Otras fuentes de datos son el registro civil, los institutos estadísticos de cada comunidad
autónoma, las encuestas parciales y los registros sanitarios (bien las bases de datos de la
Atención Primaria o bien registros específicos).

3. Indicadores demográficos
A. Pirámide de población:
Es la representación gráfica de la población distribuida por su edad y sexo en un momento
determinado. Se trata de un doble histograma vertical que nos permite comparar la estructura
de la población en diferentes momentos y sirve de base para otros análisis epidemiológicos.
Existen tres tipos de pirámides de población:
o Pirámide progresiva: Propia de poblaciones jóvenes con altas tasas de
natalidad y mortalidad, es decir, de países subdesarrollados o en vías de
desarrollo.
o Pirámide estancada: Es propia de poblaciones de países
desarrollados donde las poblaciones tienden hacia el
envejecimiento.
o Pirámide regresiva: Se trata de poblaciones en franco envejecimiento,
propia de países muy desarrollados.

4. Demografía y supervivencia
La demografía estudia la evolución de la población a lo largo de la historia, estimando cuánta
población ha habido en las distintas etapas históricas y qué eventos han podido afectar positiva o
negativamente sobre la población y su crecimiento. El primer evento reconocido fue la revolución
neolítica (aparición y desarrollo de la ganadería y de la agricultura) que permitió el crecimiento
de la población ya que antes, al ser una sociedad dedicada a la caza y a la recolección, era muy
dependiente del medio.
Es decir, la demografía estudia la natalidad, la mortalidad y el estado de salud de las
sociedades, y esto se debe en gran parte a dos personas, John Graunt y Thomas Malthus. Graunt
fue el pionero de la bioestadística y precursor de la epidemiología. Malthus es considerado el
padre de la demografía moderna y desarrolló la conocida teoría maltusiana.

5. Densidad de población
Es uno de los indicadores demográficos más conocidos, pero no es de lo más convenientes de
usar. Esto es debido a que este indicador presupone la homogeneización del reparto de la
población a lo largo del territorio, dejando de lado las grandes zonas despobladas que existen en
países como Rusia o nuestro propio país, España.
Por ello, resulta mucho más útil utilizar la densidad desarrollada o densidad activa. Esta mide
los Km2 que están habitados.

𝑵º 𝒊𝒏𝒅𝒊𝒗𝒊𝒅𝒖𝒐𝒔 𝑵º 𝒊𝒏𝒅𝒊𝒗𝒊𝒅𝒖𝒐𝒔
𝑫𝒆𝒏𝒔𝒊𝒅𝒂𝒅 = 𝑫𝒆𝒏𝒔𝒊𝒅𝒂𝒅 𝒂𝒄𝒕𝒊𝒗𝒂 =
𝒌𝒎𝟐 𝒌𝒎𝟐 𝒉𝒂𝒃𝒊𝒕𝒂𝒅𝒐𝒔

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

el podcast para entender que la vida da mas vueltas que la silla de un peluquero
6. Índices de estructura poblacional
A. Proporción > 64 años: Resulta de interés porque es a la edad a la que suele jubilarse las
personas y dejar de ser activas.

𝑵º 𝒉𝒂𝒃𝒊𝒕𝒂𝒏𝒕𝒆𝒔 > 𝟔𝟒 𝒂ñ𝒐𝒔


∗ 𝟏𝟎𝟎
𝑷𝒐𝒃𝒍𝒂𝒄𝒊ó𝒏 𝒕𝒐𝒕𝒂𝒍

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
B. Índice de envejecimiento: Compara el número de personas mayores de 64 años con
personas menores de 16 años.

𝑵º 𝒉𝒂𝒃𝒊𝒕𝒂𝒏𝒕𝒆𝒔 > 𝟔𝟒 𝒂ñ𝒐𝒔


∗ 𝟏𝟎𝟎
𝑵º 𝒉𝒂𝒃𝒊𝒕𝒂𝒏𝒕𝒆𝒔 < 𝟏𝟔 𝒂ñ𝒐𝒔

C. Índice de Sauvy: Se considera que una población es joven cuando el resultado es menor
de 1/3, una población maduro cuando va de 1/3 a 2/3 y una población regresiva cuando
es mayor de 2/3.

𝑷𝒐𝒃𝒍𝒂𝒄𝒊ó𝒏 > 𝟔𝟎 𝒂ñ𝒐𝒔


∗ 𝟏𝟎𝟎
𝑷𝒐𝒃𝒍𝒂𝒄𝒊ó𝒏 < 𝟐𝟎 𝒂ñ𝒐𝒔

D. Índices de dependencia: Expresan la relación entre la población activa y la población


inactiva. Existen tres tipos, de los cuales la población entre 16 y 64 años (población
activa) es el denominador:
a. Índice de dependencia juvenil: el numerador es el número de habitantes menor
de 16 años.
b. Índice de dependencia senil: el numerador es el número de habitantes mayor de
64 años.
c. Índice de dependencia global: el numerador es el número de habitantes menor
de 16 años o mayores de 64 años.
E. Índice de Burgdöffer: Comparan el grupo de 5 a 14 años (A) con el de 45 a 64 años (B).
Si A>B se trata de una población joven, si es igual de una población madura y si A<B es
una población vieja.

F. Índice de Sundbarg: Compara


al grupo de 0-14 años (A) con el
de 15-49 (B) y con el mayor de
50 (C). Cuando A/B>C/B la
población es progresiva, si es
igual es estacionaria y si
A/B<C/B se trata de una
población regresiva.

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

el podcast para entender que la vida da mas vueltas que la silla de un peluquero
G. Índice de Fritz: Compara el grupo de <20 años (A) con el de 30-49 años (B). Cuando
A/B *100 > 160 la población es joven, si A/B * 100 = 60-160, la población es madura y
si A/B * 100 < 60 la población es vieja.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
7. Crecimiento natural o vegetativo
Mide la diferencia entre el número de nacimientos y defunciones en una población durante un
período de tiempo determinado. Encontramos dos tasas íntimamente relacionadas con el
crecimiento natural o vegetativo:

• Tasa de crecimiento natural o vegetativo: Mide el balance anual entre nacimientos y


defunciones de una población.

𝒏𝒂𝒄𝒊𝒎𝒊𝒆𝒏𝒕𝒐𝒔 − 𝒅𝒆𝒇𝒖𝒏𝒄𝒊𝒐𝒏𝒆𝒔
𝑻𝑪𝑽 = ∗ 𝟏𝟎𝒏
𝒑𝒐𝒃𝒍𝒂𝒄𝒊ó𝒏

• Tasa de crecimiento total: Además de los nacimientos y de las defunciones tiene en


cuenta los movimientos migratorios.
𝒏𝒂𝒄𝒊𝒎𝒆𝒊𝒏𝒕𝒐𝒔 − 𝒅𝒆𝒇𝒖𝒏𝒄𝒊𝒐𝒏𝒆𝒔 + 𝑺𝑴
𝑻𝑪𝑻 = ∗ 𝟏𝟎𝒏
𝒑𝒐𝒃𝒍𝒂𝒄𝒊ó𝒏

SM o saldo migratorio es la diferencia entre el número de inmigrantes y emigrantes.


A través de estas tasas podemos medir el crecimiento de la población cuando carecemos de
información reciente procedente de censos. Para estimar el crecimiento de la población
intercensales (entre dos censos, que se realizan cada 10 años), emplearemos el método de la tasa
de variación. Se asume siempre una evolución geométrica con una tasa de crecimiento total
(TCT) constante.

8. Transición demográfica (Warren Thompson)


Se produce un ciclo de transición demográfica de una sociedad que pasa de ser primitiva o
preindustrial con una alta natalidad y mortalidad a una sociedad industrial o moderna con bajas
tasas de natalidad y mortalidad. Es diacrónica (no es simultánea) en continentes y países, y se
puede dividir en 5 fases, que se aprecian en el siguiente gráfico:

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

el podcast para entender que la vida da mas vueltas que la silla de un peluquero
9. Medidas de frecuencia
En demografía siempre empleamos una serie de medidas de frecuencia:

• Proporción: Cociente entre dos cantidades absolutas cuyo numerador está contenido en
el denominador y que, por tanto, solo puede tomar valores entre 0 y 1.
• Razón: Cociente entre dos cantidades absolutas en el que el numerador no está contenido
en el denominador y que, por tanto, el resultado puede variar entre 0 e infinito.
• Tasa: Es el cociente entre dos cantidades absolutas cuyo numerador está contenido en el
denominador. Está multiplicado por 10n (k) para facilitar su lectura, e incluye una medida
de tiempo → es una medida de velocidad de ocurrencia de un fenómeno.
Las tasas se pueden clasificar en función de su grado de especificación en globales (toman en
cuenta toda la población) o especificas (toman solo a un subgrupo). También se pueden clasificar
según su control por terceras variables en brutas y estandarizadas o ajustadas.

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Tema 3: Tasas, Índices y Razones de Valor Sanitario
1. Estadísticas Vitales
Las estadísticas vitales constituyen la recopilación de estadísticas sobre los sucesos vitales en la
vida de una persona, así como las características relevantes de los propios sucesos y las personas
afectadas. Para fines estadísticos, los sucesos vitales conciernen la vida y la muerte de las

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
personas y sus familiares. Es decir, se toman en cuenta los nacimientos, las muertes y las muertes
intrauterinas.
Los informes de estadísticas vitales aportan medidas demográficas y epidemiológicas
fundamentales, que son necesarias para la planificación en muchos sectores, como pueden ser la
educación, el trabajo o la salud. Para obtener estas estadísticas vitales empleamos la información
del registro civil. De hecho, estas estadísticas vitales son el núcleo del sistema de información
sanitaria de un país. Estas, junto con las causas de muerte, también son necesarias para medir los
avances en el cumplimiento de los Objetivos de Desarrollo Sostenible.

2. Estudios de Mortalidad y Morbilidad


Las estadísticas de mortalidad son ampliamente empleadas para efectuar análisis de la situación
de la salud, bien de diferentes poblaciones coetáneas para compararlas entre ellas o bien de una
misma población en distintos momentos. Este análisis suele acompañarse con información
específica discriminada como el sexo, la raza, las causas de muerte y otros.
Según la Organización Mundial de la Salud (OMS), únicamente los indicadores de mortalidad
presentan un adecuado grado de confianza para comparar el nivel de salud entre los distintos
países, ya que las demás estadísticas sanitarias presentan limitaciones para realizar
comparaciones.
La mortalidad tiene una exhaustividad alta y disponemos de series temporales ininterrumpidas.
La fiabilidad de la causa de muerte es variable y la propia mortalidad es un indicador negativo
del estado de salud. Las fuentes de información empleadas son el registro de mortalidad (boletín
estadístico de defunción) y la mortalidad perinatal (boletín estadístico de partos, donde se tienen
en cuenta los abortos).

3. Tasas
Una tasa es la expresión de la frecuencia con la que ocurre un hecho en una población
determinada en un período. Todas las tasas cuentan con numerador, denominador, un período de
tiempo y un factor multiplicador (que suele ser una potencia de 10).
Las tasas sirven como indicadores de mortalidad. Estos indicadores se basan en un efecto
definitivo, fácilmente comprobable y cuyo registro es obligatorio. Son los siguientes:

• Tasa bruta de mortalidad: Cuantas muertes se producen en un periodo. El numerador


es el número de muertes y el denominador la población total.
• Tasa de mortalidad específica por causa: Cuantas muertes se producen por cada causa.
En el numerador se sitúan el número de muertes por dicha causa y en el denominador la
población total.
• Tasa de mortalidad específica por edad: Cuantas muertes se producen por cada grupo
de edad. En el numerador se sitúan el número de muertes de personas de dicho grupo de
edad y en el denominador la población total de ese grupo de edad.
• Tasa de mortalidad infantil: Cuantas muertes se producen en menores de 1 año. El
numerador es el número de muertes de menores de 1 año y en el denominador el número
de nacidos registrados.

10

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


• Tasa de mortalidad perinatal: Cuantas muertes se producen entorno al nacimiento.
• Tasa de mortalidad materna: Cuantas mujeres mueren a causa del embarazo o el parto.
El numerador es el número de muertes de mujeres a causa del embarazo o del parto y el
denominador el número de nacimientos.
Otras tasas de interés relacionadas con la mortalidad, pero sin incluirlas dentro de los indicadores
de mortalidad son la esperanza de vida (mide cuántos años vivirán las personas de una población)

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
y los años potenciales de vida perdidos (mide cuántos años dejan de vivir las personas que se
mueren antes de su esperanza de vida).
Para comprender la mortalidad infantil, una medida ampliamente usada para medir la efectividad
del sistema sanitario nacional, y, así, concluir el grado de desarrollo de dicho país, es necesario
entender el siguiente gráfico:

Para la descripción de la natalidad, se emplean los indicadores de natalidad. Son los siguientes:
➢ Tasa bruta de natalidad: Los nacimientos que se producen en un período. Su numerador
es el número de nacimientos vivos y el denominador es la población total (a mitad del
período).
➢ Tasa de fecundidad: Las criaturas que tienen las mujeres en un período. Siempre es el
cociente de nacidos vivos entre el número de mujeres cuya edad está entre 15 y 45.
➢ Tasa de reproducción: Las hijas que tiene una generación de mujeres.
➢ Índice sintético de fecundidad: Los hijos/as que tiene cada mujer a lo largo de su vida.
Es el sumatorio de las tasas específicas de fecundidad y mide la capacidad de reemplazo
de la población (si es mayor o igual a 2,2 se asegura el reemplazo).
En todas tasas se emplea un concepto que puede generar controversia, un nacido vivo. Según la
OMS, es todo feto, independientemente de su edad gestacional, sale del cuerpo materno y muestra
cualquier signo de vida. Según el código civil, la personalidad se adquiere en el momento del
nacimiento con vida, una vez producido el entero desprendimiento del seno materno. Respecto
a la muerte fetal, se trata del fallecimiento antes de su completa extracción del cuerpo de la
madre de un producto de concepción viable (esto es lo que lo diferencia del aborto, que se
considera que la concepción no ha sido viable).
Respecto a la morbilidad, los indicadores de morbilidad nos indican de qué enferman las
personas. Los indicadores de morbilidad son tasas que nos indican el número de enfermos por
una causa específica. Para ello, se emplean datos obtenidos de diversas instituciones como el
Ministerio de Salud, del INE o incluso de la DGT.
❖ Tasas de morbilidad específica por edad
❖ Tasas de morbilidad específica por sexo
❖ AVAC (QUALYS): Mide el número de años con calidad que deja de vivir una persona.
En cuanto a los movimientos migratorios, los indicadores de migración son los siguientes:
Tasas de emigración: Cuantas personas se van de un territorio. El numerador es el
número de personas que se van y el denominador la población media residente.

11

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

el podcast para entender que la vida da mas vueltas que la silla de un peluquero
Tasas de inmigración: Cuantas personas llegan a un territorio. En el numerador se sitúan
el número de personas que llegan y en el denominador la población media residente.
Migración neta o Saldo migratorio: Es la diferencia entre las personas que emigran y
las que inmigran en un territorio en un período de tiempo. Es importante recordar que hay
migraciones externas (salida del territorio) e internas (dentro del mismo territorio).
Tasa de migración neta: Es el cociente del saldo migratorio entre la población total.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
4. Estandarización o ajuste de tasas
Una tasa ajustada es una medida de resumen de las tasas específicas en los diferentes estratos de
la variable de confusión. Se obtiene a partir de una media ponderada de estas tasas específicas
donde las ponderaciones provienen de una serie de referencia llamada estándar, cuyo propósito
es homogeneizar los distintos grupos que se comparan. La tasas ajustadas no tienen valor
intrínseco, solo sirven para compararlas con otras obtenidas bajo las mismas condiciones.
Los motivos para estandarizar las tasas son los siguientes:
✓ Es más fácil comparar un único índice resumen con otros índices resumen de otras
poblaciones que listas de tasas específicas de otras poblaciones.
✓ Si algunos estratos tienen un número pequeño de efectivos, las tasas específicas pueden
ser imprecisas para utilizarlas en comparaciones detalladas.
✓ Para poblaciones pequeñas o para algunos grupos de especial interés puede no contarse
con tasas específicas porque, aun teniendo el número total de eventos, no se disponga de
su distribución según los estratos.
Existen dos métodos de ajuste de tasas, el método directo y el método indirecto. El método
directo se emplea cuando disponemos de tasas específicas y las aplicamos a una población
estándar. Sigue los siguientes pasos:
I. Calcular las tasas para cada estrato de las dos poblaciones y construir la población
estándar con cada estrato.
II. Aplicar a los estratos de la población estándar las tasas de la población A.
III. Calcular el número total de casos esperados en la población estándar si tuviera las tasas
de la población A.
IV. Calcular la tasa ajustada de la población A, repetir el proceso para la población B y
comparar ambas tasas ajustadas.
Para seleccionar a la población estándar se aplican una serie de criterios:

• Seleccionar una población relacionada con los datos.


• No puede presentar diferencias muy grandes entre los estratos.
• No olvidar que las tasas estándar son un resumen, las reales son las específicas.
La población estándar puede ser interna, que se caracteriza por ser similar a la población de
estudio y que no permite que las tasas ajustas se puedan comparar con las obtenidas en otras
poblaciones estándar, o externa, que facilita la comparación entre tasas y a lo largo del tiempo,
pero que si varía la población es necesario recalcularla.
Respecto al método indirecto, se emplea cuando disponemos del número total de eventos, pero
no de su distribución respecto a los estratos, por lo que se aplican una serie de tasas específicas
estándar. Se necesita disponer de la distribución de las poblaciones respecto a la variable de
estudio, las tasas específicas para cada categoría en la población estándar y el número total de
casos en cada población. Sigue los siguientes pasos:
I. Calcular el número de casos esperados en la población de estudio, en cada categoría de
la variable si se tuviesen las tasas de la población estándar.

12

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

el podcast para entender que la vida da mas vueltas que la silla de un peluquero
II. Calcular el número total de casos esperados en la población de estudio.
III. Calcular la razón estandarizada, es decir, el cociente de casos observados entre casos
esperados.
El ajuste de tasas puede presentar varias limitaciones. Una tasa ajustada es una medida cuya
magnitud no tiene ningún valor intrínseco, es una tasa artificial y solo se debe usar con el
cometido de comparar. El hecho de que las tasas ajustadas sean un resumen facilita el manejo
de los datos, pero también enmascara la información que aportan las tasas específicas.
La magnitud de las tasas ajustadas varía en función de la población estándar que se utilice.
Además, el ajuste no es apropiado cuando las tasas específicas en las poblaciones que se estén
comparando no tengan una relación consistente.
Para el análisis de las tasas ajustadas, es importante recalcar que hay que estudiar las tasas
específicas antes de ajustar porque son las tasas específicas quien nos aportan la medida de los
valores reales. Por eso, siempre que sea factible, se ha de presentar las tasas crudas y las tasas
específicas además de las tasas ajustadas. También siempre se ha de referenciar la población
estándar utilizada para facilitar la interpretación de los resultados y la comparación con otros
estudios.

13

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Tema 4: La Variable Epidemiológica
1. Definición de variable y medición
Una variable es un acontecimiento o una característica observable y medible que puede tener
diferentes valores y que representa los conceptos a estudio de la investigación.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
La medición es el procedimiento de atribuir valores cualitativos y cuantitativos a características
de objetos, personas o hechos. Es un proceso clave tanto en la investigación como en la práctica
clínica, ya que, si los procedimientos de medida que se emplean no son correctos, se afecta a la
validez tanto interna como externa del estudio.
Los estudios epidemiológicos tienen como objetivo la cuantificación de determinadas medidas de
enfermedad. La calidad con que un estudio epidemiológico consigue realizar estas mediciones se
considera en términos de validez o exactitud y de precisión o fiabilidad.
Un estudio tiene una validez interna y una validez externa. La validez interna de un estudio se
refiere a la inferencia realizada sobre la población elegible. Para que un estudio tenga validez
interna, los resultados deben describir correctamente lo que sucedió en el estudio.
La validez externa garantiza que las conclusiones del estudio efectuado en la muestra son
generalizables como verdad universal, fuera de la población muestreada. Es decir, se interesa de
la extrapolación de los resultados desde la población de estudio a otras poblaciones.

2. Clasificación de las variables


Las variables pueden ser relevantes para el estudio, de confusión, modificadoras de efecto,
universales o complementarias.
Las variables relevantes para el objetivo del estudio se dividen en variables independientes y
variables dependientes. Las variables independientes (VI) son aquellas de las que se pueden
medir los efectos, es decir, las causas del fenómeno que se quiere estudiar. Las variables
dependientes (VD) son los efectos esperados según las causas, es decir, las consecuencias.
Es la presumible relación entre las variables lo que determina esta clasificación y no la naturaleza
en sí del estudio. Ejemplos de estas variables son la asociación del tabaco (VI) y el cáncer de
pulmón (VD) o la asociación entre factores psicológicos y el tabaquismo.
Estas variables son fundamentales para los objetivos del estudio. Se formulan en la definición de
objetivos y en el diseño del estudio epidemiológico.
No obstante, hay otras variables a recoger que influyen en estas. Estas variables son las variables
de confusión y las variables modificadoras de efecto. La variable de confusión actúa como un
factor de riesgo para la enfermedad. Muestra una asociación con el factor de riesgo que se está
valorando, siendo más probable que se encuentren juntas que separadas. Es esencial conocer que
no es una variable intermedia en la cadena causal del factor de riesgo sometido a estudio.
Un ejemplo de variable de confusión es el tabaco en un estudio de la asociación entre el alcohol
(VI) y el cáncer de esófago (VD). El tabaco provoca cáncer de esófago, y, cuando se combina con
el alcohol, aumenta las probabilidades de padecerlo que si solo se consume alcohol. Aquí, el
tabaco no es una variable intermedia en la cadena causal ya que el consumo de alcohol no es causa
del consumo de tabaco.
Estas variables se detectan en estudios de cohorte, y producen el sesgo de confusión. Por tanto,
afectan a la validez interna del estudio.

14

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


La variable de interacción o modificadora de efecto es una interacción estadística. Modifica la
relación entre la variable dependiente y alguna otra variable a estudio, produciendo un cambio en
la magnitud de una medida del efecto.
Las variables universales son las características sociodemográficas de los sujetos (género, edad,
lugar de residencia, salario…), y son fijas. Tienen gran importancia para el estudio y siempre hay
que plantearse la necesidad de incluirlas adecuándolas lógicamente a los objetivos del estudio.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Por ejemplo, el género y la edad son variables fundamentales y son consideradas en muchos casos
como factores de riesgo (y, por tanto, potenciales factores de confusión).
Las variables complementarias son todas aquellas variables que se necesitan para definir y
caracterizar a la población. Estas se dividen en:

• Las que permiten definir mejor a la población: Se incluye el tipo de trabajo, la ocupación,
la tarea específica que realiza y la historia laboral.
• Las que ayudan a definir subgrupos de interés: Principalmente se tiene en cuenta la raza
o la etnia.
• Las que incluyan mediciones temporales: Empleadas sobre todo en estudios
longitudinales donde puede haber períodos de observación variables entre los sujetos.

3. Medición de las variables


Las variables también se pueden clasificar según su naturaleza a la hora de la medición. Las
variables se dividen principalmente en variables cualitativas o categóricas y en variables
cuantitativas.
La variable cualitativa o categórica es una propiedad no numérica, como por ejemplo el género,
la ocupación o el grupo sanguíneo. Estas variables pueden ser:
➢ Nominales: Categorías de eventos mutuamente excluyentes y colectivamente
exhaustivas. Ej: estado civil, género, hipertensión…
➢ Ordinales: Categorías de eventos mutuamente excluyentes y colectivamente
exhaustivas. Sin embargo, estas se distinguen en que se establece una relación de orden.
Ej: clase social, disnea…
La variable cuantitativa es una propiedad numérica, como por ejemplo la edad, el número de
hijos o la presión arterial. Se subdividen en:
➢ Discretas: Valores enteros dentro de un rango de valores. Ej: nº de hijos, nº de colonias
en cultivo…
➢ Continua: Valores enteros y fraccionarios. Ej: peso corporal, presión arterial…

15

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


Tema 5: Medidas de Frecuencia de Enfermedad
1. Frecuencia absoluta
La frecuencia absoluta es el número total de personas, de casos, de circunstancias, etc., que
cumplen la característica que se describe. Es un dato poco informador por sí solo pero necesario
para interpretar correctamente la información que aportan otras medidas más completas.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
2. Proporción
La proporción es el cociente de dos frecuencias absolutas donde el numerador forma parte del
denominador. No tiene unidades y su rango de valores está entre 0 y 1. No obstante, se suele poner
en modo de porcentaje (%). Aparece en los estudios en su términos en inglés: proportion or
percentage.

3. Razón
La razón es el cociente entre dos cantidades mutuamente excluyentes, es decir, un cociente donde
el numerador no está incluido en el denominador. Debido a esto, puede tomar valores entre 0 e
infinito. A veces también se le denomina como índice. Ejemplos de razones son la población por
médico general o el índice de población autóctona/emigrante.

4. Tasa
Es la razón, es decir, el cociente, entre dos frecuencias absolutas (magnitudes). El cociente incluye
en su cálculo el tiempo que tarda en aparecer un suceso. Las tasas pueden ser instantáneas,
promedio, absolutas o relativas.
Una tasa absoluta es la velocidad, ya que esta es una razón entre la distancia y el tiempo. En
relación con la epidemiología, una tasa absoluta es la que nos indica el número de casos por año
cuando se realiza un estudio de una enfermedad a una población determinada durante un período
determinado de tiempo.
Podemos definir tasa relativa como la variación del número de casos relativo al número de
personas seguidas durante un tiempo determinado. Es decir, es el cociente del número de casos
nuevos entre el número de personas seguidas por los años de seguimiento.

5. Prevalencia
La prevalencia es una medida de frecuencia que expresa la proporción de la población que padece
la enfermedad en un momento determinado. Es decir, es el número de casos que presentan la
enfermedad dividido por el número de individuos que componen la población en un determinado
momento.
𝑵º 𝒄𝒂𝒔𝒐𝒔 𝒄𝒐𝒏 𝒍𝒂 𝒆𝒏𝒇𝒆𝒓𝒎𝒆𝒅𝒂𝒅 𝒆𝒏 𝒖𝒏 𝒎𝒐𝒎𝒆𝒏𝒕𝒐 𝒅𝒂𝒅𝒐
𝑷=
𝑵º 𝒕𝒐𝒕𝒂𝒍 𝒅𝒆 𝒑𝒐𝒃𝒍𝒂𝒄𝒊ó𝒏 𝒆𝒏 𝒆𝒔𝒆 𝒎𝒐𝒎𝒆𝒏𝒕𝒐
Como todas las proporciones, la prevalencia carece de dimensiones, toma valores entre 0 y 1 y es
frecuentemente expresada en términos de porcentaje. Puede ser en tanto por ciento o en tanto por
mil, en función de la “rareza” de la enfermedad estudiada.
La prevalencia de periodo es la proporción de personas que han presentado la enfermedad en
algún momento a lo largo de un período de tiempo determinado.
𝑪𝒂𝒔𝒐𝒔 𝒊𝒏𝒊𝒄𝒊𝒐 + 𝑪𝒂𝒔𝒐𝒔 𝒏𝒖𝒆𝒗𝒐𝒔 𝒑𝒆𝒓í𝒅𝒐𝒅𝒐
𝑷 𝒑𝒆𝒓𝒊𝒐𝒅𝒐 =
𝑷𝒐𝒃𝒍𝒂𝒄𝒊ó𝒏

16

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


El principal problema que plantea el cálculo de este índice es que la población total a la que se
refiere puede haber cambiado durante el período de estudio. Por ello, habitualmente se toma como
denominador la población que corresponde al punto medio del período considerado.
La prevalencia se estima a partir de estudios transversales para determinar su importancia en un
momento concreto, y no con fines predictivos. Es especialmente apropiado para la medición de
procesos de carácter prolongado, es decir, para enfermedades crónicas. Es decir, no es tan apta
para valorar la importancia de otros fenómenos de carácter más momentáneo, como la Covid-19.
La prevalencia depende de la incidencia y de la duración de la enfermedad. Un cambio en la
prevalencia puede ser resultado de un cambio en la incidencia o duración de la enfermedad. De
hecho, para enfermedades de baja incidencia la prevalencia es el producto de la incidencia por la
duración.
La prevalencia tiene una serie de limitaciones:

• Los casos prevalentes son los que sobreviven a la enfermedad → Sesgo de sobrevivencia
• No es buena medida para la investigación etiológica, para explorar hipótesis de causalidad
y para la evaluación sanitaria.
Sin embargo, es muy útil ya que aporta una mayor disponibilidad y tiene un menor coste de
obtención. Es importante conocerla para determinar la distribución de recursos sanitarios y para
conocer la medida de impacto en enfermedades crónicas.

6. Incidencia
Las medidas de incidencia se basan en el cambio de estado de “libre de enfermedad” al estado de
“enfermedad”. Es decir, es un índice dinámico que requiere el seguimiento en el tiempo de la
población. Cuando la enfermedad es recurrente se suele referir a la primera aparición y son muy
útiles para identificar factores de riesgo. Se estiman en estudios de seguimiento.
Existen dos medidas:
➢ Incidencia acumulada: Es la proporción de individuos que desarrollan el evento durante
el período de seguimiento. Es una proporción (por tanto, carece de dimensiones y su valor
oscila entre 0 y 1, aunque se expresa en porcentaje), depende del tiempo de seguimiento
y se calcula sobre una cohorte fija, es decir, no se permite la entrada de nuevos individuos
al estudio durante el seguimiento.
𝑁º 𝑒𝑣𝑒𝑛𝑡𝑜𝑠 𝑛𝑢𝑒𝑣𝑜𝑠
𝐼𝐴 =
𝑁º 𝑖𝑛𝑑𝑖𝑣𝑖𝑑𝑢𝑜𝑠 𝑠𝑢𝑐𝑒𝑝𝑡𝑖𝑏𝑙𝑒𝑠 𝑎𝑙 𝑐𝑜𝑚𝑖𝑒𝑛𝑧𝑜
➢ Tasa o densidad de incidencia: Es el cociente entre el número de casos nuevos ocurridos
durante el período de seguimiento y la suma de todos los tiempos de la observación. Su
dimensión es de inversa del tiempo, su rango es ilimitado, no depende del tiempo del
seguimiento ya que asume un ritmo constante y no necesita de una cohorte fija.
𝑵º 𝒅𝒆 𝒄𝒂𝒔𝒐𝒔 𝒏𝒖𝒆𝒗𝒐𝒔 (𝒅)
𝑫𝒆𝒏𝒔𝒊𝒅𝒂𝒅 𝒅𝒆 𝑰𝒏𝒄𝒊𝒅𝒆𝒏𝒄𝒊𝒂 (𝑫𝑰) =
𝑷𝒆𝒓𝒔𝒐𝒏𝒂𝒔 − 𝒕𝒊𝒆𝒎𝒑𝒐 (𝑳)
La tasa de incidencia es un índice preciso, muy útil para la investigación etiológica, es decir, se
puede emplear para demostrar la asociación causal.

7. Mortalidad
Las estadísticas relativas a las defunciones en España son recogidas por el INE, así como los datos
sociodemográficos de los fallecidos. En cuanto a las causas de defunción, se distinguen:

17

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Causa inmediata → enfermedad, daño o complicación que precede de forma directa a
la muerte (infarto de miocardio).
Causa antecedente / intermediara → enfermedades / condiciones, si hay, que han
contribuido a la causa inmediata (hipertensión, obesidad…).
Causa inicial / básica → enfermedad / lesión que inicia la cadena de acontecimientos
patológicos (cardiopatía congénita).

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.

18

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


Tema 6: Estudios Descriptivos. Tipos de Estudios
Epidemiológicos. Causalidad
1. Clasificación de los estudios epidemiológicos
Los estudios epidemiológicos se pueden clasificar siguiendo distintos criterios:

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
• Según la manipulación de la variable:
o Experimental: Se manipula la variable en la observación.
o De observación: No se manipula la variable.
• Según el seguimiento al individuo:
o Transversal o de corte: No se produce seguimiento.
o Longitudinal: Sí hay seguimiento.
• Según el sentido del análisis longitudinal:
o Cohorte: Factor → Enfermedad
o Caso/Control: Enfermedad → Factor de riesgo
• Según el comienzo (momento de inicio):
o Prospectivo
o Retrospectivo

2. Estudios descriptivos transversales


En estos estudios se selecciona la muestra, es decir, la población de estudio, sin conocer
previamente qué individuos presentan o no el fenómeno objeto de estudio. La recogida de
información de los sujetos seleccionados se obtiene a través de distintas fuentes:
➢ Registro de población: Laborales, Colegios Profesionales, Escuelas, Universidades,
Centros comunitarios…
➢ Padrón de población
➢ Cualquier otra fuente de información de población independiente del fenómeno objeto
del estudio.
Estos estudios están compuestos por variables independientes, que son los factores de exposición
o riesgo, y por variables dependientes, como la enfermedad o la progresión. En ellos, ambas
variables se miden a la vez. Estas variables se estudian en una muestra con un tamaño que sea
representativa de la población total y que es elegida de forma aleatoria. A partir de ahí, se
establece una inferencia externa, es decir, se extrapolan las conclusiones obtenidas del estudio de
la muestra a la población total.
A la hora de diseñar estos estudios, es muy importante controlar los factores de interacción y/o
de confusión. Para ello, es necesario un estudio bibliográfico previo de la enfermedad o evento
que es objeto de estudio, emplear el conocimiento científico obtenido hasta ahora y desarrollar un
cuestionario donde se pregunta a cerca de cada factor de riesgo hasta ahora conocido o
sospechado.
Es decir, este cuestionario debe de contener las variables universales, las complementarias,
variables categóricas y/o cuantitativas, pero aconsejablemente no deben aparecer literalmente. Lo
mejor es que esté validado, es decir, que se pueda repetir, para poder comparar resultados con
otros estudios. No puede recoger mucha información ya que, a mayor cantidad de información,
mayor consumo de tiempo y recursos personales, por lo que, recoger información no relevante
(necesidad del análisis previo), puede poner en peligro la viabilidad.
Los estudios transversales tienen algunas limitaciones:

19

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


Solo estudian casos prevalentes, es decir, sobrevivientes en los que puede haber factores
de asociación distintos.
No establece secuencia temporal.
No responden a la pregunta sobre si fue primero la exposición o la enfermedad.
Muy dependientes de listas y ficheros.
A pesar de sus limitaciones, también cuenta con una serie de ventajas ya que estiman la

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
prevalencia de la enfermedad, la prevalencia de exposición, permiten estudiar múltiples
enfermedades a la vez y se realizan en un período corto de tiempo.

3. Series de casos clínicos


Las series de casos clínicos son estudios longitudinales y no transversales. Permiten relacionar
información de la enfermedad con la duración, los cambios en la gravedad, los tratamientos
previos y con enfermedades concomitantes (que ocurren en el mismo período de tiempo). Para
realizar correctamente una serie de casos clínicos se debe incluir los datos específicos del sujeto
(personales y de la enfermedad), la procedencia del caso y su momento de inclusión en el estudio.
Son estudios muy útiles para generar hipótesis, aunque tienen algunas limitaciones, como la
carencia de grupo de control y que no pueden evaluar hipótesis etiológicas.

4. Estudios ecológicos
Los estudios ecológicos son la unidad de análisis de la población en función de su área geográfica.
Son rápidos, económicos y fáciles de realizar. Además, permiten generar hipótesis, aunque es
importante recordar que una asociación a nivel ecológico no significa que la haya a nivel
individual. Esto recibe el nombre de falacia ecológica.

5. Causalidad en epidemiología
El concepto de causa en epidemiología pretende descubrir relaciones entre variables,
estableciendo la asociación causal entre una exposición y su efecto. Solo se considera que esta
asociación existe cuando la exposición precede al efecto.
La relación causal en epidemiología no es un factor determinante, no implica que dándose el
factor de riesgo siempre se produzca la enfermedad. Lo que significa es que los sujetos expuestos
tienen mayor probabilidad de desarrollar la enfermedad. En epidemiología, esta exposición recibe
el nombre de factor de riesgo.
Los factores de riesgo son los que más interés tienen en salud pública, ya que, con su posible
modificación o prevención, se puede interrumpir el desarrollo de la enfermedad. Para obtener los
datos, los epidemiólogos muchas veces se sirven de la Encuesta Nacional de Salud (ENS), siendo
la última la de 2017.
La asociación causal es aquella que cumple los criterios de causalidad. Distinguimos dos tipos:

• Directa: El factor antecede inmediatamente al efecto. Por ejemplo, un mayor consumo


de alimentos causa obesidad.
• Indirecta: La relación entre el factor y el efecto tiene otras causas intermedias. Por
ejemplo, el incremento de venta de automóviles no causa obesidad directamente, pero si
causa sedentarismo, que si es causa directa de la obesidad.
En general, cuanto más fuerte es la asociación, mayor es la probabilidad de que se confirme la
hipótesis causal.
Los criterios de causalidad constituyen un conjunto de principios que permiten establecer nexos
de relación causal. Los más utilizados son los del epidemiólogo británico Austin Bradford Hill,

20

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

el podcast para entender que la vida da mas vueltas que la silla de un peluquero
que se dividen entre los criterios de validez interna (propios el estudio) y los de coherencia
científica.
Los de validez interna son los siguientes:
✓ Fuerza de asociación: A mayor intensidad de la relación entre dos variables, mayor es
la probabilidad de que exista una relación.
✓ Secuencia temporal: Aunque en ocasiones es difícil establecerlo, la causa debe preceder
al efecto. Es el único criterio considerado por algunos autores como condición sine qua
non (es decir, es una condición que es indispensable para que suceda o se cumpla algo).
✓ Efecto dosis-respuesta: Cuanto mayor es el tiempo y/o dosis de exposición al factor
causal, mayor es el riesgo de enfermedad.
Los criterios de causalidad de coherencia científica son los siguientes:
✓ Consistencia: Los resultados de un estudio deben mantenerse constantes y ser
reproducibles por cualquier investigador en cualquier lugar.
✓ Plausibilidad biológica: La relación causal sugerida debe mantener la línea de los
principios científico aceptados en el momento. Por ejemplo, creemos más en una relación
causal si conocemos su mecanismo patogénico.
✓ Especificidad de asociación y analogía: Cierta especificidad (una causa conduce a un
único efecto) aumenta la verosimilitud de la relación causal. Analogía se refiere a que
asociaciones causales similares pueden producir enfermedades similares.
✓ Evidencia experimental: No siempre es posible realizar el estudio necesario, pero es la
prueba más sólida de causalidad. En el caso de que no se pueda acceder a un ensayo
clínico, hay quienes interpretan este punto en el sentido de que si un factor produce un
efecto, este debería cesar cuando desaparece el factor.

21

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Tema 7: Estudios de cohortes
1. Estudios de cohorte y seguimiento
Un estudio de cohorte es un estudio epidemiológico analítico observacional en el que se
selecciona a sujetos libres de la enfermedad o fenómeno de salud que se investiga y se mide la
exposición a sus potenciales determinantes. Es decir, se sigue a los individuos a lo largo del

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
tiempo y se compara la frecuencia con que aparece (incidencia) el fenómeno de salud en el
estudio entre los expuestos y los no expuestos a cada uno de los potenciales determinantes.
En demografía y epidemiología, una cohorte es un conjunto de individuos de una población que
comparten la experiencia de un mismo suceso, dentro de un determinado periodo temporal.
Normalmente, se identifica con el grupo de nacidos en un determinado período, pero puede
referirse a otro evento como trabajadores, médicos licenciados en un año concreto,
embarazadas…
Para medir las variables de exposición, empleamos un cuestionario, que es una entrevista sobre
factores de exposición. Se pregunta acerca de estilos de vida, dieta, trabajo, ocupación, tareas, etc.
Es importante que este cuestionario esté realizado por personal entrenado que aporte validez y
reproducibilidad al estudio.
Respecto a las variables de exposición, se suelen mirar los marcadores de exposición, como la
sangre, la saliva, la orina, el pelo, las uñas u otros ejemplos. Todos estos son biomarcadores
ómicas. Ómica es un neologismo derivado del alemán que en biología molecular se utiliza como
sufijo para referirse al estudio de la totalidad o del conjunto de algo. Son muy necesarias en la
medicina de precisión.
Al realizar un estudio de cohorte, es muy importante que exista un consentimiento informado a
los sujetos de estudios. También se ha de especificar toda la investigación, así como estar
autorizado por el Comité de Ética de la Investigación.
Un ejemplo de estudio de cohorte es la cohorte INMA, que es un proyecto de investigación con
el objetivo de estudiar el papel de los contaminantes ambientales y la dieta durante el embarazo e
inicio de la vida, así como sus efectos en la salud y el desarrollo infantil.
Una cohorte se sigue para identificar un número de eventos suficiente para medir, de forma estable
y precisa, la variable resultado y comparar su magnitud entre los expuestos y no expuestos al
factor de riesgo. Por ello, el seguimiento ha de ser superior al tiempo de inducción del evento
resultado para medir de forma completa un efecto y conocer su magnitud durante toda la vida.
Otro ejemplo de un seguimiento que cumple todos los requisitos es el realizado por Richard Doll
en su cohorte de médicos británicos para medir el efecto del tabaco. Gracias a ello, se pudieron
extraer la consecuencias mortales atribuibles al consumo de tabaco.
Cuando estamos realizando el seguimiento, se pueden producir pérdidas de datos, bien sea porque
el individuo ha fallecido, se ha mudado o ha decidido abandonar el estudio. Si no se identifican
todos los eventos resultado, se produce una infraestimación de la incidencia. Además, si la
pérdida afecta de manera diferente a expuestos y no expuestos, se produce un sesgo en la medida
del efecto. Por ello, se ha definido que lo deseable es conocer el estado vital de al menos el 90-
95% de los miembros de la cohorte, así como la causa de muerte del 90-95% de los fallecidos.
Este seguimiento se puede acortar, bien aumentando el tamaño de la cohorte o seleccionando
sujetos con alto riesgo a desarrollar el evento resultado.

22

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


2. Medidas de asociación
Las medidas de asociación o de efecto son el resultado de comparar dos medidas de frecuencia.
Las usamos para medir la magnitud de la asociación entre una exposición sospechosa de producir
una enfermedad y la propia enfermedad.
El riesgo atribuible (RA) o la diferencia de riesgo (DR) es la diferencia absoluta entre las

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
medidas de frecuencia de la enfermedad entre los expuestos y los no expuestos:
𝑫𝑹 (𝑹𝑨) = 𝑰𝒆 − 𝑰𝟎
La diferencia de riesgo es una medida directa del impacto de la exposición y nos indica en
términos absolutos la frecuencia de los casos atribuibles a la exposición. Es una medida de
elección en planificación y gestión sanitaria. A veces es denominada exceso de riesgo (ER).
El riesgo relativo (RR) es la razón entre las medidas de frecuencia de la enfermedad entre los
expuestos y los no expuestos:
𝑰𝑪𝒆
𝑹𝑹 =
𝑰𝑪𝟎
El riesgo relativo es la medida relativa de la asociación. Mide cuantas veces es más frecuente la
enfermedad entre los expuestos respecto a los no expuestos. Por ello, es la medida de elección de
investigación etiológica. En función de su valor:

• RR = 1 → No hay asociación
• RR > 1 → Hay asociación, el factor es de riesgo.
• RR < 1 → Hay asociación negativa, el factor es protector.
En la siguiente tabla, se interpretan los valores del riesgo relativo:

< 0,4 Protección fuerte


0,4-0,56 Protección moderada
0,57-0,83 Protección débil
0,84-1,19 Indiferente
1,2-1,74 Riesgo débil
1,75-2,5 Riesgo moderado
>2,50 Riesgo fuerte
Otra media que utilizamos en las cohortes es la significación estadística, χ2 de Mantel y Haenszel.
En la siguiente tabla, la ecuación de significación estadística es:
Efecto
Enfermos Sanos Total (𝒂𝒅 − 𝒃𝒄)𝟐
Factor de
Riesgo

Presente a b n1 (a+b) 𝝌𝟐𝑴𝑯 = (𝒏 − 𝟏)


𝒏𝟏 𝒏𝟎 𝒎𝟏 𝒎𝟎
Ausente c d n2 (c+d)
Total m1 (a+c) m0 (b+d) n
Si el valor está entre 0 y 3,83; no es significativo. Entre 3,84 y 6,62 es significativo y entre 6,63
y 10,81 es muy significativo. Por último, si es superior o igual a 10,82 es altamente significativo.
La diferencia de riesgo también puede ser expresada en términos relativos, que es el riesgo
atribuible proporcional (RA%). Mide la proporción de enfermedad atribuible a la exposición:
𝑰𝒆 − 𝑰𝟎
𝑹𝑨% = ∗ 𝟏𝟎𝟎
𝑰𝒆
El riesgo atribuible poblacional (RAP) es el producto del riesgo atribuible por la prevalencia de
exposición en la población. Mide la incidencia de la enfermedad atribuible a la exposición al

23

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


factor de riesgo en la población. Por tanto, es la proporción de casos en toda la población
(expuestos y no expuestos) que podrían haberse evitado si dicha exposición fuera eliminada.

3. Ventajas e inconvenientes de los estudios de cohortes


Los estudios de cohorte tienen una serie de inconvenientes:
➢ Tienen un coste elevado.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
➢ Exige un mayor consumo de tiempo.
➢ Tiene una reproductibilidad difícil.
➢ No sirve para enfermedades raras.
➢ No es adecuado en la formulación de hipótesis etiológicas.
➢ El avance paralelo hace irrelevantes resultados.
➢ Tiene una difícil uniformidad de criterios.
➢ El control de factores de riesgo es incompleto.
Sin embargo, tienen una serie de ventajas:
✓ Miden la incidencia de la enfermedad.
✓ Establecen con seguridad la secuencia temporal.
✓ Miden la relación entre la exposición y varias enfermedades.
✓ Se mide la exposición antes de que aparezca la enfermedad.
✓ Evita el sesgo de supervivencia.
✓ Los análisis prospectivos tienen más calidad para la medida de variables.

24

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


Tema 8: Estudios de casos-controles
La relación entre la exposición a un factor de riesgo y su efecto (la enfermedad) puede estudiarse
tanto prospectivamente como retrospectivamente. Los estudios de cohortes son prospectivos,
mientras que los de caso-control son retrospectivo, tal y como se muestra en el siguiente esquema:

1. Estudios de casos-controles
Los estudios de casos-controles son diseños analíticos que estudian la relación exposición-efecto
de forma retrospectiva, es decir, partiendo del efecto o enfermedad se estudia los antecedentes de
exposición a un factor de riesgo. Para ello, compara dos grupos, los casos, que son los enfermos,
y los controles, que son los sanos, en cuanto a su exposición a riesgos anteriores y/o ya existentes
a la aparición del efecto.
Este diseño intenta estudiar la frecuencia de una pasada exposición al factor de riesgo en los
casos y en los controles. También busca estudiar la relación dosis-efecto entre la exposición y la
enfermedad. Por último, otro objetivo del estudio es la valoración y control del sesgo de
confusión por otras variables, así como posibles relaciones de interacción entre la variable de
exposición y otra variables.

2. Ventajas y desventajas de los estudios de casos-controles


Este tipo de estudios cuentan con una serie de ventajas:
✓ Son de corta duración y se obtiene mucha información.
✓ Usa el Odds Ratio (OR) como estimador de riesgo relativo.
✓ Son útiles para estudiar enfermedades poco frecuentes. Por ejemplo, un estudio de
cohorte requeriría muchos sujetos para tener suficientes casos.
✓ Son útiles para enfermedades de largo periodo de latencia. En el caso de las cohortes
se requeriría mucho tiempo de estudio (lo que aumenta los costes).
✓ Son útiles para exposiciones poco frecuentes muy asociadas a la enfermedad.
✓ Son útiles para estudiar múltiples factores de riesgo de la enfermedad.
Sin embargo, tienen una serie de desventajas:
❖ No permite calcular la incidencia, ni la prevalencia, ni el riesgo relativo (RR).
❖ Es difícil establecer secuencia temporal entre la exposición y la enfermedad porque
ambas se miden simultáneamente.
❖ Al ser retrospectivos, puede haber sesgos de selección e información (sesgo de memoria)
sobre la exposición.
❖ No permite estudiar más de una enfermedad a la vez.

25

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
3. Selección de casos y controles
Para realizar un caso control necesitamos información de cada sujeto sobre su status de
enfermedad (si está sano o enfermo), su status de exposición (si está expuesto o no expuesto al
factor de riesgo), así como la duración y el nivel de exposición si ha estado expuesto. También
hay que conocer la presencia de potenciales variables de confusión e interacción.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Cuando identificamos a los casos, es importante primero definir criterios diagnósticos de caso y
método de diagnóstico (qué vamos a considerar un caso). Después, hemos de definir el momento
del diagnóstico de la enfermedad en los casos. Por último, hemos de determinar la fuente de
información sobre los casos.
Además de definir los casos, es esencial confirmar este status con medios de diagnósticos
adecuados. Si la sensibilidad del método de diagnóstico usado es baja, habrá muchos falsos
negativos y un error de clasificación que afectará a la validez del estudio. Si la especificidad es
baja, habrá muchos falsos positivos y también un error de clasificación.
A la hora de seleccionarlos, podemos utilizar casos prevalentes (ya existentes) o incidentes (van
apareciendo y se unen al estudio). Los seleccionamos habitualmente de consultas, hospitales o de
población general, teniendo en cuenta que el origen de los casos influye en la validez externa del
estudio. También es importante asegurar que la exposición precede al inicio de síntomas del caso.
La selección de controles no es fácil ya que han de ser representativos de la población de la que
preceden los casos. Por ello, suelen ser personas atendidas en el mismo hospital por una causa sin
relación con el caso, o familiares/vecinos de los casos. Es importante intentar que los controles
den una estimación de exposición esperable en los casos si no hubiera asociación entre
enfermedad y exposición.
Cuando tenemos bastantes casos, se puede seleccionar un control por caso. Sin embargo, si hay
pocos casos o el riesgo a medir se supone pequeño, se puede aumentar la potencia estadística
seleccionando a más de un control por caso. A partir de cuatro controles por caso, la ganancia
en potencia estadística es pequeña comparada con el coste económico de seleccionar más
controles.
Respecto al número de grupos control siempre hay discusión porque es más difícil de hacer y
si los resultados difieren, más difícil es de interpretarlos. Sin embargo, para estudiar sesgos en
selección de controles, pueden usarse dos grupos control diferentes y comprobar si las
estimaciones son iguales.

4. Tipos de estudios de casos-controles


Los estudios de casos-controles se pueden clasificar en los siguientes tipos:

• Análisis simple: Cuando se trabaja con solo dos estratos de población.


• Análisis estratificado: Cuando se trabaja con más de dos estratos de población.
• Análisis de casos-controles apareados.
• Análisis de regresión logística.

5. Herramientas estadísticas de los estudios de casos-controles


Para analizarlos, utilizamos las siguientes herramientas estadísticas, qué siguiendo la siguiente
tabla, tienen unas determinadas fórmulas.

26

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
El Odds Ratio mide la fuerza de la asociación entre la enfermedad y la exposición. Es la razón
de cocientes expuesto-no expuestos en casos y en controles. Cuando es igual a 1, la exposición es
igual en casos y controles. Si es significativamente superior a 1, sugiere que la exposición es
factor de riesgo, mientras que, si es significativamente inferior a 1, indica posible protección.
Toma valores de 0 (máxima protección) a infinito (máximo riesgo). Es equivalente a tasas de
incidencia en expuestos y no expuestos en cohortes y es buen estimador del riesgo relativo si la
duración de la enfermedad no está asociada a la exposición.
𝒂/𝒄 𝒂 ∗ 𝒅
𝑶𝑹 = =
𝒃/𝒅 𝒃 ∗ 𝒄
La Chi2 (χ2) es una medida de significación estadística de fuerza de asociación. Si es alta, significa
que el valor de OR obtenido es suficientemente alto como para descartar que la asociación entre
enfermedad y exposición se deba al azar.

((𝒂 ∗ 𝒅) − (𝒃 ∗ 𝒄))𝟐
𝝌𝟐 = ∗ (𝑵 − 𝟏)
𝒏𝟏 ∗ 𝒏𝟎 ∗ 𝒎𝟏 ∗ 𝒎𝟎
Como el odds ratio es una estimación puntual de efecto de una muestra, es necesario ver qué
variabilidad existe de esa estimación del efecto. El intervalo de confianza (IC95%) mide la
probabilidad de que el intervalo contenga la OR observada en 95 de cada 100 sucesivas
repeticiones.
𝟏,𝟗𝟔
𝟏−
𝑳í𝒎𝒊𝒕𝒆 𝑰𝒏𝒇𝒆𝒓𝒊𝒐𝒓 𝑰𝑪𝟗𝟓% = 𝑶𝑹 √𝝌𝟐

𝟏,𝟗𝟔
𝟏+
𝑳í𝒎𝒊𝒕𝒆 𝑺𝒖𝒑𝒆𝒓𝒊𝒐𝒓 𝑰𝑪𝟗𝟓% = 𝑶𝑹 √𝝌𝟐

También mide la precisión de estimación, ya que cuanto más amplio es el intervalo, menor
precisión de estimación. Depende del tamaño muestral, ya que cuanto mayor sea este mayor será
la precisión y, por tanto, menor será el intervalo.
La fracción etiológica o porcentaje de riesgo atribuible es el número de casos atribuibles a la
exposición (el número de casos evitados si no hubiera habido exposición). Es muy usada en salud
pública pues expresa en qué medida una exposición es un problema de salud pública.
𝑶𝑹 − 𝟏
𝑭𝑬 𝒆𝒙𝒑 =
𝑶𝑹
𝑶𝑹 − 𝟏
𝑭𝑬 𝒑𝒐𝒃 = ∗ 𝑷𝟏
𝑶𝑹
Los estudios de casos-controles apareados se realizan por parejas (a cada control le corresponde
un caso) o por grupos (a un caso le corresponden su grupo de controles). El OR se calcula como
la razón entre los grupos discordantes (donde el caso está expuesto y el control no) y los grupos
contrarios (donde el caso no está expuesto y el control sí).

27

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

el podcast para entender que la vida da mas vueltas que la silla de un peluquero
Los estudios de casos-controles estratificados se utilizan para valorar y controlar el efecto de
factores de confusión. En teoría, la variable de confusión es constante en cada estrato y similar
para los casos y los controles. Nos permite comparar casos y controles en cada nivel de exposición
(estrato) manteniendo constante el factor de confusión, y así valorar la modificación del efecto de
exposición producida por la presencia o ausencia de otra variable. Nos permite calcular un valor
resumido OR (ORs) no condicionado por el factor de confusión, es decir, realiza un proceso

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
parecido a la estandarización.
El modelo de regresión logística es un método de análisis multivariado donde se realiza un
análisis condicional (apareado) y uno no condicional (no apareado). Se calcula el coeficiente de
regresión, que es un estimador del riesgo relativo de máxima verosimilitud para una sola variable
o una variable ajustada por efecto de otras. Nos permite calcular coeficientes de interacción y test
de dosis-respuesta.

28

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

el podcast para entender que la vida da mas vueltas que la silla de un peluquero
Tema 9: Errores y Sesgos
Los estudios epidemiológicos tienen como objetivo la cuantificación de determinadas medidas
de enfermedad. La calidad con que un estudio epidemiológico consigue realizar estas mediciones
se considera en términos de validez o exactitud y de precisión o fiabilidad. El error aleatorio
afecta a la precisión, mientras que el error sistemático (sesgos) afectan a la validez.
La fiabilidad o precisión es la carencia de error aleatorio. Es decir, es la reducción del error
debido al azar. Para conseguirla, se aumenta el tamaño muestral o se realiza un diseño más
eficiente. Para medirla, empleamos el intervalo de confianza.
La validez o exactitud es la carencia de error sistemático. Para que un resultado tenga validez,
los resultados deben describir correctamente lo que sucedió en el estudio. En el estudio, tenemos
validez interna, que se refiere a la inferencia realizada sobre la población elegible, y la validez
externa, que garantiza que las conclusiones del estudio efectuado en la muestra son
generalizables como verdad universal, fuera de la población muestreada. Esta última se interesa
por la extrapolación de los resultados desde la población de estudio a otras poblaciones.

1. Sesgo epidemiológico
El sesgo epidemiológico es toda desviación de la verdad que se produce en los resultados o en la
inferencia de estos. Es decir, es cualquier tendencia en la recolección, análisis, interpretación,
publicación o revisión de los datos que pueden conducir a conclusiones que son sistemáticamente
diferentes de la verdad. Es diferente al error aleatorio, ya que este sucede por igual en todos los
grupos y no afecta a la validez interna (sí afecta a la precisión de la medida).
El sesgo epidemiológico se divide en:

• Sesgo de confusión: Se produce por la relación que las variables mantienen en la


población base de referencia.
• Sesgo de selección: Se produce cuando la población en estudio (la muestra) no representa
a la población diana.
• Sesgo de información: Se produce cuando el error se comete en la medición y recogida
de datos.
• Sesgo de mala especificación: Se produce cuando el análisis de los resultados es
inapropiado.
¡¡¡ATENCIÓN!!! No hemos de olvidar a la variable de confusión, variable que actúa como
factor de riesgo para la enfermedad y que muestra una asociación con el factor de riesgo que se
está valorando (es más probable que se encuentren juntas que separadas). No es una variable
intermedia en la cadena causal del factor de riesgo sometido a estudio.

2. Sesgo de confusión
En los estudios epidemiológicos, los criterios a cumplir requieren el conocimiento, no siempre
fácil, de que una variable es factor de riesgo y no es variable intermedia. Por ello, en un estudio
se suele trabajar con varios criterios para evitar que suceda esto, conocido como sesgo de
confusión. Siempre se deben controlar todas a la vez, a través de:
➢ Medición correcta de las variables.
➢ Control en el diseño.
➢ Control en el análisis.

29

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
3. Sesgo de selección
El sesgo de selección se origina en el proceso de identificación de la población a estudiar. Surge
cuando la variable de resultado que se evalúa influye diferencialmente en la selección de los
grupos que se comparan. Afectan a la validez externa del estudio. Dentro de los sesgos de
selección encontramos:
❖ Sesgo de inclusión: Es el error producido en la definición de la población elegible.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Dependiendo del suceso:
o El enfoque comunitario implica que no se presenten demasiados problemas.
o El enfoque hospitalario trae dificultades, porque no se mide bien la
representatividad de los pacientes. Hay que tener en cuenta que no todo
afectado se siente enfermo y no todo enfermo busca asistencia o no la busca en
el mismo estadio de la enfermedad. Además, no todo enfermo acude a su hospital
de referencia o no todo que busca asistencia la encuentra. También puede pasar,
aunque raramente, que no todo atendido en un centro se localiza en los archivos.
❖ Sesgo de autoselección: Es el error producido en la selección de la población que se
produce más frecuentemente en los estudios comunitarios. Muchas veces los individuos
sanos y que se cuidan se ofrecen para realizar todos estos estudios. A esto también se le
conoce como el “sesgo del voluntario sano”.
❖ Sesgo de detección: Se produce por el uso de una herramienta diagnóstica deficiente.
Además, durante la recogida de información se producen pérdidas de sujetos en el seguimiento
(menos en estudios hospitalarios que en comunitarios) o pérdidas selectivas de información en
ciertos sujetos (más probable en estudios retrospectivos que usan poblaciones hospitalarias).
Para controlar los sesgos de selección, se puede actuar en tres momentos del estudio:
1) En la planificación del estudio. Es lo más correcto, donde hay que definir los criterios
de selección de todos los grupos.
2) En la recogida de información. Se ha de disminuir al mínimo la falta de participación y
las pérdidas de seguimiento. Por ello, hay que mantener un registro de pérdidas de toda
información, así como reunir toda la información posible sobre la exposición.
3) En el análisis. Suele ser tarde para controlar, pero se puede detectar si se existe algún
sesgo de selección.

4. Sesgos de información
El sesgos de información son todos los errores sistemáticos que se producen en el proceso de
recogida de datos durante la medición de las variables del estudio. Son los siguientes:
Falacia ecológica: Es la mayor limitación de los estudios ecológicos. Se produce por la
propia agregación que obliga a asumir que la exposición de la comunidad es la que tiene
cada sujeto de dicha comunidad.
Mala clasificación: Es más frecuente en la valoración de la exposición que en la
enfermedad. Hay que conocer si es diferencial o no diferencial (aleatorio) entre los grupos
de comparación. Se subdivide en tres tipos:
o Error en el procedimiento: En la calibración del instrumento (es aleatorio, pero
produce una infraestimación del riesgo), en la memoria del sujeto, en el uso de la
historia clínica…
o Error por emplear variables sucedáneas.
o Error en la definición de variables que son ambiguas o complicadas, como la
clase social.

30

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

el podcast para entender que la vida da mas vueltas que la silla de un peluquero
Regresión a la media: Se produce por la tendencia de que el valor extremo de la primera
medición de una variable continua se aproxime a la media de la población en mediciones
posteriores.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.

31

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


Tema 10: Estudios Experimentales
1. Concepto y tipos de estudios de intervención.
Un estudio experimental o de intervención es un tipo de estudio en el que el investigador
introduce el elemento que quiere valorar. Son estudios prospectivos, es decir, se estudia la
exposición o variable introducida desde el inicio.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Distinguimos tres tipos de estudios de intervención según el ámbito en que se realizan:

• Ensayo clínico: Son estudios para evaluar la eficacia de las intervenciones o


procedimientos terapéuticos (medicamentos, técnicas…). El ensayo clínico terapéutico
sigue un conjunto de fases:
o Fase I: Se observa el comportamiento del fármaco en voluntarios sanos.
o Fase II: Se observa la eficacia del fármaco en pacientes, sin emplear un grupo
de control.
o Fase III: Se mide la eficacia del fármaco en un grupo de pacientes en
comparación con otro tratamiento (o un placebo) en un grupo de control.
o Fase IV: Se observan los pacientes que toman el fármaco tras ser comercializado
para evaluar su seguridad y su efectividad.
• Ensayo de campo o preventivo: Son estudios para evaluar la eficacia de las
intervenciones preventivas aplicadas individualmente.
• Estudio de intervención comunitaria: Son estudios para evaluar la eficacia de las
intervenciones preventivas aplicadas a grupos o poblaciones.
También podemos clasificar a los estudios de intervención según la asignación de esta:
❖ Asignación aleatoria: Es propia de los estudios experimentales, que pueden ser:
o Paralelos: Dos o más grupos son seguidos a lo largo del tiempo, actuando uno
como control constantemente.
o Cruzados: Se emplean dos ramas, donde los grupos experimentales y de control
se intercambian tras una fase de descanso.
❖ Asignación no aleatoria: Es propia de los estudios cuasiexperimentales, que se pueden
realizar:
o Sin grupo de control
o Con grupo de control: Estos pueden aplicar la técnica de paralelo, de previo y
posterior al tratamiento o de control histórico.

2. Pasos en la realización de un ensayo clínico aleatorizado.


a. Selección de los participantes
El objetivo de la selección es, como su propio nombre indica, seleccionar los pacientes más
adecuados para responder a la pregunta de la investigación. Para incluir a los pacientes, estos
deben de cumplir una serie de características clínicas o personales, así como controlar el
equilibrio entre la generabilidad y la validez interna del estudio. Aunque cumplan estos criterios,
un paciente se puede excluir cuando haya contraindicaciones con el tratamiento o con el
cumplimiento.

b. Aleatorización
También denominado randomization, es el proceso de asignación al azar del tratamiento a recibir
por los pacientes, configurando un grupo de pacientes que reciben el nuevo tratamiento o nueva
intervención (grupo tratamiento) y otro grupo de pacientes que reciben un tratamiento conocido
o un placebo (grupo control).

32

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

el podcast para entender que la vida da mas vueltas que la silla de un peluquero
La aleatorización se lleva a cabo para conseguir una distribución homogénea de los predictores,
conocidos o no, de la variable resultado, y así, prevenir sesgos y confusión. Si tras la intervención
(tratamiento) los grupos difieren en el resultado (curación), la única variable explicativa será el
tipo de tratamiento, ya que el resto de las variables se distribuye por igual en ambos grupos al
emplear esta técnica.
Distinguimos tres tipos de aleatorización:
➢ Aleatorización simple
➢ Aleatorización por bloques
➢ Aleatorización estratificada
Para que la aleatorización sea correcta, las listas de asignación han de ser realmente aleatorias y
esta se debe aplicar según el protocolo, sin interferencias.

c. Aplicación de la intervención
Esta etapa contiene tres procesos: el enmascaramiento, el placebo y el cumplimiento.
El enmascaramiento es el proceso por el que se oculta el tipo de tratamiento que el participante
recibe el ensayo. Este puede ser:
Abierto: El paciente, el investigador y el analista de datos conocen el tratamiento que
reciben los pacientes.
Simple ciego: El paciente desconoce el tratamiento que recibe, mientras que este sí es
conocido por el investigador y por el analista de datos.
Doble ciego: Ni el paciente ni el investigador conocen el tratamiento. Este solo es sabido
por el analista de los datos.
Triple ciego: Ninguno de los tres (paciente, investigador y analista de datos) conocen el
tratamiento.
El enmascaramiento es muy útil porque dificulta cointervenciones del paciente y del
investigador. Además, previene factores de confusión tras la aleatorización y sesgos de
información en la variable de resultado. Sin embargo, el enmascaramiento no siempre es posible.
El placebo es un fármaco no activo de aspecto y características organolépticas similares al
fármaco a evaluar. Es una de las opciones de lo que puede recibir el grupo de control, que también
puede recibir un tratamiento habitual aceptado (con esta opción podemos medir la eficacia
relativa del fármaco). Usando el placebo, podemos medir la eficacia absoluta del fármaco.
El cumplimiento terapéutico surge de asegurar que los sujetos del estudio consumen el
tratamiento ya que, si este no es satisfactorio, la eficacia del fármaco no se puede demostrar. Para
ello:
✓ El tratamiento ha de ser de administración sencilla.
✓ Se han de seleccionar participantes motivados.
✓ Hay que incluir periodos de prueba previos a la aleatorización.
✓ Se ha de informar de la importancia del cumplimiento.
✓ Hay que monitorizarlo analíticamente.

d. Seguimiento
El objetivo principal del seguimiento es evitar pérdidas de pacientes. Las pérdidas son muy
frecuentes en ensayos de larga duración, de tratamientos crónicos o sobre eventos poco frecuentes.
Para evitarlas, se puede recoger información para localizar al paciente, procurar contactos
frecuentes o usar poblaciones con poca movilidad.

33

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
e. Medida de variables de resultado
Las variables de resultado son las características de los participantes adecuadas para describir
la eficacia del fármaco o intervención a evaluar. Estas variables pueden ser:
▪ Variables resultado principal
▪ Variables resultado secundaria

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
f. Análisis de datos
En los estudios experimentales, el análisis de los datos es similar al de los estudios de cohortes.
En el análisis de los datos, hemos de tener en cuenta potenciales problemas como las pérdidas o
los cambios de grupo de sujetos.
El análisis “por intención de tratar” analiza los datos con los participantes en el grupo en que
fueron asignados en la aleatorización, aunque no cumplieran el tratamiento o cambiaran de grupo.
En ellos, se infraestima la eficacia del tratamiento, pero acerca la evaluación a las condiciones
habituales y preserva los beneficios de la aleatorización.
El análisis “por protocolo” analiza los datos con los participantes cumplidores y en el grupo en
que han acabado el ensayo. Es muy útil para conocer la eficacia en pacientes que no han
presentado efectos adversos, pero puede conducir a resultados erróneos por factores de confusión
que desconocemos.
Para estimar la eficacia en los ensayos clínicas, empleamos:

• Incidencia en el grupo de estudio (Ie)


• Incidencia en el grupo de control (Ic)
• Riesgo relativo: Ie/Ic
• Reducción abosluta del riesgo (RAR): Ic – Ie
• Reducción relativa de riesgo (RRR): (Ic-Ie)/Ic
• Número de personas a tratar para curar (evitar) un caso (NNT): 1/(Ic-Ie)

3. Limitaciones y ventajas
Los estudios de intervención tienen una serie de limitaciones:
➢ Relativamente costoso en tiempo y dinero.
➢ Poco útil para algunas preguntas de investigación por motivos éticos o de viabilidad.
➢ Miden la eficacia en condiciones más o menos ideales, cuando en muchas ocasiones la
generalización es limitada.
➢ Pueden ocurrir sesgos en su ejecución, aunque es difícil que esto ocurra ya que contamos
medidas para evitarlos en todos los pasos.
La principal ventaja de este tipo de estudios es que es la prueba más sólida en la que basar
inferencias causales entre dos variables, gracias a la aleatorización. Obviamente, esto se da
siempre y cuando sean de calidad y estén bien publicados (cumplan la declaración CONSORT).

4. Principios éticos
Los cuatro principios éticos que deben cumplir los estudios experimentales son:
✓ Autonomía: Reconocimiento y respeto de la capacidad de cada persona a ser informado
y a decidir si desea participar.
✓ Beneficencia: Velar por el bienestar del paciente y que siempre sea superior el beneficio
al riesgo.
✓ Justicia: Distribuir equitativamente los riesgos y los beneficios, sin discriminaciones.
✓ No maleficencia: La investigación no debe causar daño.

34

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

el podcast para entender que la vida da mas vueltas que la silla de un peluquero
Es muy importante que haya un consentimiento informado (documento en el que paciente
accede a participar en el estudio tras recibir suficiente información), una autorización por un
CEIC (Comité Ético de Investigación Clínica) y velar por la privacidad, intimidad,
confidencialidad y anonimato.
La declaración CONSORT es una guía que pueden utilizar autores, editores, revisores y lectores
para la redacción de artículos sobre estudios experimentales, así como para su valoración.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.

35

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


Tema 11: Estudios de screening
El cribado o screening es la identificación de una enfermedad o factor de riesgo que no ha dado
manifestaciones. Es decir, selecciona a individuos aparentemente sanos que presentan la
enfermedad o el factor de riesgo de los que no la presentan. De hecho, según la Ley General de
Salud Pública, esto son actividades orientadas a la detección precoz de la enfermedad, su

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
diagnóstico y tratamiento temprano, que se ofrecen activamente al conjunto de la población
susceptible de padecer la enfermedad.
Los programas de detección precoz han de cumplir una serie de criterios:
➢ El programa debe responder a una necesidad reconocida.
➢ Deben definirse inicialmente los objetivos del programa.
➢ Debe definirse la población diana.
➢ Debe disponerse de evidencia de la efectividad del programa.
➢ El programa debe integrar aspectos formativos, diagnósticos, de tratamiento y de
gestión de recursos.
➢ Debe disponerse de un programa de garantía de calidad con mecanismos que
minimicen los riesgos potenciales del cribado.
➢ El programa debe garantizar las decisiones informadas, la confidencialidad y el respeto
a la autonomía.
➢ El programa debe promover la equidad y el acceso al cribado de toda la población diana.
➢ La evaluación del programa debe planificarse desde el inicio.
➢ Los riesgos deben estar equilibrados con los beneficios.
Para realizar estos programas, es importante que la enfermedad tratada sea frecuente y/o grave,
con una historia natural conocida y que su tratamiento sea mejor en caso de diagnóstico precoz.
Además, la población de riesgo ha de ser elevada para esta enfermedad, población que debe ser
colaboradora.
Los estudios de screening tienen como beneficios:
✓ Mejora del pronóstico en los casos detectados.
✓ Aplicación de tratamientos menos radicales que los casos graves.
✓ Ahorro de recursos.
✓ Mayor tranquilidad en los casos con resultados negativos.
Sin embargo, estos tienen una serie de riesgos:
❖ En los casos que no mejora el pronóstico, se produce un mayor tiempo de morbilidad.
❖ Se puede producir un sobretratamiento de anomalías de pronóstico incierto.
❖ Se pueden producir efectos adversos por el proceso de cribado.
❖ Costes añadidos.
❖ Falsa tranquilidad por los falsos negativos.
Estos programas han de tener siempre en cuenta las cuestiones éticas esenciales:

• Beneficencia: El cribado puede tener un beneficio poblacional, pero muchos individuos


no se beneficiarán directamente.
• No maleficencia: Se pueden producir daños psicológicos en falsos positivos, posibles
muertes evitables en falsos negativos, iatrogenia del proceso de diagnóstico o falta de
tranquilidad en falsos negativos.

36

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


• Justicia: Se puede producir un aumento de las desigualdades si no hay previstas medidas
para garantizar la equidad en el acceso. Además, se puede dar un detrimento de la
implantación de otras medidas preventivas o de control más eficientes en cuanto a coste.
• Autonomía: Las personas que participan pueden no comprender todas las implicaciones
de su participación en los programas dada la dificultad de la comunicación de los riesgos.
Para evaluar los screening, es necesaria una evaluación de las pruebas diagnósticas y de los
programas (a nivel de estructura, proceso y resultado). Hemos de tener en cuenta una serie de
factores que condicionan la efectividad, que son la validez de la prueba, la prevalencia del
problema, y la efectividad del tratamiento.
Estos estudios se diferencian de las pruebas diagnósticas rutinarias en que se aplican en personas
aparentemente sanas, son poblacionales, son base para la clasificación, tienen una menor
precisión y un menor coste.
Hemos de tener en cuenta qué tipo de prueba utilizaremos en función de qué enfermedad tratemos
en este estudio:
Utilizamos pruebas sensibles cuando el riesgo de perder un caso es alto (ej. SIDA) o en
las primeras etapas diagnósticas, cuando las opciones son múltiples para reducir
alternativas.
Utilizamos pruebas específicas cuando queremos descartar un diagnóstico (ej.
enfermedades degenerativas). Además, también se emplean cuando los falsos positivos
pueden causar un prejuicio importante al paciente.
El resultado obtenido varía en función de qué técnica usemos. Si usamos una técnica de en
paralelo, un resultado positivo en cualquiera de las pruebas se considera positivo, mientras que,
en serie, solo se considera cuando todas las pruebas resultan positivas.
Para evaluar a los programas de cribado, además de medir la incidencia, la mortalidad, el
AVAC(QUALY) o la discapacidad, podemos emplear los siguientes diseños:
➢ Estudios de casos y controles: No se pueden comparar las tasas.
➢ Estudios de cohortes: Se pueden comparar las tasas.
➢ Estudios transversales
➢ ECA
➢ Estudios ecológicos
Se puede producir los siguientes sesgos:
❖ Adelantamiento del diagnóstico.
❖ Duración de la enfermedad.
❖ Voluntario sano.
❖ Sobrediagnóstico.
Los cribados poblaciones se realizan a nivel:
1) Prenatal: Diagnóstico de enfermedades infecciosa, trisomía 21, 18 y 13, defectos del
tubo neural…
2) Neonatal: Enfermedades endocrino-metabólicas, anemia falciforme, hipoacusia…
3) Cáncer: de mama, de cérvix, colon-rectal…

37

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Tema 12: Vigilancia Epidemiológica
1. Red Nacional de Vigilancia Epidemiológica
En 1995, por Real Decreto, se crea la Red Nacional de Vigilancia Epidemiológica, con el finde
aplicar medidas de control individual y colectivo de los problemas que supongan un riesgo para
la salud de interés nacional o internacional. La Red Nacional de Vigilancia Epidemiológica se

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
encuentra al servicio del Sistema Nacional de Salud.
Las funciones que realiza este organismo son las siguientes:
➢ Identifica los problemas de salud de interés supracomunitario en términos de epidemia,
endemia y riesgo.
➢ Participa en el control individual y colectivo de los problemas de salud de interés nacional
o internacional garantizando, de forma precisa, el enlace entre vigilancia y toma de
decisiones para la prevención y el control.
➢ Realiza el análisis epidemiológico, dirigido a identificar los cambios en las tendencias de
los problemas de salud.
➢ Aporta información operativa para la planificación.
➢ Difunde la información a los niveles operativos competentes.
La Red Nacional de Vigilancia Epidemiológica está constituida por tres sistemas:
1) El sistema básico de la vigilancia, integrado por la notificación obligatoria de
enfermedades, de situaciones epidémicas y brotes, y de información microbiológica.
2) Sistemas específicos de vigilancia epidemiológica basados en sistemas de registros de
casos, encuestas y otros que se podrán aplicar a la vigilancia epidemiológica del SIDA y
de enfermedades inmunoprevenibles.
3) Otros sistemas de vigilancia del Ministerio de Sanidad y de las CCAA.
Algunas enfermedades incluidas en el sistema básico de vigilancia son el cólera, la difteria, la
fiebre amarilla, las hepatitis o la meningitis.

2. Epidemiología general de las enfermedades transmisibles


Las enfermedades transmisibles se pueden presentar de forma:

• Esporádica: Cuando en su incidencia no influye ni el espacio ni el tiempo.


• Endémica: Cuando su incidencia es constante para el espacio o el tiempo que se esté
considerando.
• Epidémica: Cuando su incidencia aumenta por encima de la que sería de esperar para el
espacio o el tiempo que se esté considerando.
• Pandémica: Cuando afecta en su distribución a varios países, y algunas veces a varios
continentes.

3. Sistema EDO de enfermedades


En este sistema, todos los médicos en ejercicio, público y privado, tienen que declarar. Emplea
la semana como unidad básica temporal para la declaración, periodo que acaba a las 24 horas del
sábado. La obligación de declarar corresponde al médico que realiza el diagnóstico de sospecha.
Distinguimos dos tipos de declaraciones:
❖ Declaración numérica: Se subdivide en:

38

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


o Exclusivamente numérica y semanal: Se aporta solo el número para
enfermedades como la gripe, la infección gonocócica (gonorrea), la varicela y el
sífilis.
o Urgente y de datos epidemiológicos básicos (DEB): Se recoge el nombre, la
edad, el sexo y si ha sido vacunado previamente. Se emplea para la cólera, la
fiebre amarilla, la peste, la difteria, la poliomielitis, la rabia y el tifus. Se ha de

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
realizar cuando hay una sospecha, que se confirmará a posteriori en el
laboratorio. Es el medio más rápido.
o Semanal y de datos epidemiológicos básicos (DEB): Se emplea para el
botulismo, al legionelosis, el paludismo y la triquinosis.
o Semanal y de informe anual (declaración individualizada): Se identifica al
enfermo y se da información de la enfermedad. También se identifica al
declarante y se requiere la ficha de declaración nominal. Se recogen factores
epidemiológicos importantes. Se utiliza para, por ejemplo, la tosferina, la
hepatitis A y B, la meningitis tuberculosa y la tuberculosis respiratoria.
❖ Declaración por sistemas especiales: Se emplea para la lepra, la rubéola congénita, la
sífilis congénita y el tétanos neonatal.

39

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


Tema 13: Investigación y control de epidemias
Se considera endemia a la presencia habitual o constante de infección o enfermedad en una
población o zona geográfica determinada. Esto implica una tasa constante de infección en la
población. Se distinguen distintos grados de endemicidad (alta, baja o solo unos pocos casos).

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Un brote es el aumento del número de infecciones o caso de una enfermedad limitados y
localizados en una población, área geográfica o institución cerrada. Sin embargo, una epidemia
se puede referir a:
➢ Una infección o enfermedad con frecuencia que excede a la esperada para un lugar y un
momento determinado.
➢ Una infección o enfermedad nueva en una comunidad que nunca antes la había tenido.
Las epidemias pueden ser multifocales. Cuando pasa a ser de distribución mundial, recibe el
nombre de pandemia. Puede comenzar como un brote, luego pasar al nivel de epidemia y,
finalmente, extenderse a varios países de diferentes continentes. En el año 2009, la OMS retiró la
alta mortalidad como criterio de pandemia.
Una emergencia de salud pública de interés internacional (PHEIC) es un suceso
extraordinario considerado riesgo para la salud pública de Estados por propagación internacional
de una enfermedad que puede exigir respuesta internacional coordinada. Es una situación grave,
súbita, inusual o inesperada con implicaciones para la salud pública más allá de las fronteras del
Estado afectado y que puede necesitar una acción internacional inmediata. La primera de estas
fue la del SARS coV, que se produjo en Hong Kong en el año 2003.
Distinguimos niveles epidémicos según el grado de transmisión:
1. Fase interpandémica: La transmisión en humanos es inexistente o poco probable.
2. Nuevo agente en animales: La transmisión en humanos es dudosa o posible.
3. Alerta de pandemia: La transmisión humana es real pero limitada.
4. Nuevo agente en humanos: La transmisión humana está en aumento.
5. Pandemia: La transmisión en humanos es creciente y constante.
Cuando una pandemia es producida por un agente patógeno conocido se establece un control
epidémico específico. Sin embargo, si no conocemos al agente patógeno, se realiza un control
epidémico general junto con la identificación del agente a través de un estudio epidémico. Una
vez conocido, ya se aplica el control epidémico específico.
Para actuar en una epidemia siempre hay que actuar siguiendo una secuencia:
I. Confirmar y notificar la epidemia.
II. Formular una hipótesis sobre el origen y mecanismo de transmisión
III. Confirmar la hipótesis sobre el agente, su fuente y el mecanismo de transmisión.
Es importante que, durante los dos últimos pasos, se lleven a cabo medidas de intervención y de
control.

1. Confirmar y notificar la epidemia


Confirmar y notificar la epidemia no siempre es fácil, a veces falta información epidemiológica
previa, se tiene escasa fiabilidad o hay presiones políticas o económicas detrás. Para ello, se ha
de estimar la incidencia de infección y/o casos (incidencia observada), comparar con datos
disponibles para un mismo periodo y lugar (incidencia esperada) y estimar la extensión y
gravedad.

40

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


Distinguimos distintos tipos de casos:

• Caso índice: Introduce la infección en la población.


• Casos primarios: Son los infectados inicialmente de la misma fuente.
• Casos secundarios: Son los infectados persona a persona a partir de los casos primarios,
y son, a menudo, familiares.
La tasa de incidencia o ataque (Ta) se emplea para medir la fuerza de la transmisión. La
población investigada puede ser toda la población o un subgrupo, pero debe definirse
previamente. Tiene la siguiente ecuación:
𝑵ú𝒎𝒆𝒓𝒐 𝒏𝒖𝒆𝒗𝒐𝒔 𝒊𝒏𝒇𝒆𝒄𝒕𝒂𝒅𝒐𝒔 𝒐 𝒄𝒂𝒔𝒐𝒔
∗ 𝟏𝟎𝒏
𝑵ú𝒎𝒆𝒓𝒐 𝒅𝒆 𝒑𝒆𝒓𝒔𝒐𝒏𝒂𝒔 𝒆𝒏 𝒑𝒐𝒃𝒍𝒂𝒄𝒊ó𝒏 𝒂𝒇𝒆𝒄𝒕𝒂𝒅𝒂
El número básico de reproducción (R0) es el número promedio de casos secundarios infectantes
resultantes de introducir un sujeto infectado en una población numerosa y totalmente susceptible.
Es un número, no una tasa, por lo que no hay unidad de tiempo en su definición.
El índice epidémico (IE) es el cociente entre número de casos observados en una semana
específica y la mediana de casos del quinquenio anterior a esa misma semana.
𝑪𝒂𝒔𝒐𝒔 𝒐𝒃𝒔𝒆𝒓𝒗𝒂𝒅𝒐𝒔 𝒔𝒆𝒎𝒂𝒏𝒂 𝒙
𝑰𝑬 =
𝑴𝒆𝒅𝒊𝒂𝒏𝒂 𝒄𝒂𝒔𝒐𝒔 𝒒𝒖𝒊𝒏𝒒𝒖𝒆𝒏𝒊𝒐 𝒂𝒏𝒕𝒆𝒓𝒊𝒐𝒓 𝒔𝒆𝒎𝒂𝒏𝒂 𝒙
El canal endémico es el intervalo de confianza del 95% de media geométrica de incidencia.
Divide a la exposición a una enfermedad en determinadas zonas en función de su exposición:

El umbral epidémico (UE) es el límite superior del intervalo de confianza del 95% o el tercer
cuartil de casos esperados de dos semanas seguidas. Un número de casos por encima del umbral
epidémico indica el comienzo de la epidemia.

2. Formular hipótesis sobre el origen y el mecanismo de transmisión


En esta fase se recogen y analizan los datos para confirmar la hipótesis sobre el origen, la
naturaleza y la distribución de la enfermedad. Estos datos indican el alcance e importancia en
tiempo y espacio de la epidemia. Es importante determinar el mecanismo de transmisión para
sacar su probable momento y el periodo de exposición.

41

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
La curva epidémica es la representación gráfica del número de casos según su momento de
aparición. Indica la distribución de periodos de incubación de casos.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Trazar esta curva nos permite:
✓ Conocer la magnitud de la epidemia o si son casos aislados.
✓ Conocer el patrón de propagación.
✓ Intuir el probable mecanismo de transmisión.
✓ Orientar sobre la tendencia en tiempo y posible duración.
✓ Estimar la fecha o período probable de exposición al agente causal y el periodo de
incubación.
Las curvas epidémicas se pueden clasificar según su mecanismo de transmisión:
❖ Fuente común: Los casos están dentro de un periodo delimitado (a-b) de incubación o
latencia de la enfermedad.

❖ Fuente común con propagación secundaria: Hay casos (secundarios) fuera del periodo
propio de la enfermedad.

❖ Transmisión persona a persona.

42

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

el podcast para entender que la vida da mas vueltas que la silla de un peluquero
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
3. Confirmar hipótesis sobre el agente, la fuente y su transmisión.
Se ha de probar que los expuestos al agente tienen más riesgo de enfermar que los no expuestos.
Para analizarlo se emplean:
▪ Método de las Diferencias de Tasas de Ataque: Es rápido, sencillo y sus resultados son
válidos para aplicar a procesos con agente o mecanismo relativamente claros.
▪ Método del Estudio de Casos-Controles: Es más complejo, requiere más información,
es más preciso y permite diferenciar entre diferentes fuentes o mecanismos.
Con ambos métodos, deben estudiarse la magnitud de la asociación causal y la significación
estadística de esa asociación. No obstante, con el método de casos-controles debe estudiarse
también la precisión de la asociación causal.
En el método de las tasas de ataque, se estiman el riesgo de enfermar de la población estudiada
en expuestos y no expuestos. Después, se calcula la diferencia entre estas tasas.
𝒏º 𝒄𝒂𝒔𝒐𝒔 𝒆𝒏𝒕𝒓𝒆 𝒆𝒙𝒑𝒖𝒆𝒔𝒕𝒐𝒔
𝑻𝒂𝒔𝒂 𝒂𝒕𝒂𝒒𝒖𝒆 𝒆𝒙𝒑𝒖𝒆𝒔𝒕𝒐𝒔 =
𝒏º 𝒅𝒆 𝒆𝒙𝒑𝒖𝒆𝒔𝒕𝒐𝒔
𝒏º 𝒄𝒂𝒔𝒐𝒔 𝒆𝒏 𝒏𝒐 𝒆𝒙𝒑𝒖𝒆𝒔𝒕𝒐𝒔
𝑻𝒂𝒔𝒂 𝒂𝒕𝒂𝒒𝒖𝒆 𝒏𝒐 𝒆𝒙𝒑𝒖𝒆𝒔𝒕𝒐𝒔 =
𝒏º 𝒅𝒆 𝒏𝒐 𝒆𝒙𝒑𝒖𝒆𝒔𝒕𝒐𝒔
𝑫𝒊𝒇. 𝒕𝒂𝒔𝒂𝒔 𝒂𝒕𝒂𝒒𝒖𝒆 = 𝑻𝒂𝒔𝒂 𝒂𝒕𝒂𝒒𝒖𝒆 𝒆𝒙𝒑𝒖𝒆𝒔𝒕𝒐𝒔 − 𝑻𝒂𝒔𝒂 𝒂𝒕𝒂𝒒𝒖𝒆 𝒏𝒐 𝒆𝒙𝒑𝒖𝒆𝒔𝒕𝒐𝒔
La magnitud de asociación se estima valorando la diferencia de tasas de ataque entre expuestos
y no expuestos, mientras que la significación estadística de la asociación se valora con el test
exacto de Fisher y el p-valor.

43

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


Tema 14: Medicina basada en la evidencia
1. ¿Por qué surge la medicina basada en la evidencia?
Ya en el 1500 a.C. aparecía el Papiro Ebers en el que se escribían por jeroglíficos algunos
principios médicos. Siglos más tarde, Hipócrates escribió el Corpus Hipocraticum. Además, se
redactaron también libros sobre medicina durante la Edad Media. Sin embargo, el cambio en la

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
medicina se produce a partir de los años 60 del siglo pasado.
La aparición y desarrollo de los ordenadores permitió el manejo y el análisis de gran cantidad de
información. Se produce el avance en métodos de análisis estadístico y epidemiológico. Además,
se implantan técnicas de síntesis cuantitativa de datos y se genera una inmensa cantidad de
conocimiento. Sin embargo, esto supone un problema puesto que la continua publicación de
conocimientos, con la menor validez temporal que implica, y la imposibilidad por parte de los
médicos para identificar y analizar lo publicado, la práctica media y su competencia profesional
decaerá.
A partir de los años 80, se empiezan a aplicar técnicas de gestión en la sanidad y aparecen nuevas
preocupaciones acerca del coste, la variabilidad, la práctica clínica y la eficiencia. El interés se
centra en evaluar no solo la estructura y el proceso, sino en los resultados.

2. ¿Qué es la medicina basada en la evidencia?


El concepto de la medicina basada en la evidencia (MBE) fue introducido por Guyatt en 1991 en
uno de sus artículos. Fue en 1992 cuando internistas y epidemiólogos de la Universidad McMaster
de Canadá crean un grupo de trabajo de MBE.
Se define a la medicina basada en la evidencia como la utilización consciente, explícita y juiciosa
de las mejores pruebas disponibles en la toma de decisiones sobre el cuidado de pacientes
individuales.

3. Bases, objetivos y métodos de la medicina basada en la evidencia.


Las bases de la medicina basada en la evidencia son la mejor evidencia externa, los valores del
paciente y la experiencia clínica, empleando esta última a las dos anteriores para la toma de
decisiones.
Los principales objetivos de la MBE son tres:
➢ Que el médico aplique en la práctica, además de la experiencia y la habilidad clínica, la
evidencia de resultados de investigación científica, para mejorar la calidad y la
efectividad en términos de salud.
➢ Facilitar la toma de decisiones del médico.
➢ Reducir la variabilidad no justificada de intervenciones.
La medicina basada en la evidencia aborda cosas como los hallazgos clínicos, la etiología, el
diagnóstico, el diagnóstico diferencial, el pronóstico, el tratamiento y la prevención.
Para aplicar este tipo de medicina es necesario un nuevo enfoque de enseñanza, donde se dé
importancia a examinar pruebas o evidencias procedentes de la investigación, a interpretar
cautelosamente información clínica derivada de las observaciones no sistemáticas y a comprender
que la fisiopatología de una enfermedad no es suficiente para una práctica clínica de calidad.
Las decisiones clínicas son más fiables si se basan en conclusiones de revisiones sistemáticas de
investigación clínica que en predicciones de efectividad de intervenciones realizadas por clínicos
individualmente.

44

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


Para realizar MBE, debemos seguir los siguientes pasos:
i. Convertir la necesidad de información en una pregunta concreta que se pueda responder
con claridad.
ii. Buscar la bibliografía más adecuada (saber a qué fuentes acudir y cómo buscar dentro de
ellas).
iii. Revisar la bibliografía para ver cuál es la que tiene más nivel de evidencia. Para ello
podemos emplear las clasificaciones de nivel de evidencia de GRADE, Oxford o NHS.
iv. Integrar la evaluación con nuestra experiencia clínica y con las circunstancias concretas
del paciente.
v. Evaluar los resultados de los cuatro primeros pasos y buscar formas de mejorarlos para
sucesivas ocasiones.
Para realizar medicina basada en la evidencia, es requerido:
✓ Conocer la metodología de la MBE.
✓ Ser capaz de formular adecuadamente la pregunta a investigar.
✓ Tener acceso a diferentes bases de datos, revistas científicas, páginas web e instituciones
científicas.
✓ Saber realizar búsquedas bibliográficas sistemáticas.
✓ Saber aplicar reglas formales para evaluar la literatura.
✓ Buscar y aplicar resúmenes e información científica recopilada por otros.
✓ Aceptar protocolos y guías prácticas desarrolladas por terceros.
✓ Integrar en la práctica clínica personal la mejor evidencia o pruebas externas obtenidas a
través de una investigación sistemática.
✓ Valorar la situación física y clínica del paciente.
✓ Tener en cuenta la eficacia y la efectividad de las opciones proporcionadas por la
investigación realizada.
✓ Ante previsibles consecuencias de cada opción, contrastar con preferencias y expectativas
de cada paciente.
✓ Proporcionar información adecuada al paciente para que participe más en la toma de
decisiones.

4. Herramientas de la medicina basada en la evidencia.


La revisión sistemática consiste en el proceso de integración de datos procedentes de varios
estudios hechos sobre el mismo tema o problema de salud. Sigue el método explícito para resumir
información que existe sobre el tema y parte de una pregunta estructurada y un protocolo previo,
siguiendo el método PRISMA.

45

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
El metaanálisis es una revisión sistemática que termina con el análisis cuantitativo con estimador
estadístico. Es una herramienta estadística para sintetizar datos de un conjunto de estudio que ya
se ha empleado en medicina en la década de los 80, con gran importancia en los 90.
Son muy útiles para cuantificar los efectos de intervenciones y su incertidumbre, así como
incrementar la potencia y la precisión. Permite explorar diferencias entre estudios del mismo tema
y resolver controversias entre estudios contradictorios. Además, se pueden generar nuevas

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
hipótesis.

46

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


Tema 15: El Método Estadístico
La estadística es muy necesaria en la medicina debido a que, entre otras cosas:

• Nos permite analizar los tratamientos, bien sea aportándonos la dosis que se ha de
suministrar o cuál es el tratamiento óptimo.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Nos permite estimar los tiempos de recuperación.
• Nos permite observar si los resultados de un paciente están alterados pudiendo tratarlo.
Por tanto, la estadística nos aporta herramientas para realizar los análisis epidemiológicos.

1. El Método Estadístico
Entendemos la estadística como un conjunto de métodos necesarios para recoger, clasificar,
representar y resumir datos, y para extraer conclusiones objetivas y científicas a partir de ellos.
La estadística aplicada a los fenómenos relacionados con las Ciencias de la Salud se conoce como
bioestadística.
Nosotros, a través de la observación de la realidad obtenemos una serie de datos. A través de la
estadística, estos datos nos permiten conocer la realidad. Este proceso se lleva a cabo a través del
método estadístico que comprende los siguientes pasos:
1. Formulación de una pregunta estadística
2. Diseño de un plan para responder a dicha pregunta
3. Selección de la muestra
4. Recopilación de datos (Se ha de tener en cuenta toda la variabilidad posible)
5. Organización de los datos recopilados
6. Análisis de los datos
7. Interpretación de los datos

2. Ramas de la estadística
La estadística se divide en dos ramas:

• Estadística descriptiva: Se encarga de la recolección, descripción, visualización y


resumen de los datos, que pueden ser resumidos numérica o gráficamente.
• Estadística inferencial: Se encarga de la generación de hipótesis o estimaciones
asociadas a los datos obtenidos.
¡¡¡¡ATENCIÓN!!!! Es importante recalcar que estadística y probabilidad no son lo mismo. La
probabilidad se basa en la deducción puesto que analiza la probabilidad de los sucesos. En cambio,
la estadística utiliza la inducción para hallar respuestas a partir de los datos.

3. Población y muestra
Población: Conjunto completo de elementos sobre los que se va a observar una o varias
características. El tamaño de una población se refiere al número de elementos y se representa con
la letra N. El número de elementos puede ser finito o infinito.
Individuo: Cada uno de los elementos de una población.
Muestra: Subconjuntos de elementos de una población determinada. Su tamaño se indica con la
letra n.
Es decir, el proceso estadístico consiste en realizar un muestreo en una población para obtener los
datos de una muestra. Dichos datos se extrapolarán a la población.

47

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


4. Variables estadísticas
Variable estadística: Magnitud cuyos valores son las distintas modalidades, versiones o valores
numéricos que puede presentar la característica observada sobre los individuos de la población.
Dato: Valor que toma la variable estadística sobre un individuo concreto.

5. Tipos de variables

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Variables cualitativas: No recogen información numérica, es decir, se refieren a cualidades o
atributos de la población. Se asignan categorías. Las variables cualitativas se dividen en función
de si se pueden graduar en:
➔ Ordinales: Existe la graduación. (Ej: Nivel de estudios)
➔ Nominales: No se pueden ordenar las categorías. (Ej: Grupos sanguíneos)
Además, las variables cualitativas se pueden clasificar en función del número de categorías.
Pueden ser dicotómicas si solo existen dos categorías (Ej: Grupos Rh) o policotómicas si existen
más de dos categorías (Ej: Nombres de personas).
Variables cuantitativas: Recogen datos numéricos, es decir, se pueden cuantificar asignando
números o valores numéricos y se clasifican en:
➔ Continuas: Presentan valores infinitos dentro de un intervalo. (Ej: Peso)
➔ Discretas: Toman valores numerables dentro de un intervalo. Suelen ser números
enteros. (Ej: Número de cigarrillos consumidos por una persona en un día)
Muchas veces las variables continuas se discretizan. También, en otras situaciones, las variables
discretas se toman como continuas.
Medición: Atribución de valores cualitativos y cuantitativos a las características de los individuos
de la población. La medición es un proceso clave dentro de la investigación puesto que una mala
medición afecta a la validez del estudio.
Escalas: Son el conjunto de normas que usamos para asignar valores a una variable. Las variables
cualitativas nominales siguen la escala nominal, que nos permite distinguir si los datos son o no
iguales. Las variables cualitativas ordinales se emplean en escalas ordinales ya que nos permiten,
además de distinguir si es o no igual, qué es mayor o menor.
Respecto a las variables cuantitativas, la escala de intervalo se emplea para cuantificar variables
que no pueden tener un 0 absoluto, mientras que las escalas de razón es para variables que sí
contemplan el 0 absoluto. Esta última escala nos permite obtener razones (Ej: Consume el doble
de cigarrillos en un día).
Una buena escala debe de seguir una serie de características:
✓ Ser adecuada al estudio
✓ Ser factible en relación con la información recogida
✓ Tener la potencia suficiente para los datos recogidos
✓ Contar con categorías claramente definidas y que sean mutuamente excluyentes, es decir,
que cada individuo solo pueda ser incluido en 1 categoría.
✓ Contar también con un número suficiente de categorías, pero que no sea innecesariamente
elevado.
✓ Ser exhaustiva, es decir, que recoja todas las posibilidades.

48

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

el podcast para entender que la vida da mas vueltas que la silla de un peluquero
Tema 16: Procedimientos descriptivos en el análisis de datos
1. Procedimientos descriptivos en el análisis de datos: Recogida y
Organización
Los datos son recogidos en matrices de datos, correspondiendo a cada variable una columna. Tras
la recogida, es necesario organizarlos. Debido a que una simple organización no será suficiente,
emplearemos las siguientes herramientas:

• Frecuencia absoluta de xi (ni): Número de individuos de una muestra que toman el valor
xi de una variable X.
• Frecuencia relativa de xi (fi): Proporción de individuos de una muestra que toman el
valor xi de una variable X. fi = ni / n, siendo n el tamaño de la muestra
• Porcentaje de xi (pi): Es la frecuencia relativa en porcentaje. pi = fi * 100

La frecuencia absoluta toma valores entre 0 y n (tamaño de la muestra), la frecuencia relativa


entre 0 y 1 y el porcentaje entre 0 y 100.

Otros elementos importantes son los siguientes:

• Frecuencia acumulada absoluta de xi (Ni): Número de individuos de una muestra que


toman el valor xi de una variable X o un valor más pequeño.
• Frecuencia acumulada relativa de xi (Fi): Proporción de individuos de una muestra que
toman el valor xi de una variable X o un valor más pequeño. Resulta de la división de la
frecuencia acumulada absoluta de xi entre el tamaño de la muestra (n).
• Porcentaje acumulado de xi (Pi): Es la frecuencia acumulada relativa en porcentaje.

Además, cuando el tamaño de la muestra es muy grande y es difícil medir un valor exacto, se
emplean los datos agrupados. Es decir, se realiza una partición de los valores posibles de la
variable en clases (en caso de que sea una variable cuantitativa discreta) o en intervalos (para
variables cuantitativas continuas). Los extremos de estas clases o intervalos reciben el nombre de
límites, la longitud se denomina amplitud y toda clase/intervalo consta de un punto medio,
también denominado marca de clase.

La agrupación de datos nos permite generar tablas de frecuencias, que se caracterizan por:

➢ Tener un enunciado explicativo.


➢ Constar de los totales de las columnas numéricas.
➢ Indicar las unidades de medida.
➢ Los datos de una misma columna constan del mismo número de decimales.
➢ Sus intervalos convenientemente tienen la misma amplitud.
➢ Las clases no se solapan ni constan de huecos entre sí.
➢ Cuanto mayor tamaño de la muestra, mayor número de clases.
➢ Cuanto mayor dispersión, mayor amplitud de intervalo.

2. Representaciones gráficas
La información que recogen las tablas es muy completa, sin embargo, requiere mucho esfuerzo
para visualizarlo. Para ello, se emplean los gráficos, que dan una información rápida y global de
los datos y nos permiten obtener una idea general de los resultados.
Existen distintos tipos de gráficos:

49

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
❖ Diagrama de barras: También apto para variables cualitativas, es recomendable para
variables cuantitativas discretas con pocas modalidades. Sobre cada valor se establece
una barra cuya altura es igual a la frecuencia o al porcentaje.
❖ Diagrama de sectores: Destinado a variables cualitativas, en él un círculo se dividen en
sectores cuyas áreas son proporcionales a la frecuencia relativa de la modalidad que
representa.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
❖ Histograma: Es propio de las variables cuantitativas continuas. En él, cada rectángulo
tiene un área proporcional a la frecuencia del intervalo. No hay huecos entre las barras,
las clases extremas no tienen la misma amplitud, aunque se dibujan con la misma anchura
que los demás. Si los intervalos tienen distinta amplitud, es necesario calcular la altura.

3. Medidas de tendencia central


Centralizan o representan el centro de la muestra. Es decir, indican los valores respecto a los que
los datos parecen agruparse. Es decir, representan los valores típicos o representativos. Todas las
medidas de tendencia central han de cumplir los siguientes criterios:
➢ Ser objetivas
➢ Ser fáciles de calcular
➢ Tener en cuenta a todas las observaciones de la muestra
➢ Ser poco sensibles a la fluctuaciones de la muestra.
Media: Solo se puede aplicar para variables cuantitativas. Es muy sensible a la variación de
puntuaciones y, además, al trabajar con los datos agrupados no nos da el valor exacto.

Mediana: Es el valor de la variable que deja el mismo número de observaciones por encima y
por debajo de su valor, es decir, deja al 50% a cada lado.
Si n es impar, será el dato que ocupa la posición intermedia.
Si n es par, la mediana será cualquier valor entre los dos datos que ocupan las posiciones
intermedias, incluyendo a esos dos datos.
La mediana se puede calcular para variables cuantitativas y para variables ordinales. No es
sensible a valores extremos, pero las técnicas inferenciales que la emplean arrojan datos menos
fiables. Se puede calcular en series con clases abiertas.
Moda: Es el valor de la variable que se presenta con mayor frecuencia, es decir, el que más se
repite. Puede ser un valor único (distribuciones unimodales) o múltiple (distribuciones
multimodales). Se puede calcular para cualquier tipo de variable, pero no existen apenas técnicas
inferenciales que se sustenten en la moda. No es sensible ni a valores extremos ni a las
fluctuaciones de datos (salvo cuando afecten a alguno de los datos más frecuentes) y no se debe
utilizar en series con pocos datos.

4. Medidas de posición
Indican la posición o situación de un individuo dentro de la muestra. Dividen a un conjunto
ordenado de datos en distintos grupos con la misma cantidad de individuos, permitiendo estudiar
la posición relativa de un sujeto en una variable y transformar puntuaciones directas en otras más
fáciles de interpretar.
La mediana es, además de una medida de centralización, una medida de posición. Pero, para
entender las medidas de posición es importante tratar antes el concepto de cuantiles. Un cuantil
de orden α (Cα) es el valor (o valores) de la variable X tal(es) que:

50

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

el podcast para entender que la vida da mas vueltas que la silla de un peluquero
✓ La frecuencia relativa de individuos de la muestra con X≤ Cα es ≥ α.
✓ La frecuencia relativa de individuos de la muestra con X≥ Cα es ≤ α.
Percentiles: Los percentiles dividen el número de observaciones de la distribución en 100 partes
iguales. Son valores representativos de la variable e indican el orden o la posición que ocupa un
dato dentro de la distribución.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Cuartiles: Los cuartiles dividen el número de observaciones de una distribución en 4 partes
iguales.
Deciles: Los deciles dividen el número de observaciones de una distribución en10 partes iguales.
P50 = Q2 = D5 = Mediana
Rango percentil: Es el porcentaje de individuos de la muestra con un valor menor o igual que X.
Debe expresarse en relación con algún grupo de referencia.

5. Medidas de dispersión
Se encargan de medir la dispersión o variación de los datos de la muestra. Es decir, indican la
mayor o menor concentración de los datos entorno a las medidas de centralización. Nos permiten
cuantificar la separación, la dispersión y la variabilidad de los valores de la distribución respecto
al valor central o con respecto a los demás valores.
Las medidas de dispersión se dividen en dos grupos, medidas de dispersión absolutas y medidas
de dispersión relativas:
I. Medidas de dispersión absolutas: No son comparables entre diferentes muestras. Son
las siguientes:

a. Varianza: Es sensible a valores extremos, siendo sus unidades las de la variable


al cuadrado. La varianza siempre es mayor o igual que cero. Cuanto más se
aproxima a cero, más concentrados están los valores alrededor de la media y, por
tanto, a una mayor varianza, mayor dispersión de valores. Siempre que añadamos
una constante a los datos de la muestra, la varianza no se alterará. En cambio, si
multiplicamos todos los datos por una constante, la varianza se multiplicará por
el cuadrado de dicha constante.
b. Desviación Típica: Depende de todos los valores de la distribución, así como la
media, y tiene las mismas unidades que la variable. Si multiplicamos a los datos
por una constante, esta quedará multiplicada por el valor absoluto de la misma
constante. Junto con la media, determina la distribución normal o de Gauss.
c. Otras medidas absolutas: Son medidas muy relacionadas con la varianza y la
desviación típica. De hecho, estiman la varianza y la desviación típica
poblacionales. Son la cuasivarianza y la cuasidesviación típica o estándar.
II. Medidas de dispersión relativas: Nos permiten comparar con distintas muestras. La más
importante el Coeficiente de Variación de Pearson (CV). Es adimensional e indica que,
a menor coeficiente de variación, menor será la dispersión. Cuanto mayor sea este
coeficiente, menos representativa será la media. En el caso de que la media sea muy
próxima a cero, esto afectará mucho al CV.

51

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

el podcast para entender que la vida da mas vueltas que la silla de un peluquero
6. Medidas de forma
Comparan la forma de la distribución con respecto a una referencia. Resumen si los datos
presentan una distribución más o menos simétrica o con un mayor o menor apuntamiento. Para
cuantificar el grado de asimetría puede calcularse el coeficiente de asimetría (As). En cambio,
para cuantificar el grado de apuntamiento puede calcularse el coeficiente de curtosis (Cu).

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Distribución
Platicúrtica

Distribución
Mesocúrtica

Distribución
leptocúrtica

Cuando una distribución es asimétrica (sesgada), la mediana será mejor que la media para
describir la tendencia central de la distribución de los datos. Respecto a la curtosis, miden la
mayor o menor cantidad de datos que se agrupan entorno a la moda.

52

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


Tema 17: Relaciones entre variables. Probabilidad
1. Relaciones entre variables
Variable bidimensional (X, Y)
Una variable bidimensional es la combinación de dos variables que se observan conjuntamente.
Permite el análisis por separado de cada característica y el análisis conjunto. Algunos ejemplos
de variable bidimensional son las tablas talla-peso, la relación pulso-temperatura o las tablas de
altura-sexo.

Distribución bidimensional
En la distribución bidimensional encontramos dos frecuencias:

• Frecuencia absoluta del par (xi, yj), nij: Número de individuos de una muestra para los
que X toma el valor xi e Y toma el valor yj.
• Frecuencia relativa del par (xi, yj), fij: Proporción de individuos de una muestra para
los que X toma el valor xi e Y toma el valor yj. Se calcula como nij/n.

Representaciones tabulares
Distinguimos dos tipos de tablas:
➢ Tabla de doble entrada (también llamada tabla de
contingencia si se consideran frecuencias absolutas):
En la primera fila se haya una variable y en la primera
columna la otra variable. Apta para valores repetidos
muchas veces (variables cualitativas y cuantitativas
discretas).
➢ Tabla de datos apareados: Solo se puede emplear para valores poco repetidos y no muy
numerosos.

Representaciones gráficas
Manejamos tres gráficos en función de las variables:
❖ Diagrama de dispersión (o nube de puntos): Apto para dos variables cuantitativas
(continuas). (debajo a la izquierda)
❖ Diagrama de cajas: Apto para una variable cualitativa y otra variable cuantitativa.
(debajo en el centro)
❖ Diagrama de barras agrupadas: Apto para dos variables cualitativas o una cualitativa
y otra cuantitativa discreta. (debajo a la derecha)

Distribuciones marginales
Las distribuciones marginales recogen el comportamiento de las variables por separado. En la
tabla adjunta se puede apreciar cómo se organizan estas tablas:

53

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Distribuciones condicionales
Las distribuciones condicionales recogen el comportamiento de una de las variables cuando se
mantiene fija la modalidad de la otra.

Dependencia estadística
Dos variables son estadísticamente independientes cuando el comportamiento de una no influye
en el comportamiento de la otra. X es independiente de Y si la distribución de frecuencias
condicionada de X no depende del valor o clase de Y por el que se condiciona, es decir, si
cualquier valor que sea xi se cumple que: f(xi/y1) = f(xi/y2) = … = f(xi/yl)
Decimos que X e Y son estadísticamente independientes si: fij = fi*fj siendo i y j cualquier número
natural. Es decir:
𝒏𝒊 ∗ 𝒏𝒋
𝒏𝒊𝒋 =
𝒏

A partir de la dependencia estadística, podemos hallar la covarianza de X e Y, Cov (X, Y):

Si las variables X e Y son estadísticamente independientes, la covarianza será cero. Sin embargo,
la covarianza puede ser cero y que X e Y sean dependientes. La covarianza cuenta con una serie
de propiedades:
✓ Si a todos los valores de la variable X les sumamos una constante k y a todos los valores
de la variable Y les sumamos una constante k’, la covarianza no varía.
✓ Si a todos los valores de la variable X los multiplicamos por una constante k y todos los
valores de la variable Y les multiplicamos una constante k’, la covarianza queda
multiplicada por el producto de las constantes.

54

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

el podcast para entender que la vida da mas vueltas que la silla de un peluquero
✓ Si hay dependencia directa o positiva entre X e Y (a grandes valores de X le corresponden
grandes valores de Y), la covarianza es positiva.
✓ Si hay dependencia inversa o negativa entre X e Y (a grandes valores de X le
corresponden pequeños valores de Y), la covarianza es negativa.

Dependencia funcional
La regresión es una relación funcional de cierto tipo que mejor expresa una variable estadística

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
en función de la otra en la muestra, y = f(x). Consiste en buscar la curva que mejor se adapta al
diagrama de puntos que representa la distribución de frecuencias conjuntas en la muestra.
La correlación complementa el estudio de regresión, cuantificando el grado de dependencia entre
las dos variables de acuerdo con la mejor relación obtenida por regresión. Es el grado de ajuste
de la curva que representa la relación óptima al diagrama de puntos.

Dependencia lineal
La relación lineal es la relación más sencilla. La regresión lineal busca la recta de la forma Y =
a + bx que menos diste del diagrama de puntos. La a es el término independiente y la b es la
frecuencia (o coeficiente de regresión).
La correlación lineal cuantifica el grado de relación lineal entre dos variables. Para ello,
empleamos el coeficiente de correlación lineal de Pearson para X e Y:
𝑺𝒙𝒚
𝒓𝒙𝒚 =
𝑺𝒙 ∗ 𝑺𝒚

El coeficiente de determinación es el cuadrado del coeficiente de correlación lineal de Pearson


(rxy2). Si este toma valor 1, la correlación entre las variables X e Y en la muestra es total. Y, cuanto
más se aleje de este valor, mayor error se comete al suponer que X e Y dependen linealmente, es
decir, la dependencia lineal entre las variables es menor.
El coeficiente rxy es adimensional y toma valores en el intervalo [-1, 1]. Las dos variables siempre
han de ser cuantitativas. El coeficiente de regresión tiene el mismo signo que Sxy y que b. Cuando
el valor es 0 se dice que las variables están incorreladas o son linealmente independientes.

Las variables en la correlación son recíprocas o simétricas. En ningún momento se habla de que
una de ellas sea la causa y la otra el efecto. En la correlación no se distingue la variable
dependiente de la independiente. En cambio, esta simetría no se produce en la regresión. No basta
que un coeficiente de correlación sea muy elevado para considerar que la asociación entre las dos
variables sea causal, hay que pensar en terceras variables que puedan explicar la asociación
encontrada.

55

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

el podcast para entender que la vida da mas vueltas que la silla de un peluquero
2. Probabilidad: conceptos y principales propiedades
La probabilidad es un número entre 0 y 1 asociado con la verosimilitud de que ocurra un suceso
(0 cuando ese suceso no va a ocurrir y 1 cuando estamos seguros de que va a ocurrir).

Elementos de los experimentos aleatorios


Un experimento aleatorio es un proceso cuyo resultado no se puede predecir antes de realizarlo,

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
es decir, depende del azar. Por ejemplo, tirar un dado. Los elementos de un experimento aleatorio
son:
Espacio muestral (E): es el conjunto formado por todos los posibles resultados de un
experimento aleatorio. Siguiendo el ejemplo, que salga 1, 2, 3, 4, 5 o 6.
Suceso aleatorio (A): es cada subconjunto del espacio muestral que identifica los
elementos que cumplen cierta propiedad. Puede ser elemental (de un único elemento) o
compuesto (de varios elementos).
Dados dos sucesos A y B, el suceso unión es aquel que se verifica cuando ocurre al
menos uno de ellos (es decir, ocurre o bien uno solo de ellos, o ambos). AUB
Dados dos sucesos A y B, el suceso intersección es aquel que se verifica cuando ocurren
simultáneamente ambos. A∩B
Suceso complementario de A o contrario de A: es aquel que se produce cuando no se
produce A.
Suceso imposible: es aquel que es imposible que ocurra y será el correspondiente al
subconjunto vacío.
Suceso seguro: es aquel que siempre ocurre y se corresponde con el espacio muestral.
Sucesos incompatibles: aquellos sucesos cuya realización simultánea es imposible. Su
intersección será el conjunto vacío.

Probabilidad
La probabilidad es la función que asocia a cada suceso A un número real que indica la posibilidad
con la que ocurre, P(A). Las reglas de la teoría axiomática de la probabilidad son las siguientes:
❖ 0 ≤ P(A) ≤ 1
❖ Si A y B son incompatibles, P(AUB) = P(A) + P(B)
❖ P(E) = 1
❖ P(imposible) = 0
❖ P(no A) = 1 – P(A)
❖ Si A y B pueden ocurrir a la vez: P(AUB) = P(A) + P(B) – P(A∩B)
La definición clásica de la probabilidad es la siguiente y siempre necesita que el espacio muestral
sea finito y que todos sus elementos sean equiprobables:
𝒏º 𝒄𝒂𝒔𝒐𝒔 𝒇𝒂𝒗𝒐𝒓𝒂𝒃𝒍𝒆𝒔 𝒏º 𝒆𝒍𝒆𝒎𝒆𝒏𝒕𝒐𝒔 𝑨
𝑷(𝑨) = =
𝒏º 𝒄𝒂𝒔𝒐𝒔 𝒑𝒐𝒔𝒊𝒃𝒍𝒆𝒔 𝒏º 𝒆𝒍𝒆𝒎𝒆𝒏𝒕𝒐𝒔 𝑬

La definición frecuentista se suele emplear cuando se realiza muchas veces el proceso y es la


siguiente:
𝒏º 𝒗𝒆𝒄𝒆𝒔 𝒒𝒖𝒆 𝒂𝒑𝒂𝒓𝒆𝒄𝒆 𝑨 (𝒏𝑨)
𝑷(𝑨) = 𝐥𝐢𝐦
𝒏→∞ 𝒏º 𝒓𝒆𝒂𝒍𝒊𝒛𝒂𝒄𝒊𝒐𝒏𝒆𝒔 𝒅𝒆𝒍 𝒆𝒙𝒑𝒆𝒓𝒊𝒎𝒆𝒏𝒕𝒐 (𝒏)
La definición subjetiva es la credibilidad de que un suceso ocurra y se va actualizando con el
conocimiento.

56

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


Probabilidad condicionada
La probabilidad condicionada, P(A/B), es la probabilidad de que ocurra el suceso A sabiendo que
ha ocurrido el suceso B (P(B)≠0).
𝑷(𝑨 ∩ 𝑩)
𝑷(𝑨/𝑩) =
𝑷(𝑩)
El suceso A es independiente del suceso B cuando la probabilidad de que ocurra A no depende
de la probabilidad de que ocurra B, es decir, si y solo si, P(A/B) = P(A). Si A es independiente de
B, B será independiente de A. Y si son independientes, la probabilidad de que ocurran los dos a
la vez es el producto de las probabilidades de ambos. Si dos sucesos son independientes, también
lo serán sus complementarios.

Regla de la probabilidad total


Una partición de E es un conjunto de sucesos Ai mutuamente excluyentes y que cubren todo el
espacio muestral.
Según la regla de la probabilidad total: si un conjunto de sucesos Ai forman una partición del
espacio muestral y para todo i, P(A)>0, entonces para cualquier otro suceso B se cumple que:
P(B)= P(B/A1) * P(A1) + P(B/A2) * P(A2) + … + P(B/An) * P(An)

Teorema de Bayes
Si un conjunto de sucesos Ai forman una partición del espacio muestral y para todo i, P(Ai)>0,
entonces para cualquier otro suceso B tal que P(B)>0, se cumple:
𝑷(𝑨𝒊 ∩ 𝑩) 𝑷(𝑩/𝑨𝒊 ) ∗ 𝑷(𝑨𝒊 )
𝑷(𝑨𝒊 /𝑩) = =
𝑷(𝑩) 𝑷(𝑩)

3. Aplicaciones a los métodos de diagnóstico


Un test diagnóstico es un conjunto de pruebas que se realizan para detectar la presencia de alguna
condición específica en un experimento, es decir, hablando clínicamente, descubrir qué le ocurre
al paciente. Los test diagnósticos son una aplicación del Teorema de Bayes a la medicina. Una
prueba diagnóstica ayuda a mejorar una estimación de la probabilidad de que un individuo
presente una enfermedad.
Los test diagnósticos pueden cometer siempre dos errores en el diagnóstico:

• Que el individuo esté enfermo pero que el test no detecte la presencia de la enfermedad.
Recibe el nombre de falso negativo.
• Que el individuo no esté enfermo pero que el test detecte supuestamente la presencia de
la enfermedad. Recibe el nombre de falso positivo.
Entonces, llamamos test ideal a aquel test en el que la posibilidad de cometer cualquier error es
pequeña.
Todos los test tienen dos características:
❖ Sensibilidad: La probabilidad de diagnosticar a un individuo como enfermo cuando
realmente lo está. Es decir, es la capacidad de los test para detectar la enfermedad
(capacidad de captación de la prueba).
❖ Especificidad: La probabilidad de diagnosticar a un individuo como sano cuando
realmente lo está. Es decir, es la capacidad de los test para identificar a los individuos
sanos (capacidad de discriminación de la prueba).

57

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
El valor predictivo positivo (VPP) es la probabilidad de que un individuo que resulta positivo
en la prueba realmente esté enfermo. En cambio, el valor predictivo negativo (VPN) es la
probabilidad de que un individuo que resulta negativo en la prueba realmente esté sano. Es decir,
estos valores nos indican con qué seguridad un test predecirá la presencia o ausencia de la
enfermedad. Estos valores también se modifican dependiendo de la proporción de individuos de
la población que en un momento dado padecen la enfermedad.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Siempre es conveniente que un test:
✓ Sea sencillo de aplicar.
✓ Sea aceptado por los pacientes.
✓ Tenga los mínimos efectos adversos.
✓ Sea económicamente soportable.
La validez de un test siempre viene dada por su sensibilidad y por su especificidad. La seguridad
de un test viene determinada por el valor predictivo de un resultado positivo o negativo.

4. Otras aplicaciones
El riesgo relativo nos permite medir el riesgo de contagiarnos de una enfermedad en función de
estar o no expuesto a esta.
Los odds ratio de un factor de riesgo siempre es la división de la proporción entre la proporción
contraria.

58

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


Tema 18: Variables aleatorias. Distribuciones de probabilidad.
1. Variables aleatorias
Una variable aleatoria es una función que asigna cada elemento del espacio muestral un valor
numérico, es decir, asocia un número real a cada resultado obtenido por la observación de una
característica en toda la población. Constituye el modelo formal de la variable estadística.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Las variables aleatorias pueden ser:

• Discretas: definidas sobre espacios muestrales que tienen un número finito o infinito
numerable de elementos.
• Continuas: definidas sobre espacios muestrales que tienen un número infinito no
numerable de elemento (es decir, valores de un intervalo).

2. Función de densidad y de probabilidad


El comportamiento de las variables aleatorias discretas queda caracterizado por su función de
probabilidad, que asocia a cada valor de la variable, xi, su probabilidad, Pi:
P(xi) = Pi = P(X=xi) con Pi≥0 y ∑ Pi=1
El comportamiento de las variables aleatorias continuas queda caracterizado por su función de
densidad, f(x), que es una función no negativa de área 1:

𝒇(𝒙) ≥ 𝟎, −∞ ≤ 𝒙 ≤ ∞ 𝒄𝒐𝒏 ∫ 𝒇(𝒙)𝒅𝒙 = 𝟏
−∞

Y donde la probabilidad de que la variable X tome valores entre x1 y x2 puede calcularse de la


forma:
𝒙𝟐
𝑷(𝒙𝟏 ≤ 𝑿 ≤ 𝒙𝟐 ) = ∫ 𝒇(𝒙)𝒅𝒙
𝒙𝟏

La función de distribución F(x) de una variable aleatoria es una función que asigna a cada punto
real por la probabilidad de que la variable aleatoria tome un valor menor o igual que x, es decir:
F(x) = P(X≤x).
Esta función verifica que:
➢ 0 ≤ F(x) ≤ 1
➢ F(x) es no decreciente
➢ F(x) es continua por la derecha
➢ P(X>a) = 1 – F(a)
Esta función es para las variables aleatorias discretas:

𝑭(𝒙𝟎 ) = 𝑷(𝑿 ≤ 𝒙𝟎 ) = ∑ 𝑷(𝒙), 𝒑𝒂𝒓𝒂 − ∞ ≤ 𝒙𝟎 ≤ ∞


𝒙≤𝒙𝟎

Pero, para las variables aleatorias continuas:


𝒙𝟎
𝑭(𝒙𝟎 ) = 𝑷(𝑿 ≤ 𝒙𝟎 ) = ∫ 𝒇(𝒙)𝒅𝒙, 𝒑𝒂𝒓𝒂 − ∞ ≤ 𝒙𝟎 ≤ ∞
−∞

59

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


3. Media y varianza
La esperanza matemática, valor esperado o media, de una variable aleatoria X es un parámetro
que representa el comportamiento medio de la variable en la población, E[X]=μx. Si X es discreta,
entonces:

𝑬[𝑿] = 𝝁𝒙 = ∑ 𝒙𝒊 ∗ 𝑷𝒊

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
𝒊

En cambio, si X es continua, entonces:



𝑬[𝑿] = 𝝁𝒙 = ∫ 𝒙 ∗ 𝒇(𝒙)𝒅𝒙
−∞

La varianza de una variable aleatoria X es un parámetro que mide la variación de la variable en


la población:

𝑽𝒂𝒓[𝑿] = 𝝈𝟐𝒙 = 𝑬[(𝑿 − 𝝁𝒙 )𝟐 ] ∗ 𝑷𝒊

Si X es discreta, entonces:

𝑽𝒂𝒓[𝑿] = 𝝈𝟐𝒙 = ∑ (𝒙𝒊 − 𝝁𝒙 )𝟐 ∗ 𝑷𝒊


𝒊

Si X es continua, por tanto:



𝑽𝒂𝒓[𝑿] = 𝝈𝟐𝒙 = ∫ (𝒙 − 𝝁𝒙 )𝟐 ∗ 𝒇(𝒙)𝒅𝒙
−∞

Llamamos desviación típica, DT, o desviación estándar, DE, a σx, que es la raíz cuadrada de la
varianza.

4. Distribuciones especiales de probabilidad


Cada modelo de probabilidad queda definido por una función determinada (de probabilidad o de
densidad y de distribución). En algunos casos, los datos se ajustan a un modelo de probabilidad
perfectamente conocido: las leyes o distribuciones de probabilidades teóricas. Para las
variables aleatorias discretas emplearemos la distribución binomial y para las variables
aleatorias continuas emplearemos la distribución normal.

5. Distribución binomial
La distribución de Bernoulli, B(1, п) se aplica cuando consideramos una experiencia con sólo
dos posibles resultados: éxito (A, los individuos tienen una determinada característica) y fracaso
(Â, los individuos no tienen la característica).
Pues, teniendo en cuenta que X significa realización de la experiencia (observación de un
individuo), puede tomar valor 1, que significa éxito y su probabilidad será P(A), o 0, que significa
fracaso y que su probabilidad será 1-P(A).
En una distribución de Bernoulli:

• E[X] = μx = п
• σx2 = Var[X] = п*(1-п)
• σx = √(п*(1-п))
El modelo binomial está asociado a la repetición de n experimentos de Bernoulli independientes
y al recuento del número de éxitos obtenidos:
➢ k → Éxitos (A): k individuos que tienen una determinada característica

60

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


➢ n-k → fracasos (Â): n-k individuos que no tienen la característica
Por tanto, si X es el número de éxitos al realizar la experiencia un número n de veces”, tomará
valores en 0,1, 2, …, n. Entonces, su función de probabilidad (la probabilidad de obtener k éxitos)
será:
𝒏
𝑷(𝑿 = 𝒌) = ( ) ∗ 𝝅𝒌 ∗ (𝟏 − 𝝅)𝒏−𝒌
𝒌
Los parámetros de la distribución binomial son los siguientes:

• E[X] = n*п
• Var[X] = n*п*(1-п)
• σx = √(n*п*(1-п))
Por tanto, la media, la varianza y la desviación típica dependen de n y de п. Será simétrica para
п= ½ y no simétrica para el resto de los valores de п. Esta distribución está tabulada, y, cuando
aumenta de tamaño, tiende a la distribución normal.

6. Distribución normal
El modelo normal, N(μ, σ), es una ley de probabilidad a la que se ajustan determinadas variables
cuantitativas continuas. Su función de densidad viene dada por:

𝟏 (𝒙−𝝁)𝟐

𝒇(𝒙) = ∗𝒆 𝟐∗𝝈𝟐
𝝈 ∗ √𝟐𝝅
La distribución normal cuenta con los siguientes parámetros:

• E[X] = μ
• Var[X] = σ2
• σx = σ
En la distribución normal, el parámetro μ determina la posición y el parámetro σ determina la
forma. En todas las distribuciones normales, este esquema se cumple:

Este gráfico quiere decir que el área bajo la curva comprendido entre los valores situados
aproximadamente a dos desviaciones estándar de la media es igual a 0,95. Esto es, existe un 95%
de posibilidades de observar un valor comprendido en el intervalo (μ-1,96σ, μ+1,96σ).
Las probabilidades asociadas a un modelo normal se buscan mediante tablas, o con la ayuda de
un ordenador. Una propiedad importante de la distribución normal es que las probabilidades

61

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
asociadas a cualquier distribución normal se pueden calcular a partir de la normal típica N(0, 1).
Por ello, si X es N(μ, σ), entonces:
𝑿−𝝁
𝒁=
𝝈
A esta técnica, se le denomina tipificación. Podemos decir que el valor de Z es la cantidad de

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
desviaciones típicas a la que está distanciada la variable X del promedio.
Cuando las muestras son grandes (n grande y π y 1-π no son próximos a 0), la distribución
binomial, B(n, π), se puede aproximar a una distribución normal mediante el Teorema de
Moivre.

Esto nos permite hallar probabilidades binomiales para valores grandes de n que resulten
laboriosas de calcular. No obstante, para aproximar, se suele aplicar la corrección por continuidad
de Yates.

7. Otras distribuciones
Otra distribución para variables discretas es la de Poisson o ley de los sucesos raros, que se emplea
para un tamaño muestral grande y una probabilidad de aparición pequeña.
En cambio, para variables continuas tenemos las siguientes:
➢ Chi-cuadrado (X2), que permite comprobar si hay o no asociación entre dos variables en
tablas de contingencia.
➢ t de Student, que surge del problema de estimar la media de una población normalmente
distribuida cuando el tamaño de la muestra es pequeño.
➢ F de Snedecor, que aparece frecuentemente como la distribución nula de una prueba
estadística, especialmente en el análisis de la varianza.

62

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


Tema 19: Teoría de muestras. Estimación. Intervalos de
confianza.

A menudo no se puede estudiar toda la población por lo que no es posible conocer los parámetros

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
o propiedades poblacionales. Sólo disponemos de la información suministrada por una muestra
en la que se pueden calcular los estadísticos o funciones de los valores muestrales. Por ello, el
objetivo de los estudios estadísticos será extraer conclusiones sobre la población con la
información suministrada por una muestra.
Las muestras se deben elegir de manera que representen bien la población para no equivocarse
mucho en las conclusiones ya que, en esta elección, existe riesgo o posibilidad de equivocación.
La población que se pretende estudiar se denomina población objetivo. Esta población suele ser
casi imposible de estudiar por completo, por lo que aproximamos su comportamiento mediante
muestras. No resulta fácil elegir muestras representativas de la población objetivo, ya que, por
ejemplo, si consideramos los que van al médico excluimos a los sanos.
El grupo que podemos estudiar, por ejemplo, los que acuden al médico, se denomina población
de estudio. Las poblaciones objetivo y de estudio pueden diferir en cuanto al comportamiento de
variables que estudiamos.

1. Muestreo
El muestreo es el sistema para elegir una muestra de una población. Distinguimos dos tipos de
modelos:
➢ Muestreo no probabilístico: No se conoce la probabilidad de cada elemento de ser
incluido en la muestra. Es decir, el investigador elige la muestra mediante determinados
criterios subjetivos.
➢ Muestreo probabilístico: Cada elemento de la población tiene una probabilidad
conocida (y distinta de cero) de ser incluido en la muestra. Este se divide en:
o Muestreo aleatorio simple
o Muestreo sistemático
o Muestreo estratificado
En el muestreo aleatorio simple, cada individuo de la población tiene las mismas posibilidades
de formar parte de la muestra. El inconveniente de este muestreo es que permitimos que se puedan
repetir individuos. Entonces, si no devolvemos al individuo a la muestra, el muestreo pasa a
conocerse como sin reemplazamiento o sin reposición.
En el muestreo sistemático, se elige un individuo al azar y a partir de él, a intervalos constantes,
se eligen los demás hasta completar la muestra. Por último, en el muestreo estratificado, se
divide a la población en clases o estratos y se escoge, aleatoriamente, un número de individuos
de cada estrato proporcional al número de componentes.
A partir del muestreo, obtenemos una muestra, que, para ser representativa, debe de cumplir los
siguientes criterios:

• Las respuestas de cada individuo no pueden estar condicionadas por la de los demás.
• El tamaño muestral tiene que ser suficiente para garantizar que se cumplan las previsiones
realizadas teóricamente.
• Cualquier muestra elegida con unas mínimas condiciones, por pequeña que sea, es una
muestra representativa de la población.

63

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

el podcast para entender que la vida da mas vueltas que la silla de un peluquero
Hay que distinguir entre un valor genérico de la muestra (X1, X2, …, Xn) y el valor particular para
una muestra concreta que se elija (x1, x2, …, xn) o resultado muestral.

2. Estimación
Los objetivos principales de la estadística inferencial son la estimación de una característica
poblacional y el contraste o test de hipótesis. Sin embargo, cuando desconocemos el valor de

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
una característica se produce un problema de estimación. Por ello, la base de la inferencia son
los estimadores y sus propiedades.
Un parámetro es cualquier índice (media, varianza, proporción, etc.) calculado en una población.
En cambio, un estadístico o estimador es una función de los valores observados en una muestra
que permite estimar el valor desconocido de un parámetro o característica de la población.
La estimación es un valor numérico del estadístico calculado sobre una muestra particular. No es
lo mismo el estimador, que es variable ya que depende de la muestra, que la estimación que es un
número fijo.
Algunos ejemplos de estimadores y estimaciones son:
❖ La media de una población, μ, cuyo estimador es la media muestral.
❖ La varianza de una población, σ2, cuyo estimador es la cuasivarianza muestral, s2.
❖ La probabilidad de un suceso A, p(A), cuyo estimador es la frecuencia relativa en la
muestra, fA.
Como hemos mencionado, a partir de los estadísticos que hemos obtenido en las muestras
queremos obtener una idea de los valores de los parámetros en la población. Raramente la
estimación coincide con el parámetro, aunque si el estimador es bueno debe de cometer errores
pequeños. Es decir, se trata de utilizar el estadístico para estimar el parámetro, por lo que su valor
debe estar lo más próximo posible al del parámetro correspondiente. Por ello, el estimador debe
contar con las siguientes propiedades:
✓ Insesgado o centrado: La esperanza matemática de su distribución coincide con el valor
del parámetro. La media muestral es siempre un estimador insesgado de la media
poblacional.
✓ Consistente: Aproxima el valor del parámetro cuanto mayor es el tamaño muestral.
✓ Eficiente: Un estimador es eficiente cuando tiene varianza pequeña.
✓ Suficiente: Diremos que un estimador es suficiente cuando tiene tanta información sobre
el parámetro como la propia muestra.
No obstante, hemos de recordar que se puede producir un problema de estimación, problema que
puede ser solventado presentando un único valor como estimación del parámetro (estimación
puntual) u ofreciendo un intervalo de valores (estimación por intervalo).

3. Estimación puntual
La distribución muestral de un estadístico es la distribución de los valores obtenidos al aplicar
el estadístico a todas las posibles muestras de un mismo tamaño n, extraídas al azar de una
población conocida. Es importante conocer el valor del error aleatorio asociado al muestreo y la
forma de la distribución muestral. Ejemplos de distribución muestral son la distribución de la
media muestral, la distribución de la varianza muestral, distribución de la proporción, etc.

a. Distribución de la media en el muestreo


Sean X1, X2, …, Xn variables aleatorias independientes, entonces la varianza de la suma podrá
expresarse como la suma de las varianzas:
𝑽𝒂𝒓(𝑿𝟏 + 𝑿𝟐 + ⋯ + 𝑿𝒏 ) = 𝑽𝒂𝒓(𝑿𝟏 ) + 𝑽𝒂𝒓(𝑿𝟐 ) + ⋯ + 𝑽𝒂𝒓(𝑿𝒏 )

64

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


Cuando sea X una variable aleatoria y a una constante, entonces la variable Y = a*X tendrá una
varianza proporcional a la varianza de la variable X:

𝑽𝒂𝒓(𝒀) = 𝑽𝒂𝒓(𝒂 ∗ 𝑿) = 𝒂𝟐 ∗ 𝑽𝒂𝒓(𝑿)


Además, la suma de variables aleatorias normales sigue a su vez una distribución también normal.
Dada una variable X con E[X]=μ y Var(X)=σ2, el estimador media muestral se construye como
la suma de n variables aleatorias independientes, con media μ/n y varianza σ2/n2, por tanto:
𝑿𝟏 𝑿𝟐 𝑿𝒏
𝑿= + + ⋯+
𝒏 𝒏 𝒏
Entonces:

𝝁 𝝈𝟐 𝝈𝟐
𝑬[𝑿] = 𝒏 ∗ = 𝝁 𝒚 𝑽𝒂𝒓(𝑿) = 𝒏 ∗ 𝟐 =
𝒏 𝒏 𝒏
La desviación típica de un estimador se la denomina error estándar (EE o SE). En el caso de la
distribución muestral de la media viene dado por:
𝝈
𝑬𝑬 =
√𝒏
Cuando la variable se distribuye según una normal N(μ, σ), la media muestral tendrá distribución
N(μ, σ/√n).
En estas distribuciones se emplea el teorema central del límite, que dice que siendo X1, X2, …,
Xn variables aleatorias independientes con media μi y varianza σi2 que se distribuyen según un
determinado modelo de probabilidad cualquiera y sea la variable aleatoria Y = X1 + X2 + … + Xn,
entonces, cuando n tiende a infinito, la variable Y sigue asintóticamente una distribución normal
con:
𝒏 𝒏
𝑬[𝒀] = ∑ 𝝁𝒊 𝒚 𝑽𝒂𝒓[𝒀] = ∑ 𝝈𝟐𝒊
𝒊=𝟏 𝒊=𝟏

Por tanto, X tiende a N(μ, σ/√n) cuando n es suficientemente grande (n≥30).


En resumen, si conocemos la varianza poblacional:

En cambio, si desconocemos la varianza poblacional:

65

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
b. Distribución de la varianza en el muestreo
Dada una variable X con E[X]=μ y Var(X)=σ2, el estimador cuasivarianza muestral se construye
como:
𝟏 𝒏 𝒏
𝑺𝟐 = ∑ (𝑿𝒊 − 𝑿)𝟐 = 𝑺𝟐
𝒏 − 𝟏 𝒊=𝟏 𝒏−𝟏
Y verifica que:
❖ E(s2) = σ2
❖ Si X→N(μ, σ), entonces:

𝒏𝑺𝟐 (𝒏 − 𝟏)𝒔𝟐
= → 𝝌𝟐𝒏−𝟏
𝝈𝟐 𝝈𝟐
❖ Si X→ no Normal, entonces:

𝒏𝑺𝟐 (𝒏 − 𝟏)𝒔𝟐
= → 𝑺𝒆 𝒅𝒆𝒔𝒄𝒐𝒏𝒐𝒄𝒆 𝒄𝒐𝒎𝒐 𝒔𝒆 𝒄𝒐𝒎𝒑𝒐𝒓𝒕𝒂
𝝈𝟐 𝝈𝟐
c. Distribución de la proporción en el muestreo
Para estimar el valor exacto de una proporción en la población, π, asociada a una variable X con
distribución de Bernoulli, donde el éxito es que se presenta la característica de interés:
𝟏
𝑷= (𝑿 + 𝑿𝟐 + ⋯ + 𝑿𝒏 )
𝒏 𝟏
𝟏
𝑬[𝑷] = ∗𝒏∗𝝅=𝝅
𝒏
𝟏 𝝅(𝟏 − 𝝅)
𝑽𝒂𝒓(𝑷) = 𝒏𝝅(𝟏 − 𝝅) =
𝒏𝟐 𝒏

La proporción tenderá a una distribución normal cuando n es suficientemente grande (n*π≥5 y


n*(1-π)≥5).

4. Estimación por intervalo


El intervalo de confianza consiste en acotar el valor del parámetro en un intervalo de valores. El
intervalo se construye a partir del comportamiento del estimador y del coeficiente de confianza
(1-α) que fija la proporción de intervalos que contienen el verdadero valor del parámetro. Este
suele tomar de valores usuales 0,99; 0,95 y 0,90.

66

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


En general, la longitud del intervalo disminuye a mayor tamaño muestral y aumenta a mayor
coeficiente de confianza. En la estimación obtenida, no se sabe si el parámetro está en el intervalo,
pero si 1-α es grande la mayoría lo contendrá.
Para calcular un intervalo de confianza para una normal N(0,1), seleccionamos dos puntos
simétricos sobre la distribución, -zα/2 y zα/2, tales que P(-zα/ 2≤ N(0,1) ≤ zα/2) = 1-α.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Si sustituimos la normal N(0,1) y despejamos, nos queda el intervalo de confianza:
𝝈 𝝈
𝑷 (𝒙 − 𝒛𝜶 ≤ 𝝁 ≤ 𝒙 + 𝒛𝜶 )=𝟏−𝜶
𝟐 √𝒏 𝟐 √𝒏
Si la varianza poblacional es desconocida y la variable es normal, esta tenderá a una distribución
t de Student de n-1 grados de libertad. Por ello, el intervalo de confianza será:
𝒔 𝒔
𝑷 (𝑿 − 𝒕𝒏−𝟏,𝜶 ≤ 𝝁 ≤ 𝑿 + 𝒕𝒏−𝟏,𝜶 )= 𝟏−𝜶
𝟐 √𝒏 𝟐 √𝒏
Cuando n es igual o superior a 30, se puede sustituir t por z sin cometer mucho error.
En el caso de una proporción, el intervalo de confianza con P=X/n es el siguiente:

𝝅(𝟏 − 𝝅) 𝝅(𝟏 − 𝝅)
𝑷 (𝑷 − 𝒛𝜶 √ ≤ 𝝅 ≤ 𝑷 + 𝒛𝜶 √ )=𝟏−𝜶
𝟐 𝒏 𝟐 𝒏

Si n es grande se puede aproximar, y, en cualquier caso, como π(1-π) ≤ 0,25, un intervalo


conservador se obtendría a partir de:

𝟎, 𝟐𝟓 𝟎, 𝟐𝟓
𝑷 (𝑷 − 𝒛𝜶 √ ≤ 𝝅 ≤ 𝑷 + 𝒛𝜶 √ )≥𝟏−𝜶
𝟐 𝒏 𝟐 𝒏

No se puede decir que la probabilidad de que el parámetro esté dentro del intervalo concreto
obtenido es de un 95%, sino que lo correcto es decir que el intervalo que contiene el parámetro
de una distribución binomial con una confianza del 95%. Es incorrecto decir que la probabilidad
de que el parámetro esté dentro del intervalo es del 95%.
La precisión de los intervalos guarda una relación inversa con su amplitud, es decir, a mayor
amplitud menor precisión. La amplitud está afectada por:
❖ Tamaño de la muestra: Las muestras más grandes darán intervalos estrechos o precisos,
mientras que resulta arriesgado tomar decisiones basados en trabajos con muestras
pequeñas.
❖ La variabilidad de las características estudiadas, ya que a menor variabilidad mayor será
la precisión.
❖ El nivel de confianza, ya que, a menor confiabilidad, mayor precisión, pero mayor
probabilidad de que no incluya al parámetro.

67

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


Tema 20: Contraste de hipótesis
1. Fundamentos y metodología de los contrastes de hipótesis
Una hipótesis estadística es una proposición acerca del modelo probabilístico que sigue la
población en el estudio. Las hipótesis estadísticas se dividen en hipótesis nula, H0, que es la
hipótesis formulada inicialmente y en hipótesis alternativa, H1, que es la negación de la hipótesis

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
nula. También podemos clasificar las hipótesis estadísticas en:
➢ Hipótesis paramétricas: Si hacen referencia al parámetro.
➢ Hipótesis no paramétricas: Si no hacen referencia al parámetro.
El objetivo es contrastar la hipótesis, que es decidir si es compatible con lo observado en la
muestra. Por ello, la hipótesis nula se rechaza si se observa una gran evidencia en contra, y no se
rechaza en caso contrario, aunque nunca se concluye que sea cierta. En el caso de la hipótesis
alternativa, nunca debería de ser aceptada sin una gran evidencia a favor.
Respecto a las hipótesis paramétricas, consideramos que una hipótesis es simple cuando solo
asigna un valor para el parámetro, mientras que es compuesta cuando hay más de un valor para
el parámetro. Por ello, H0 y H1 pueden ser las dos simples, una compuesta y otra simple o las dos
compuestas.
Por ejemplo, si tratamos de decidir entre la opción de que un nuevo fármaco es eficaz o la opción
de que no lo es, lo razonable es poner como hipótesis nula que el fármaco no es eficaz, ya que,
haciendo esto, nuestra actitud equivale a decir que, a menos de que vea claramente que es eficaz,
no voy a aceptarlo.
Para el contraste de hipótesis, lo primero que hacemos es construir una partición, dividiendo
muestra en región crítica (RC), que es la región de rechazo de la hipótesis formulada, y en región
de aceptación, que es la región de no rechazo. Para determinar si se rechaza o no la hipótesis, se
utiliza un estadístico de prueba, que es un valor obtenido a partir de la información muestral y
que comprueba en qué región se encuentra la muestra.
Cuando realizamos el contraste de hipótesis, se cometen errores. Hay dos tipos de errores:

• Error de tipo I: Consiste en rechazar la hipótesis nula cuando es cierta.


• Error de tipo II: Consiste en no rechazar la hipótesis nula cuando es falsa.
Los errores se pueden medir, siendo una de estas herramientas el nivel de significación (α) que
es la probabilidad de cometer un error de tipo I. En cambio, β es la probabilidad de cometer un
error de tipo II. La potencia es la resta de 1 menos β.
No se pueden minimizar α y β a la vez, salvo que aumentemos el tamaño muestral, por lo que se
le da más importancia al error de tipo I. Por ello, se limita α a un valor próximo a 0 y se minimiza
β.
Tras esto, se aplica la regla de decisión que dice que, fijada la región crítica, se rechaza la
hipótesis nula si la muestra se encuentra en ella, con una probabilidad de equivocarnos de α. Por
tanto, la fuerza del rechazo será mayor cuanto menor sea α.
Cuando se decide rechazar o no la hipótesis nula, siempre debe indicarse el nivel de significación
empleado. La subjetividad del nivel de significación se mide a través del p-valor o nivel crítico,
que es el menor α a partir del cual la hipótesis nula comienza a ser rechazada. El problema que
tiene el p-valor es que depende del tamaño muestral.
Distinguimos dos tipos de contrastes:

68

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

si lees esto me debes un besito


❖ Contraste bilateral o de 2 colas: En la hipótesis alternativa aparece el signo ≠.

❖ Contraste unilateral o de 1 cola: En la hipótesis alternativa aparece el signo < o el signo


>.

Para realizar el contraste de hipótesis, es innecesario determinar el intervalo de confianza ya que


se puede aplicar el test directamente sobre el estimador que permite la construcción del intervalo.
También, en todos los casos, el nivel de significación es α para el intervalo cuyo coeficiente de
confianza es 1-α.
Los contrastes más usuales son:
Contrastes sobre medias
Contrastes sobre proporciones
Prueba chi-cuadrado para tablas de contingencia
Contrastes no paramétricas
En resumen, los pasos a seguir para el contraste de hipótesis son los siguientes:
1) Establecer la hipótesis nula en términos de igualdad. → θ = θ0
2) Establecer la hipótesis alternativa, que puede hacerse de tres maneras dependiendo del
interés del investigador: contraste bilateral y los dos contrastes unilaterales.
3) Elegir un nivel de significación.
4) Elegir un estadístico de contraste, con distribución muestral conocida en H0 y
relacionado con θ y establecer la región crítica.
5) Calcular el valor del estadístico para una muestra y compararlo con la región crítica.
6) Comparar el p-valor con α y decidir si rechazamos o no la H0.
La región crítica se construye siempre suponiendo que la hipótesis nula es cierta. Trata de buscar
discrepancias con la hipótesis nula por lo que en ella están valores poco probables bajo H0,
aunque pueden ocurrir. Se construye siempre antes de tener los resultados experimentales y su
“forma” tiene en cuenta la hipótesis alternativa.
El nivel de significación es la probabilidad de la región crítica bajo la hipótesis nula, por lo que
fija la probabilidad de cometer error de tipo I. Es un valor pequeño (0,10; 0,05; 0,01) y lo fija el
investigador. Se dice que un resultado muestral es significativo al nivel α si conduce a un valor
de la región crítica, y, por tanto, lleva la rechazo de la hipótesis nula.
El p-valor sirve para medir la compatibilidad del resultado muestral con la hipótesis nula y se
calcula siempre después de tener los datos muestrales. Si el p-valor es alto, no se rechaza la
hipótesis nula, pero si es bajo (que sea menor que el nivel de significación), el resultado es

69

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
significativo al nivel α. Concretamente, el p-valor es la probabilidad de obtener bajo la hipótesis
nula un resultado al menos tan extremo como el obtenido en los datos.

2. Contrastes sobre medias y proporciones más usuales

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Equivalentemente, comprobaremos si el p-valor es menor o mayor que α.

Equivalentemente, compararemos al p-valor con α.

70

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

el podcast para entender que la vida da mas vueltas que la silla de un peluquero
3. Test chi-cuadrado para tablas de contingencia
En una tabla tal que:

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Planteamos la hipótesis nula en la que el factor y el efecto son independientes, mientras que
planteamos una hipótesis alternativa donde el factor y el efecto están relacionados.

Los g.l. en una tabla 2x2 son 1. Esto se puede generalizar a tablas FxC y los grados de libertad
son (F-1) x (C-1). Cuando nos encontramos con una muestra pequeña, empleamos el test exacto
de Fisher, que también permite analizar si dos variables dicotómicas están asociadas.

4. Otros test
Algunos test diseñados para comprobar la normalidad de una muestras son el test de Shapiro-
Wilk y el test de Kolmogórov-Smirnov, con la corrección de Lilliefors. Son test de hipótesis y
dan como resultado final un p-valor o de significación estadística. Son pruebas que calculan cual
sería la probabilidad de encontrar esta distribución de datos si en la población de la que procede
la muestra, esa variable siguiese una distribución normal perfecta.
En estos test, la hipótesis nula es que la muestra proviene de una población con distribución
normal. Si el p-valor es mayor que α no habrá evidencias para rechazar la hipótesis nula y se
puede asumir que la muestra procede de una población que sigue una normal. No obstante, si es
menor, habrá dificultad para asumir la normalidad, pero no se rechaza, ya que se pueden usar test
paramétricos. Además, recurrimos a la observación en histogramas para decidir la continuidad.
El test de Kolmogórov-Smirnov es más potente para muestras grandes, mientras que el test de
Shapiro-Wilk es recomendable para muestras con n menor o igual a 50.

71

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

el podcast para entender que la vida da mas vueltas que la silla de un peluquero
Cuando realizamos contrastes con 2 muestras nos hemos de preguntar por el tipo de variables que
estudiamos en las muestras. Dependiendo de si son independientes o dependientes las muestras
emplearemos distintas pruebas estadísticas:
➢ Con muestras independientes:

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
➢ Con muestras dependientes:

Las pruebas paramétricas tienen más potencia estadística que las no paramétricas, sin embargo,
para emplearlas hay que cumplir una serie de requisitos:
✓ Las variables cuantitativas tienen que ser continuas.
✓ Los estimadores deben seguir una distribución normal.
✓ Debe de haber homogeneidad de las varianzas muestrales.
✓ El tamaño muestral debe de ser mayor que 30.
En cambio, las pruebas no paramétricas no exigen que las variables cuantitativas sean continuas
y pueden seguir una distribución libre. Permiten la heterogeneidad de las varianzas muestrales y
el tamaño muestral puede ser menor que 30. El problema que tienen es que presentan un menor
poder estadístico que los test paramétricos.

72

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-8756831

el podcast para entender que la vida da mas vueltas que la silla de un peluquero

También podría gustarte