Está en la página 1de 5

Tarea 2.

1 Resumen del método estadístico

MÉTODOS ESTADÍSTICOS

La estadística es un método de razonamiento que se utiliza para interpretar datos mediante la


adición. En la práctica médica, la estadística se usa cada vez más en diversas formas, como en
estudios de investigación, estadísticas de actividad de hospitales y resultados de auditorías. La
estadística en la investigación tiene como objetivo utilizar datos obtenidos de una muestra de sujetos
para realizar inferencias para una población válida más amplia de individuos de características
similares. La validez y utilidad de estas inferencias depende de cómo se ha diseñado y ejecutado el
estudio. La estadística descriptiva comprende la organización, presentación y síntesis de datos de
manera científica, mientras que la inferencia estadística se basa en las bases lógicas para
fundamentar conclusiones relacionadas con poblaciones a partir de resultados obtenidos en
muestras. Las técnicas estadísticas pueden utilizarse para confirmar hipótesis de trabajo o bien para
explorar conjuntos de datos sin hipótesis previas. Para los propósitos del capítulo, se consideran dos
tipos principales de estudio: aquellos que buscan estimar un parámetro a partir de observaciones
obtenidas en una muestra y aquellos que contrastan hipótesis mediante la comparación de dos o
más grupos.

ESTUDIOS DE ESTIMACIÓN DE UN PARÁMETRO

Principio de representatividad

La estadística emplea los términos población y muestra para referir a todos los posibles casos de
una variable y un subconjunto de casos específicos, respectivamente. Es más eficiente estudiar una
muestra que una población completa, siempre y cuando la muestra sea representativa y tenga un
tamaño adecuado. En estudio cualquier se considera tres niveles de población: la población diana, la
población de estudio y la muestra real estudiada. La validez de las conclusiones de un estudio
depende de cómo se haya diseñado y si la muestra es representativa, y la capacidad para
generalizar los resultados depende de las diferencias entre las poblaciones estudiadas. La
representatividad de la muestra es un principio clave para la validez interna del estudio.

Intervalo de confianza

En estadística, el intervalo de confianza (IC) es un rango de valores dentro del cual se espera que
se encuentre el verdadero valor de un parámetro poblacional, como la media o la proporción, con
cierto nivel de confianza. El IC se basa en una muestra aleatoria de la población de interés y se
calcula utilizando el estadístico muestral, como la media o la proporción muestral, junto con la
distribución de probabilidad asociada.

Un IC típico se escribe como [Límite Inferior, Límite Superior], donde los límites son los valores más
bajos y más altos del intervalo, respectivamente. El nivel de confianza se define como la probabilidad
de que el verdadero valor del parámetro se encuentre dentro del intervalo. Por ejemplo, si se usa un
nivel de confianza del 95%, se espera que el verdadero valor del parámetro se encuentre dentro del
intervalo en el 95% de las muestras repetidas.
El ancho del IC se ve afectado por varios factores, como el tamaño de la muestra, la varianza de la
población, el nivel de confianza y la distribución de probabilidad subyacente. Un IC más estrecho
indica una mayor precisión en la estimación del parámetro poblacional.

Es importante tener en cuenta que el IC solo proporciona información sobre la precisión de la


estimación del parámetro poblacional y no indica nada sobre la exactitud de la medida. La exactitud
depende de la calidad del demostrado y la medición, así como de la ausencia de sesgos o errores
sistemáticos en el estudio.

Tamaño de muestra

El tamaño de muestra en un estudio es importante para obtener resultados precisos y económicos.


El número de sujetos necesarios depende de la variabilidad del parámetro, la precisión deseada y el
nivel de confianza. Es importante conocer la variabilidad del parámetro, mientras que la precisión y el
nivel de confianza son determinados por los intereses del investigador. Un tamaño de muestra
insuficiente resulta en una estimación poco precisa, mientras que un tamaño excesivo encarece el
estudio. El nivel de confianza determina la probabilidad de que el valor verdadero del parámetro se
encuentre dentro del intervalo de confianza.

Estimación de una proporción

La estimación de una proporción requiere conocer la precisión deseada, el nivel de confianza y la


variabilidad del parámetro que se desea estimar. Para calcular el tamaño de muestra necesario, se
utiliza una fórmula que relaciona estos factores. Es importante evitar la manipulación del cálculo para
evitar una disminución en la precisión y un aumento en la amplitud del intervalo de confianza. La
estrategia de análisis y la presentación de los resultados también pueden afectar el tamaño de
muestra necesario. En casos en que no se conoce el valor aproximado del parámetro, se puede
utilizar la postura de máxima indeterminación, suponiendo que la proporción se sitúa en torno al
50%.

Estimación de una media

Para estimar una proporción o una media en un estudio. Para estimar una proporción, se utiliza la
fórmula N = (Z2•P·(l-P))/i2, donde N es el número de sujetos necesarios, Z es el valor
correspondiente al riesgo fijado, P es el valor de la proporción que se supone existe en la población y
i es la precisión con que se desea estimar el parámetro. Para estimar una media, se utiliza la fórmula
N = (z2,s2)/i2, donde s2 es la varianza de la distribución de la variable cuantitativa que se supone
que existe en la población. También se mencionan ejemplos de cálculos para estimar una proporción
y una media.

Corrección para poblaciones finitas

 La fórmula utilizada para calcular el número de sujetos necesarios para realizar un estudio y estimar
una media o una proporción. Para estimar una media, se utiliza la varianza de la distribución de la
variable en la población, mientras que para estimar una proporción, se utiliza el valor de la
proporción supuesta en la población. Sin embargo, en algunos casos, el tamaño de la población
puede ser finito y para ajustar el número de sujetos necesarios en función del tamaño de la
población, se utiliza una fórmula que tiene en cuenta este factor. Puede aplicarse la siguiente fórmula
que ajusta el número de sujetos necesarios en función del tamaño de la población:
na =-- nn

l+-

Corrección según el porcentaje esperado de no respuestas

fórmula Na:::: N-(1/(1-R))

Es necesario ajustar el número de sujetos necesarios en función del porcentaje esperado de no


respuestas para garantizar que se obtenga la información necesaria. Se utiliza una fórmula que
incluye el número teórico de sujetos (N), el número ajustado de sujetos (Na) y la proporción
esperada de no respuestas (R). Aunque esta fórmula mantiene la potencia estadística deseada, no
evita posibles sesgos si las no respuestas no se producen al azar. En un ejemplo, si se espera un
20% de no respuestas en un estudio de 300 sujetos, se necesitarían 375 sujetos para mantener la
potencia estadística deseada.

Muestra

Para garantizar la representatividad de una muestra. Se recomienda utilizar una técnica de


muestreo adecuada que aumente la probabilidad de obtener una muestra representativa. El
muestreo probabilístico se define como un proceso de selección en el que todos los individuos
candidatos tienen una probabilidad conocida, distinta de cero, de ser incluidos en la muestra,
utilizando alguna forma de selección aleatoria para obtener las unidades que serán estudiadas.
Aunque este método tiende a asegurar que se obtendrá una muestra representativa, también puede
ocurrir que no sea así, especialmente si la población y la muestra son de pequeño tamaño. La
unidad de muestreo es el elemento sobre el que se aplica la técnica de selección, ya sea una
persona, un servicio o un hospital. En las técnicas probabilísticas, la selección de las unidades se
realiza al azar, evitando la posible parcialidad de los investigadores. En el muestreo aleatorio simple,
se prepara una lista de las unidades de muestreo y se seleccionan tantos números aleatorios como
elementos debe tener la muestra.

ESTUDIOS DE CONTRASTE DE HIPÓTESIS

Principio de comparabilidad

El principio de comparabilidad es esencial en los estudios analíticos, ya que los grupos deben ser
comparables en todos los factores pronósticos y la información debe obtenerse de la misma manera
en todos ellos para poder atribuir las diferencias en los resultados observados al factor en estudio. El
grupo control debe ser comparable al grupo de estudio en todas las variables que puedan influir en la
respuesta o su medición para aislar el efecto del factor de estudio. El proceso de formación de
grupos depende del tipo de estudio: observacionales y experimentales. En los diseños
observacionales, los grupos se forman en función de la existencia de la enfermedad o exposición,
mientras que en los experimentales, se asignan aleatoriamente.

Inferencia estadística
La inferencia estadística se aplica comúnmente en la investigación médica a través de las pruebas
de contraste de hipótesis o de significación estadística. Estas pruebas son utilizadas para comparar
dos tratamientos y determinar cuál es más eficaz en el control de las cifras tensionales en pacientes
hipertensos. Se realiza un ensayo clínico controlado y se distribuye aleatoriamente una muestra de
pacientes en dos grupos, cada uno recibe uno de los tratamientos. Después de tres meses, se
compara el porcentaje de individuos controlados en cada grupo para determinar si la diferencia
observada es debida al azar o no.

Hipotesis nula e hipotesis altemativa

el proceso de contrastar estadísticamente una hipótesis nula (Ho) y una hipótesis alternativa (Ha)
mediante una prueba de significación estadística. La Ho es la hipótesis de que no existen diferencias
entre dos grupos y la Ha es la hipótesis de que sí existen diferencias entre ellos. La probabilidad de
que los resultados observados sean debidos al azar, si la Ho es cierta, se representa con la letra p y
se fija previamente el nivel de significación estadística en 0,05. Si el valor de p es mayor que 0,05, no
se puede rechazar la Ho y se concluye que no hay diferencias significativas entre los grupos. Si el
valor de p es menor que 0,05, se puede rechazar la Ho y se concluye que hay diferencias
significativas entre los grupos. La p no mide la fuerza de la asociación, solo indica la probabilidad de
que los resultados sean debidos al azar. Un valor p de 0,048 es estadísticamente significativo al nivel
del 5%, pero uno de 0,052 no lo es, aunque la probabilidad de observar el resultado por azar es
prácticamente la misma.

Pruebas unilaterales y pruebas bilaterales

La diferencia entre pruebas unilaterales y pruebas bilaterales en el contexto de la evaluación de


tratamientos. Mientras que las pruebas bilaterales buscan determinar si existen diferencias entre dos
tratamientos, las pruebas unilaterales buscan evaluar si un tratamiento es mejor que otro. En las
pruebas unilaterales, la hipótesis alternativa es que un tratamiento es mejor que otro, lo que afecta el
grado de significación del resultado. La distribución de Z sigue la ley normal y es simétrica, pero en
las pruebas unilaterales, el verdadero valor de p es la mitad del valor a, ya que solo se está
interesado en uno de los extremos de la distribución.

Error a. y error

En estadística siempre existe un riesgo de equivocarse al tomar una decisión sobre la hipótesis
nula, lo que se conoce como error. Si se rechaza la hipótesis nula y esta es verdadera, se comete un
error tipo I o error a, lo que equivale a un falso positivo en una prueba diagnóstica. Si no se puede
rechazar la hipótesis nula y esta es falsa, se comete un error tipo II, lo que equivale a un falso
negativo en una prueba diagnóstica. El grado de significación estadística, medido por el valor de p,
mide la probabilidad de cometer un error tipo I. El poder estadístico, medido por el complementario
de p, indica la capacidad de la prueba para detectar una diferencia real. Cuanto mayor sea la
diferencia y el tamaño de la muestra, mayor será el poder estadístico y menor será la probabilidad de
cometer un error tipo II.

Diferencia estadisticamente significa­tiva o clinicamente relevante

Un resultado estadísticamente significativo no siempre implica una relevancia clínica. El valor de p no


mide la fuerza de la asociación, y puede obtenerse un resultado estadísticamente significativo
simplemente aumentando el tamaño de la muestra. La diferencia clínicamente relevante depende de
factores como la magnitud de la diferencia, la frecuencia y gravedad de los efectos secundarios, la
facilidad de administración o el costo económico, especialmente cuando se comparan la eficacia de
dos fármacos.

Eleccion de la prueba estadistica

La elección de la prueba estadística depende de la escala de medida de la variable de respuesta y


del factor de estudio, así como de si los datos son apareados o independientes. Además, se deben
considerar las condiciones de aplicación específicas de cada prueba. Las pruebas paramétricas
utilizan datos cuantitativos y hacen suposiciones sobre la distribución de las variables en las
poblaciones, mientras que las pruebas no paramétricas no requieren estas suposiciones. La prueba
adecuada depende de la situación específica, pero algunas pruebas comunes incluyen la ji al
cuadrado para variables cualitativas, la t de Student-Fisher o U de Mann-Whitney para comparar dos
grupos cuantitativos, ANOVA para comparar más de dos grupos cuantitativos, y la correlación de
Pearson o Spearman para determinar la posible asociación entre un factor de estudio y una variable
de respuesta cuantitativos.

Tamaño de la muestra

Para calcular el tamaño de la muestra necesario para comparar dos grupos en un estudio. Para ello,
se deben establecer la hipótesis a contrastar, el riesgo de error aceptable, la magnitud de la
diferencia que se desea detectar, y la variabilidad de la variable de respuesta en la población. Se
presenta un ejemplo en el que se quiere determinar si un nuevo tratamiento es más efectivo que el
tratamiento estándar para sobreinfecciones respiratorias. Los investigadores establecen que si el
nuevo tratamiento cura al menos al 50% de los pacientes, se aceptará como la elección terapéutica.
Aplicando la fórmula correspondiente, se calcula que se necesitan 387 sujetos por grupo de estudio
para tener un 80% de probabilidad de detectar una diferencia igual o superior a la fijada, con un nivel
de error del 5%. Es importante tener en cuenta el número de perdidas de seguimiento y abandonos
previstos durante el estudio.

Amilisis multivariante

El análisis multivariante es utilizado para considerar la influencia de más de dos variables


simultáneamente en un modelo matemático complejo. En investigación clínica y epidemiológica, las
técnicas más utilizadas son aquellas que analizan la relación entre una variable dependiente y un
grupo de variables independientes. La elección del modelo dependerá del diseño del estudio y de las
variables incluidas en el modelo. Las técnicas más utilizadas son la regresión lineal múltiple para
variables cuantitativas y la regresión logística para variables dicotómicas.

También podría gustarte