Está en la página 1de 74

Estadística Inferencial

1 Introducción
Este tema delimita los contenidos del primer cuatrimestre
de los contenidos del segundo cuatrimestre. También diferencia los
dos núcleos temáticos más importantes de la materia: Descriptivo e
inferencial. La validez de las conclusiones obtenidas con
procedimientos descriptivos se limita al conjunto de individuos de los
que se ha obtenido los datos, pero no incluye a los individuos que no
han formado parte de la investigación, y generalmente estamos
interesados en generalizar los resultados y conclusiones obtenidos
con unos (pocos) individuos a la población. Dicho de otra forma, la
finalidad de la Inferencia estadística es obtener información sobre
características desconocidas de las poblaciones (generalmente
cuantificadas por parámetros) a partir de características conocidas de
las muestras (generalmente cuantificadas por estadísticos). Incluir
poblaciones completas de individuos en la investigación suele ser
impracticable, y por ello se suele trabajar con grupos pequeños
generalizando los resultados mediante las técnicas de Estadística
Inferencial. Como ejemplo, supongamos que deseamos probar la
eficacia de un tratamiento para un trastorno del comportamiento,
para lo cual comparamos su efecto en un grupo de pacientes con el
de otro tratamiento en otro grupo de pacientes. El análisis descriptivo
de los resultados obtenidos solo es válido para los individuos de los
grupos comparados, y si queremos saber si el nuevo tratamiento es
mejor para cualquier paciente, no solo para los que han intervenido
en la prueba, hay que utilizar procedimientos inferenciales.

Concepto de inferencia: Inferir es deducir a partir de la evidencia. La


inferencia informal es imprecisa, y el objeto de la Estadística
Inferencial es aportar mayor precisión a la obtención de
conocimiento. El objeto de la Estadística Inferencial es deducir
características de las poblaciones a partir de la evidencia obtenida en
las muestras.

Ejemplo

Quieren saber el valor de la Media en "Análisis y Procesamiento de


Datos" en el curso 2004/5. Registran las calificaciones del curso y
obtienen que la Media es igual a 5.14 (resultados ficticios).
Si no disponemos de todas las calificaciones no podemos obtener la
Media del curso, pero podemos obtener una muestra seleccionando
cierto número de puntuaciones, por ejemplo 100. Lo hacemos y
obtenemos que la Media de la muestra es igual a 4.88, que es un
resultado parecido al obtenido con todos los datos, pero no
exactamente igual.

Prestemos atención a esta diferencia. Si los datos de la muestra


fueran exactamente representativos de los del curso completo, la
Media obtenida en la muestra tendría el mismo valor que la Media del
curso. El problema es que esto no suele ocurrir, circunstancias
aleatorias hacen que las puntuaciones seleccionadas en las muestras
sean más o menos diferentes a las del curso completo. Cuando
trabajamos con datos reales y calculamos estadísticos de muestras no
sabemos si el valor obtenido es más o menos semejante al que
obtendríamos con todos los datos.

2 Muestreo
2.1 Introducción

Se denomina muestreo al proceso por el que generamos las


muestras. Una muestra es una parte (un subconjunto) de la
población, y se desea que la muestra sea lo más representativa
posible de la población de la que procede. Sin embargo, por muy
cuidadosa que sea la selección de la muestra difícilmente será una
representación exacta de la población. Esto significa que su tendencia
central, variabilidad, etc., aproximarán las de la población, pero habrá
cierta diferencia, que interesa sea lo menor posible. Un concepto
clave de muestreo es el de representatividad: Los procedimientos
de muestreo tienen por objeto generar muestras lo más
representativas posible de las poblaciones dados los objetivos de la
investigación y las circunstancias que afectan al muestreo.

Desde un punto de vista aplicado, se denomina muestreo el proceso


de selección de la muestra o muestras a utilizar para la investigación.
Esto supone generar una o pocas muestras. Actualmente es de
interés la selección de muestras para la simulación informática de los
procesos de muestreo, particularmente para la obtención de
distribuciones muestrales. En estos casos el número de muestras
generadas puede ser muy grande (10.000, 80.000, o más) y el
procedimiento de muestreo se realiza informáticamente y con
procedimientos específicos.
Desde un punto de vista teórico, el concepto de muestreo es
fundamental para la Inferencia Estadística. El hecho de que las
muestras no sean exactamente representativas de las poblaciones
significa que las inferencias presentan cierto margen de
incertidumbre. Para cuantificarlo y definir técnicas inferenciales es
necesario conocer cómo se comportan los estadísticos obtenidos en
las muestras, esto es, cómo son las distribuciones muestrales de los
estadísticos habitualmente utilizados para la inferencia.

Las muestras singulares generadas para investigación con sujetos


suelen utilizarse para obtener algunos estadísticos (Media,
proporción, cuasi-varianza, etc.) con los que se realiza el proceso de
inferencia. En cambio, las muestras simuladas por ordenador suelen
ser utilizadas para obtener distribuciones muestrales y realizar
inferencia. Esto es de interés cuando se dan circunstancias especiales
que no aconsejan utilizar los procedimientos habituales. Las
distribuciones muestrales son las distribuciones de estadísticos de
muestras que pertenecen a la misma población. Por ejemplo, la
distribución muestral de la Media es la distribución de las Medias de
muestras de un mismo tamaño extraídas de la misma población.

Ejemplo

Sea un curso con 40 estudiantes (el número de datos es pequeño


para facilitar la comprensión del ejemplo). Queremos conocer la
Media de las puntuaciones del curso, pero por diversas razones no
tenemos acceso a todos los datos (que se denomina población). Pero
supongamos que podemos seleccionar cinco puntuaciones
aleatoriamente y obtener la Media de la muestra. Si repetimos el
proceso y generamos más muestras tendremos más Medias
muestrales y podremos ver cómo se distribuyen:

La Media de los datos seleccionados aleatoriamente (son las


señaladas en negrita) es:

Si repetimos el procedimiento 25 veces generamos 25 muestras. Las


Medias de cada muestra son:
El Histograma de la distribución de las Medias de las 25 muestras es

con 100 muestras,

y con 1000 muestras

La forma del Histograma se acerca a la del modelo Normal cuanto


mayor es el número de muestras. Esta es una característica de la
distribución muestral de Medias que permite conocer si la media
obtenida en la muestra es muy diferente a la media de la población,
dado que tenemos la siguiente información:

a) La distribución de Medias muestrales es Normal.

b) La Media y Desviación Típica de la distribución de Medias


muestrales son 4.7 y 1.52 (Nota: La diferencia entre la Media de la
distribución muestral y la Media de la población se debe a que la
muestra es pequeña).
e) Por tanto, sabemos lo siguiente:

* El 95% (aproximadamente) de las Medias muestrales obtenidas en


el muestreo del ejemplo tienen valores entre 1.7 y 7.7

* El valor obtenido (4.2) está entre ambos límites, que definen el


conjunto de valores que obtenemos al hacer un muestreo aleatorio
con muestras de 5 datos de la población del ejemplo.

* Como conclusión, vemos que 4.2 es un valor esperable cuando


efectuamos un muestreo aleatorio con muestras de 5 datos. Diremos
que la diferencia observada respeto de la Media del curso es explicada
por el azar (ya que la selección de las muestras ha sido aleatoria y
asumimos que no han influido otros factores).

2.2 Principales tipos de muestreo


Aleatorio: Todos los elementos de la población son seleccionado al
azar.

Aleatorio con reposición: Los elementos seleccionados vuelven a


formar parte del conjunto del que hacemos el muestreo. Es a decir,
pueden volver a ser seleccionados.

Aleatorio sin reposición: Una vez seleccionado un elemento no puede


volver a ser seleccionado.

Aleatorio estratificado: La población se divide en subconjuntos


(estratos), en cada uno de los cuales se lleva a cabo el muestreo de
elementos.

Aleatorio por conglomerados. La población se divide en subconjuntos


(conglomerados), que son seleccionados aleatoriamente. Los
componentes de los conglomerados seleccionados constituyen la
muestra.

Aleatorio sistemático. Se selecciona aleatoriamente la posición de un


componente de la lista (k). A continuación seleccionamos los
componentes que ocupan los lugares siguientes de acuerdo a una
regla (para ejemplo, los que ocupan los lugares k+10, k+20, k+30,
etc.)
3 Media, Varianza y proporción
(http://www.uv.es/webgid/Inferencial/3_media_varianza_y_proporcin.html)

Algunas distribuciones muestrales son de interés particular, como la


de la Media. En este punto se introduce las distribuciones muestrales
de la Media, Varianza y proporción. Más adelante se introducirá otras
distribuciones.

a) Media
La distribución muestral de la Media depende de varios circunstancias
como la distribución de la población de la que se extrae las muestras:

1) La población se distribuye según el modelo Normal. La distribución


de Medias muestrales sigue el modelo Normal, con parámetros mu y
sigma

donde sigma al cuadrado y n son la Varianza de la distribución


poblacional y el tamaño de la muestra respectivamente.

2) La población no sigue la distribución Normal. En este caso la


distribución de Medias muestrales se acerca al modelo Normal (con
los mismos parámetros que hemos visto al apartado a) cuanto mayor
sea el tamaño de la muestra.

Algunas características de la distribución muestral de la Media

1) La variación de la distribución muestral es menor cuanto mayor


sea n (tamaño de la muestra) siempre que la Varianza de la población
sea la misma.

Explicación: La fórmula de la Varianza de la distribución muestral de


la Media es:

cuanto mayor es el denominador (n), más pequeño es el valor del


término a la izquierda del "igual".

Ejemplo
A continuación se presenta las Varianzas y los Histogramas de tres
distribuciones muestrales de la Media (número de muestras=100) en
que los tamaños de las muestras son n=25, n= 100 y n=1000.

n=25

Varianza= 0.43

n=100

Varianza= 0.11

n= 1000

Varianza= 0.01

Los valores de la Varianza de la distribución de Medias muestrales son


inferiores y la dispersión observada en los Histogramas (ver en el eje
horizontal que la amplitud de la variable disminuye) cuanto mayor es
n.

2) Cuando la distribución de Medias muestrales aproxima la


distribución Normal, podemos obtener probabilidades de las Medias
muestrales.
Ejemplo

Si obtenemos una Media muestral igual a 6, y sabemos que la


distribución muestral es Normal(5,2) -el 5 es la media y el 2 la
Desviación Típica de la distribución muestral- la probabilidad de
obtener puntuaciones iguales o inferiores a 6 es

La probabilidad de obtener valores iguales o inferiores a 0.5 en una


distribución Normal es 0.69 (consultar tablas o funciones de
probabilidad de la distribución Normal).

b) Varianza
La distribución muestral del estimador de la Varianza, (la
Cuasivarianza) es:

Donde n es el número de grados de libertad.

c) Proporción
La distribución de p aproxima la distribución Normal con parámetros

si el producto np es mayor que 5.

Ejemplo

La distribución muestral de la proporción de "suspenso" en un


muestreo aleatorio en que el número de muestras es igual a 10000,
el tamaño de la muestra es igual a 20 y la probabilidad de obtener
"suspenso" es igual 0.3 es
A recordar

Muestra: Subconjunto de la población.

Distribución muestral: Distribución del estadístico obtenido en las


muestras.

Parámetro: Característica de la población.

N: Tamaño de la población.

n: Tamaño de la muestra.

Diferenciación de los símbolos de la muestra, población y distribución


muestral:

Muestreo: Proceso de selección de las muestras

Las distribuciones muestrales aparecen de forma completa (un


número muy grande de muestras) en los textos para mostrar con
mayor claridad sus características, pero hay que tener en cuenta que
cuando se trabaja con datos reales, generalmente se dispone de UNA
suela muestra.

El muestreo tiene como finalidad obtener muestras lo más


representativas posibles de la población.

El conocimiento de la distribución muestral del estadístico permite


cuantificar la probabilidad de obtener valores particulares del
estadístico.

4 Estimación puntual

La estimación de parámetros tiene por finalidad asignar valores a los


parámetros poblacionales a partir de los estadísticos obtenidos en las
muestras. Dicho de otra manera, la finalidad de la estimación de
parámetros es caracterizar las poblaciones a partir de la información
de las muestras (por ejemplo, inferir el valor de la Media de la
población a partir de los datos de la muestra).
5 Estimación por intervalos

La estimación por intervalos consiste en establecer el intervalo de


valores donde es más probable se encuentre el parámetro. La
obtención del intervalo se basa en las siguientes consideraciones:

a) Si conocemos la distribución muestral del estimador podemos


obtener las probabilidades de ocurrencia de los estadísticos
muestrales.

b) Si conociéramos el valor del parámetro poblacional, podríamos


establecer la probabilidad de que el estimador se halle dentro de los
intervalos de la distribución muestral.

c) El problema es que el parámetro poblacional es desconocido, y por


ello el intervalo se establece alrededor del estimador. Si repetimos el
muestreo un gran número de veces y definimos un intervalo
alrededor de cada valor del estadístico muestral, el parámetro se
sitúa dentro de cada intervalo en un porcentaje conocido de
ocasiones. Este intervalo es denominado "intervalo de confianza".

Ejemplo

Se generan 100000 muestras aleatorias (n=25) de una población que


sigue la distribución Normal, y resulta:

La distribución de las Medias muestrales aproxima al modelo Normal:

En consecuencia, el intervalo dentro del cual se halla el 95% de las


Medias muestrales es
(Nota: Los valores +-1.96 que multiplican la Desviación Típica de la
distribución muestral son los valores cuya función de distribución es
igual a 0.975 y 0.025 respectivamente y se pueden obtener en las
tablas de la distribución Normal estandarizada o de funciones en
aplicaciones informáticas como Excel). Seguidamente generamos una
muestra de la población y obtenemos su Media, que es igual a 4.5. Si
establecemos el intervalo alrededor de la Media muestral, el
parámetro poblacional (5.1) está incluido dentro de sus límites:

Ahora bien, la distancia de un punto A a un punto B es la misma que


de B a A. Por esa razón, la distancia desde m a la Media muestral es
la misma que va de la Media muestral a m. En consecuencia, si
hacemos un muestreo con un número grande de muestras
observamos que el 95% de las veces (aproximadamente) el valor de
la Media de la población (m) se encuentra dentro del intervalo
definido alrededor de cada uno de los valores de la Media muestral.
El porcentaje de veces que el valor de m se halla dentro de alguno
de los intervalos de confianza es del 95%, y es denominado nivel de
confianza.

Si queremos establecer un intervalo de confianza en que el % de


veces que m se halle dentro del intervalo sea igual al 99%, la
expresión anterior es:

(Obtenemos el valor +-2.58 que multiplica la Desviación Típica de la


distribución muestral en las tablas de la distribución Normal
estandarizada o de funciones en aplicaciones informáticas como
Excel), y son los valores cuya función de probabilidad es igual a 0.995
y 0.005 respectivamente).

Ejemplo

La siguiente imagen muestra la distribución de las Medias muestrales


obtenidas de 100000 muestras aleatorias y los intervalos alrededor
de cada una de las Medias obtenidas de diez de las muestras:
donde ls y le simbolizan los límites superior e inferior del intervalo de
confianza al 95%.

Nueve de los diez intervalos (salvo el definido alrededor de la Media


muestral igual a 3.7) incluyen el valor del parámetro dentro sus
límites.

Tema 9: Contraste de Hipótesis

1 Introducción
2 Fases del contraste
3 Tipos de error
4 Nivel de significación
5 Potencia y tamaño del efecto
6 Contrastes unilaterales y bilaterales
1 Introducción
El Contraste de Hipótesis es un procedimiento de inferencia
alternativo al de estimación de parámetros. Las técnicas de
estimación asignan valores a los parámetros a partir de las muestras,
es decir, extrapolan las características de las muestras (de la
evidencia observada) a las poblaciones. En cambio, el Contraste de
Hipótesis establece supuestos iniciales sobre las poblaciones y utiliza
las muestras para determinar si la evidencia observada es coherente
con estos supuestos. El contraste de hipótesis consiste en
averiguar si los datos observados en las muestras respaldan
las hipótesis sobre las poblaciones.

Los puntos básicos del Contraste de Hipótesis estadístico son:

a) Definir características hipotéticas de las poblaciones.

b) Obtener las características observadas en las muestras.

c) Establecer la coherencia de lo observado en las muestras con las


hipótesis iniciales.

d) Si lo observado en las muestras es poco probable bajo el supuesto


de que las hipótesis son verdaderas se concluye que están
equivocadas y las poblaciones son diferentes a lo establecido
inicialmente. En caso contrario se mantiene las hipótesis.

Los puntos anteriores son explicados con mayor detalle en los


apartados del tema:

Apartado 2: Elementos fundamentales del contraste de hipótesis.

Apartado 3: Errores en el Contraste de Hipótesis

Apartado 4: Probabilidades de error

Apartado 5: Probabilidad de detectar efectos significativos

Apartado 6: Contrastes bilaterales


2 Fases del contraste

2.1 Hipótesis iniciales


Las hipótesis son proposiciones verificables respecto de
características de interés. Ejemplo: "La nueva terapia mejora el
estado de los pacientes con ansiedad". Las hipótesis estadísticas
asignan valores a los parámetros poblacionales. Ejemplo: "la nueva
terapia mejora la proporción de pacientes curados en un 20%".

La hipótesis inicial es denominada Hipótesis Nula, y se acompaña de


las Hipótesis Alternativas, que asignan valores al parámetro para
el caso de que rechacemos la Hipótesis Nula. La Hipótesis Nula es un
supuesto provisional sobre las características de la población a que
pertenece la muestra (o las muestras de haber más de una).

Las Hipótesis Nula y Alternativa son simbolizadas de la siguiente


forma:

donde

Ejemplo

Queremos saber si una moneda tiene sesgo (una moneda sesgada es


aquella en que las probabilidades de "cara" y "cruz" son diferentes).
La Hipótesis Nula asume que la moneda es insesgada (1) y por tanto
la proporción de "caras" es idéntica a la de "cruces" (0.5), y se
expresa de la siguiente forma:

donde p es la proporción de "caras" que observaríamos si lanzáramos


la moneda gran número de veces (teóricamente, un número infinito).
(1) Generalmente las Hipótesis Nulas se enuncian bajo el supuesto de
que no hay efectos, por ejemplo, de que las muestras observadas
pertenecen a las poblaciones definidas en las Hipótesis Nulas, no hay
diferencias estadísticas entre las muestras comparadas, correlaciones
nulas, etc., y en el ejemplo ausencia de efectos significativos significa
que la moneda es insesgada. No debe confundirse las Hipótesis Nulas
con las hipótesis del investigador, que habitualmente analiza los
datos para hallar efectos significativos.

2.2 Obtención de evidencia

Los datos son una representación de las observaciones, y contienen la


evidencia según la cual se modifica o no las hipótesis iniciales.
Habitualmente son transformados en estadísticos que cuantifican las
características de interés de las muestras.

En el ejemplo de la moneda, la obtención de evidencia puede consistir


en efectuar series de lanzamientos (diez, veinte, o cien, etc.), y
contar el número de caras por cada serie. Los datos son los
resultados los lanzamientos y el estadístico es el número de "caras"
por cada serie.

2.3 Coherencia observaciones con hipótesis

Una manera de obtener el grado de coherencia de la evidencia


observada con la Hipótesis Nula consiste en obtener la probabilidad
de ocurrencia de lo observado si la Hipótesis Nula fuera verdadera. En
el enfoque frecuentista (es el método clásico que habitualmente está
en los textos) el procedimiento consiste en obtener probabilidades de
ocurrencia de los estadísticos en las distribuciones muestrales
definidas en las hipótesis nulas.

Ejemplo

La distribución muestral del estadístico "proporción de caras en 10


lanzamientos de una moneda insesgada" sigue el modelo
Binomial(r;10,0.5), donde "r" es el número de caras en 10
lanzamientos. Asignamos 0.5 a la probabilidad de observar "cara" en
un lanzamiento porque inicialmente se asume que la moneda no tiene
sesgo). La siguiente tabla muestra las proporciones de "caras" que
esperamos observar en diez lanzamientos de una moneda bajo el
supuesto de que la Hipótesis Nula sea verdadera, esto es, la
distribución muestral del estadístico "número de caras en diez
lanzamientos" bajo el supuesto de que la moneda es "buena"
(insesgada):

(Probabilidades obtenidas aplicando la fórmula binomial haciendo


N=10, p=0.5)

2.4 Regla de decisión


Decidimos que las hipótesis están equivocadas y las poblaciones son
diferentes a lo establecido en las Hipótesis Nulas si la evidencia
observada es poco probable bajo el supuesto de que las hipótesis
sean verdaderas. Generalmente se considera poco probable valores
iguales o inferiores a 0.05 o 0.01

Hay dos maneras de aplicar la regla de decisión al contraste de


hipótesis, una se basa en la probabilidad de observar valores del
estadístico de contraste bajo el supuesto de que la Hipótesis Nula sea
verdadera. La otra se basa en determinar si el valor observado del
estadístico de contraste se sitúa en la región de rechazo (conjunto
de valores cuya observación es poco probable si la Hipótesis Nula
fuera verdadera).

La aplicación de la regla de decisión de la primera manera consiste en


rechazar la Hipótesis Nula si la probabilidad de observar el estadístico
de contraste es igual o menor a la probabilidad criterio
(habitualmente 0.05 o 0.01).

Ejemplo

Si lanzamos diez veces la moneda y observamos 6 caras vemos en la


tabla I que la probabilidad de observar 6, 7, 8, 9, 10 o 0, 1, 2, 3 o 4
caras es igual a 0.754. En consecuencia, pensamos que este
resultado no es raro (la probabilidad no es baja) bajo el supuesto de
que la Hipótesis Nula sea verdadera, y por ello la aceptamos.
La aplicación de la regla de decisión en la segunda manera consiste
en rechazar la Hipótesis Nula si el estadístico de contraste se sitúa en
la región de rechazo (conjunto de valores cuya probabilidad de
ocurrencia es muy baja bajo el supuesto de que la Hipótesis Nula sea
verdadera). El resto de valores constituye la región de aceptación.

Ejemplo

En la investigación de la moneda, diremos que un resultado es "raro"


(bajo el supuesto de que la moneda es insesgada) si la probabilidad
de observarlo es igual o menor a 0.05. En consecuencia, la región de
rechazo está constituida por los valores cero, una, nueve o diez caras
(ver la tabla I) dado que la suma de probabilidades de ocurrencia de
cero, una, nueve o diez caras es menor a 0.05. Caso de obtener seis
caras aceptamos la Hipótesis Nula dado que el estadístico (número de
caras observadas) se sitúa en la región de aceptación.

3 Tipos de error

El Contraste de Hipótesis no garantiza que la decisión (rechazar o no


la Hipótesis Nula) sea correcta. Como ejemplo, consideremos que la
moneda es insesgada, y que obtenemos nueve caras en diez
lanzamientos. Es un resultado dentro del conjunto de resultados poco
probables (p<= 0.05), y por ello rechazamos la Hipótesis Nula, es
decir, rechazamos la hipótesis inicial de que la moneda está "bien
hecha". El error ha consistido en rechazar la Hipótesis Nula cuando es
correcta, y diremos que es un error de tipo I.

Por el contrario, supongamos que en realidad la moneda es sesgada y


la verdadera probabilidad de que ocurra "cara" es igual a 0.8, lo cual
significa que la hipótesis inicial (la moneda no es sesgada) es falsa.
En consecuencia la Hipótesis Nula que atribuye 0.5 a la probabilidad
de que ocurra "cara" es falsa. Si obtenemos siete caras y este
resultado cae dentro del conjunto de aceptación (conjunto de
resultados probables si la Hipótesis Nula es verdadera) aceptamos la
Hipótesis Nula. Como la Hipótesis Nula es falsa, la decisión es
errónea, y diremos que es un error de tipo II.

La siguiente tabla resume los tipos de errores en función de la


decisión y de que la Hipótesis Nula sea verdadera o no:
4 Nivel de significación
Cuando se toma la decisión de rechazar o no la Hipótesis Nula
podemos acertar o cometer errores. En el trabajo real no sabemos
qué ocurre porque no sabemos si la Hipótesis Nula es verdadera o no.
Sin embargo, dados ciertos supuestos podemos obtener las
probabilidades de cometer errores de tipo I y de tipo II.

La probabilidad de cometer errores de tipo I, que se simboliza alfa,


es la probabilidad de ocurrencia de los valores del estadístico en la
región de rechazo cuando la Hipótesis Nula es verdadera. El valor de
alfa, también denominado nivel de significación, es definido por el
investigador antes de recoger los datos, y la costumbre es hacer
alfa=0.05 o alfa=0.01 (en el ejemplo alfa es igual a 0.05). La
probabilidad de cometer errores de tipo II se simboliza beta y
depende de varias circunstancias como la distancia que separa el
valor asignado al parámetro en la Hipótesis Nula de su valor real, el
tamaño muestral y el valor asignado a alfa.

5 Potencia y tamaño del efecto

5.1 Potencia

La potencia del contraste es la probabilidad de detectar efectos


estadísticamente significativos, esto es, la probabilidad de rechazar la
Hipótesis Nula cuando es falsa, que se simboliza 1-beta, y es igual a
la probabilidad de ocurrencia de valores del estadístico en la región de
rechazo bajo el supuesto que H1 (la Hipótesis Alternativa) sea
verdadera.

Ejemplo

Supongamos que la probabilidad verdadera de ocurrencia de "cara"


es igual a 0.8. Tenemos:

La probabilidad de ocurrencia de los valores de la región de rechazo


bajo el supuesto de que la Hipótesis Alternativa sea verdadera es
igual a 0.38 (ver columna verde en la siguiente tabla. 0.38 es igual a
la suma de las probabilidades de ocurrencia de 0, 1, 9 o 10 caras)

En consecuencia, la probabilidad de rechazar H0 bajo el supuesto que


H1 sea verdadera es igual a 0.38. Si la Hipótesis Alternativa p=0.9
fuera verdadera 1-beta sería igual a 0.74. (puedes comprobarlo
clicando en la imagen de la tabla e introduciendo 0.9 en la casilla
verde de p(x). Puedes ver que la potencia de la prueba es mayor a
medida que la verdadera distribución muestral se aleja de la
distribución muestral definida en la Hipótesis Nula.

Principales características de la potencia de la prueba

- El valor de la potencia es complementario al de beta (probabilidad


de cometer errores de tipo II), cuanto menor es alfa, mayor es beta,
y viceversa.

- Los valores de alfa y 1-beta están relacionados. Cuanto mayor sea


alfa, mayor es 1-beta.

- El valor de la potencia depende de la verdadera posición del


parámetro, que es desconocida, pero podemos tomar medidas que
generalmente la incrementan:

a) Hacer alfa más grande. Hay que tener en cuenta que esta medida
también incrementa la probabilidad de errores de tipo I (si H0 es
verdadera).

b) Otra medida consiste en hacer más grande el tamaño de la


muestra. La razón es que disminuye la desviación típica de la
distribución muestral (el Error Típico del estadístico); en consecuencia
los límites de la región de aceptación se acercan y quedan más lejos
de la verdadera distribución del estadístico, lo que incrementa la
probabilidad de que el estadístico de contraste se sitúe en la región
de rechazo.

Resumen

La potencia del contraste es la probabilidad de acertar cuando la


Hipótesis Nula es falsa. Esta probabilidad es la de que el conjunto de
valores muestrales del estadístico de contraste se sitúe en la región
de rechazo bajo el supuesto de que la Hipótesis Alternativa sea
verdadera.

5.3 Tamaño del efecto


El hallazgo de efectos estadísticamente significativos (cuando se
rechaza la Hipótesis Nula) pueden ser irrelevantes cuando son de baja
magnitud, lo que puede ocurrir cuando las muestras son bastante
grandes. Por ello se dice que las pruebas de significación estadística
son insuficientes en situaciones prácticas, donde la magnitud del
efecto observado es fundamental. Los procedimientos estadísticos de
tamaño del efecto tienen como finalidad fundamental la cuantificación
de la relevancia del efecto obtenido. Dicho de otra forma, se trata de
establecer si efectos estadísticamente significativos son relevantes en
el campo de aplicación de la investigación.

Medidas del tamaño del efecto


Medidas no tipificadas son la diferencia de medias, coeficientes de
regresión, etc. Las medidas tipificadas son útiles cuando la métrica
utilizada no es de interés o cuando se compara resultados de
diferentes investigaciones. Algunas medidas tipificadas son:

d de Cohen

Se define

Se considera que valores inferiores a 0.2 indican un efecto de


pequeño tamaño, 0.5 de magnitud media y 0.8 indica un efecto de
alta magnitud.

g de Hedges

La d de Cohen es muy influida por las varianzas en el denominador, y


si una de las muestras tiene una varianza mucho mayor que la otra
va a resultar un índice conservador. El estadístico de Hedges toma en
consideración los tamaños de las muestras:
6 Contrastes unilaterales y bilaterales

El contraste bilateral sitúa la región de rechazo en los dos extremos


(colas) de la distribución muestral. En cambio, el contraste unilateral
sitúa la región de rechazo en uno de los dos extremos (colas) de la
distribución muestral. El contraste bilateral (o de dos colas) se utiliza
cuando la Hipótesis Alternativa asigna al parámetro cualquier valor
diferente al establecido en la Hipótesis Nula.

Ejemplo de contraste bilateral:

La Hipótesis Alternativa establece que, caso de rechazar la Hipótesis


Nula, decidimos que la proporción de la población a que pertenece la
muestra no es 0.5

Ejemplo de contraste unilateral:

La Hipótesis Alternativa establece que, caso de rechazar la Hipótesis


Nula, decidimos que la proporción de la población a que pertenece la
muestra es inferior a 0.5

Tema 10: Inferencia paramétrica

1 Introducción
2 Un grupo (Media, Varianza)

3 Dos grupos dependientes e independientes


(diferencia de medias, razón de varianzas)

4 ANOVAs unifactoriales entre e intrasujetos, Medias


Cuadráticas. Prueba F. Comparación de medias
5 Inferencia en análisis de correlación y regresión:
Contrastes de hipótesis de los coeficientes
6 Comprobación de supuestos
1 Introducción

Este tema es una aplicación del procedimiento de contraste de


hipótesis a varios parámetros, y la presentación de las técnicas de
contraste de hipótesis sigue el siguiente orden:

a) Supuestos generales de la prueba de contraste

b) Hipótesis Nula y Alternativa

c) Estadístico de contraste

d) Distribución del estadístico

e) Significación del estadístico de contraste

f) Decisión (rechazar o no la Hipótesis Nula)

g) Estimación del parámetro (intervalo de confianza)

2.1 Media

a) Supuestos:

La población sigue la distribución Normal.

Los datos son independientes.

b) Hipótesis:

donde la "a" representa el valor que asignamos al parámetro.

c) Estadístico de contraste:
donde

d) Distribución del estadístico de contraste: t con n-1 grados de


libertad.

e) Significación del estadístico de contraste.

g) Intervalo de confianza:

ls y li son los límites superior e inferior del intervalo.

Ejemplo

Según la teoría del síndrome posvacacional el efecto de las


vacaciones es positivo para la fatiga laboral. Otra teoría establece lo
contrario porque la alteración de la rutina haría más grande la
sensación subjetiva de fatiga. Para poner a prueba esta hipótesis
seleccionan una muestra aleatoria de trabajadores de empresas de
servicios a la vuelta de vacaciones y les administran una prueba de
fatiga, resultando una Media igual a 25. Como la Media de la
población es igual a 34, se pide decidir cuál de las dos explicaciones
parece más razonable.

(n= 100, sigma= 9, alfa=0.05)

a) Supuestos: Dado que las muestras han sido generadas


aleatoriamente, es razonable suponer que los datos son
independiente.

b) Hipótesis:

(Asignamos a la Media el valor 34 porque inicialmente se asume que


la muestra pertenece a la población general, esto es, que las
vacaciones no hacen ningún efecto en la sensación de fatiga)

c) Estadístico de contraste:
d) Distribución del estadístico de contraste: t con 99 grados de
libertad.

e) Significación del estadístico de contraste: 0.0

f) Decisión: Dado que la significación del estadístico de contraste es


inferior a 0.05, se rechaza la Hipótesis Nula.

g) Intervalo de confianza:

El parámetro de la población a que pertenece la muestra tiene un


valor entre 23.22 y 26.78 (con un nivel de confianza de del 95%).

Conclusión: La evidencia obtenida no da apoyo a la Hipótesis de que


la muestra pertenece a la población cuya Media es igual a 34. En
consecuencia pensamos que muy probablemente las vacaciones
tienen efecto positivo en la sensación de fatiga.

2.2 Varianza

a) Supuestos:

La población sigue la distribución Normal.

Los datos son independientes.

b) Hipótesis:

c) Estadístico de contraste:
d) Distribución del estadístico de contraste: Ji Cuadrado con n-1
grados de libertad.

e) Significación del estadístico de contraste.

f) Intervalo de confianza:

Ejemplo

Unos psicólogos piensan que una terapia nueva no mejora el sido de


los pacientes de depresión, pero sí reduce la variabilidad. Para
probarlo seleccionan una muestra aleatoria de pacientes a los que
aplican la nueva terapia. Poner a prueba la Hipótesis de que los
pacientes de depresión a los que han administrada la terapia
presentan la misma variabilidad que los pacientes a los que no la han
administrada. (a=.05)

Datos:

Varianza de la población: 8

Cuasivarianza obtenida en la muestra de pacientes a los que


administran la terapia: 7

Tamaño de la muestra: 20

a) Supuestos: Dado que la muestra ha sido generada aleatoriamente


se supone que los datos son independientes.

b) Hipótesis:

c) Estadístico de contraste:
d) Distribución del estadístico de contraste: Ji Cuadrado con 19
grados de libertad.

e) Significación del estadístico de contraste: 0.61

f) Decisión: La significación del estadístico de contraste es mayor que


el valor de alfa (0.05). En consecuencia, se acepta la Hipótesis Nula.

g) Intervalo de confianza:

Con un nivel de confianza del 95% pensamos que la varianza


poblacional se sitúa entre 4.05 y 14.93

Conclusión: Los datos recogidos respaldan la hipótesis de que la


nueva terapia reduce las diferencias en el estado de los pacientes.

3 Dos grupos
3.1 Diferencia de medias independientes

a) Supuestos:

Además de los supuestos de normalidad e independencia, un


supuesto específico para esta prueba es que las Varianzas de los dos
grupos sean semejantes.

b) Hipótesis:

o también

c) Estadístico de contraste:
d) Distribución del estadístico de contraste: t con n 1+ n2-2 grados de
libertad.

e) Significación del estadístico de contraste.

g) Intervalo de confianza:

Ejemplo

Dicen que los estudiantes de los grupos de tarde son diferentes a los
de los grupos de la mañana. Para comprobarlo han calculado las
Medias de los exámenes a los dos grupos. Comprobar esta hipótesis
(a= 0.05, datos ficticios)

a) Supuestos: Las muestras han sido obtenidas aleatoriamente, por lo


que se asume que los datos son independientes.

b) Hipótesis.

c) Estadístico de contraste:
d) Distribución del estadístico de contraste: t con 110+90-2=198
grados de libertad.

e) Significación del estadístico de contraste: 0.01

f) La significación del estadístico de contraste es inferior a 0.05, por lo


que se rechaza la Hipótesis Nula.

g) Intervalo de confianza:

La diferencia entre las medias poblacionales se sitúa entre 0.13 y


0.87 con un nivel de confianza del 95%.

Conclusión: Los datos respaldan la Hipótesis de que los estudiantes


del grupo de la tarde difieren de los estudiantes en los otros grupos.

3.2 Diferencia de medias relacionadas

a) Supuestos:

Los mismos que en el contraste de muestras independientes, excepto


que los datos de los dos grupos se supone están relacionados.

b) Hipótesis.

c) Estadístico de contraste:

donde
Xi1 y Xi2 son las puntuaciones obtenidas por los estudiantes a cada
grupo.

d) Distribución del estadístico de contraste: t con n-1 grados de


libertad.

g) Intervalo de confianza:

Ejemplo

Quieren comparar los resultados a los exámenes de Junio y Febrero


de un grupo de Análisis de Datos. La Media de las diferencias entre
las puntuaciones de Junio y Febrero es igual a -0.7. ¿Podemos decir
que el examen de Junio es significativamente más difícil que el de
Febrero?

(Nota: Grupo 1 se refiere a los datos de Junio. Grupo 2 se refiere a


los datos de Febrero)

a) Supuestos:

Dado que las dos muestras de puntuaciones (Febrero y Junio) han


sido recogidas de los mismos estudiantes, se considera NO son
independientes (entre grupos).

b) Hipótesis.

c) Estadístico de contraste:
d) Distribución del estadístico de contraste: t con 80 grados de
libertad.

e) Significación del estadístico de contraste: 0.0

f) Decisión: La significación del estadístico de contraste es inferior a


0.01, y por ello se rechaza la Hipótesis Nula.

g) Intervalo de confianza:

La verdadera diferencia entre las Medias de los exámenes va de -0.41


a -0.99 (con un nivel de confianza del 99%).

Conclusión: Los datos respaldan (con un nivel de confianza del 1%) la


hipótesis de que las puntuaciones del examen de Junio son
significativamente inferiores a las de Febrero.

3.3 Razón de varianzas

a) Supuestos:

Las poblaciones siguen la distribución Normal.

Los datos son independientes.

b) Hipótesis:

c) Estadístico de contraste:

d) Distribución del estadístico de contraste: F con n1-1 y n2-1


grados de libertad.

e) Significación del estadístico de contraste


Ejemplo

Quieren someter a contraste la hipótesis de igualdad de las Varianzas


de las puntuaciones obtenidas por dos grupos de individuos en una
prueba de extraversión.

a) Supuestos: Dado que las muestras han sido generadas


aleatoriamente, se supone que los datos son independiente.

b) Hipótesis:

c) Estadístico de contraste:

d) Distribución del estadístico de contraste: F con 31-1 y 41-1


grados de libertad.

e) Significación del estadístico de contraste: 0.63

f) Decisión: La significación del estadístico de contraste es superior a


0.01, y en consecuencia se acepta la Hipótesis Nula.

4 ANOVA unifactorial

El análisis de Varianza (ANOVA) es (con el Análisis de Regresión) una


de las técnicas de análisis de datos más utilizadas en Psicología. Su
conocimiento es fundamental para comprender buena parte de la
investigación experimental del comportamiento. La finalidad de este
apartado tema es la introducción a los fundamentos estadísticos del
Análisis de Varianza, que es explicado en otra asignatura en el
contexto del diseño experimental.
4.1 Prueba F
El análisis de Varianza contrasta la hipótesis de igualdad de las
Medias de más de dos grupos, y tiene su fundamento en la relación
entre la variación explicada por las diferencias entre grupos y la
variación individual.

Consideremos la siguiente situación: Queremos comparar la


efectividad de cuatro tratamientos de la depresión, para lo que
aplicamos los tratamientos a cuatro grupos de pacientes
seleccionados aleatoriamente. A finales del tratamiento recogemos los
datos, que son:

Los valores del cuerpo central de la tabla representan las


puntuaciones obtenidas por el sujeto "i" en el grupo "j". Por ejemplo,
X32=14 simboliza que el sujeto número tres del grupo 2 ha obtenido
una puntuación igual a 14.

Las puntuaciones de cada grupo son una muestra de la población de


pacientes a los que se administra cada tratamiento (los del grupo 1,
de la población a la que se administra el tratamiento 1, los del grupo
2, de la población a la que se administra el tratamiento 2, etc.). Las
Medias de las poblaciones se simbolizan m1, m2, m3, etc. Queremos
saber si estas Medias son semejantes o diferentes a la finalización del
tratamiento, porque eso significaría que los tratamientos afectan de
manera diferente a los pacientes. La Hipótesis Nula es:

El estadístico de contraste es:

donde MCE y MCI son las Medias Cuadráticas "entre" e "intra"


respectivamente.
El fundamento del estadístico de contraste es:

a) El efecto del tratamiento en cada grupo es medido por la Media de


las medidas de depresión de cada grupo.

b) Si todos los tratamientos tuvieran el mismo efecto, esperaríamos


que las Medias de los grupos fueran semejantes:

En cambio, cuanto más diferentes sean los efectos de los


tratamientos, más diferentes esperamos que sean las Medias.

c) La Media Cuadrática "entre" mide la variación explicada por las


diferencias entre las Medias de los grupos más la variación explicada
por diferencias individuales:

donde

si las Medias fueran semejantes, la Media Cuadrática "entre" sería


igual a 0 (porque la Media de cada grupo sería igual a la Media total).
Si las Medias fueran diferentes, la Media Cuadrática "entre" será
mayor cuanto más y mayores sean las diferencias.

d) La variación individual es medida por la Media Cuadrática "intra":

donde

glI: grados de libertad "intra"= J(n-1).

La Media Cuadrática "intra" mide la variación explicada por


diferencias individuales porque solo depende de las diferencias
dentro de cada grupo. En cambio, las diferencias entre grupos no
explican la variación "intra".

e) El estadístico F pone en relación la variación "entre" respeto de la


variación "intra":
cuanto mayor es la variación "entre" en relación a la variación "intra",
mayor es el valor de F.

f) Para generalizar a la población se opera con los valores esperados


de la Medias Cuadráticas:

el valor esperado de la Media Cuadrática "entre" es igual a la Varianza


explicada (ocasionada) por las diferencias individuales más una
cantidad cuyo valor depende de las diferencias entre los tratamientos
(entre las muestras).

El valor esperado de la Media Cuadrática "intra" es igual a la Varianza


explicada por diferencias individuales.

g) Si la Hipótesis Nula fuera verdadera, es decir, si NO hubiera


diferencias entre las Medias poblacionales, el valor del término de la
derecha en la expresión del valor esperado de la Media Cuadrática
"entre", que es:

tomaría el valor 0 (porque las diferencias dentro del paréntesis


siempre serían 0).

En consecuencia, el estadístico F sería una razón de dos estimadores


de la misma Varianza y seguiría la distribución F con J-1 y J(n-1)
grados de libertad.

h) Si la Hipótesis Nula fuera falsa, es a decir, si hubiera diferencias


entre las Medias poblacionales, la expresión
tomaría un valor superior a 0. En consecuencia, el estadístico F NO
sería una razón de dos estimadores de la misma Varianza y el
cociente F NO seguiría la distribución FJ-1,J(n-1).

i) En conclusión, si el estadístico F sigue la distribución FJ-1,J(n-1)


pensaremos que no hay evidencia suficiente por rechazar la Hipótesis
Nula. En cambio, si el estadístico F NO sigue la distribución F J-1,J(n-1),
pensaremos que es más razonable rechazar la Hipótesis Nula.

4.2 Supuestos

Los supuestos del Análisis de Varianza para grupos independientes


son:

a) Los datos son independientes y siguen la distribución Normal.

b) Todos los grupos tienen el mismo tamaño.

c) Las Varianzas de los grupos son pareciendo.

Los supuestos del apartado a) son satisfechos (generalmente) si los


datos son seleccionados aleatoriamente, pero es conveniente verificar
el cumplimiento de los supuestos con las pruebas del apartado 6.

4.3 Comparación de medias


Si la prueba F resulta significativa puede que todas o algunas de las
Medias sean diferentes. Para saber entre qué Medias hay diferencias
se puede aplicar las pruebas de comparación de medias como la
prueba de Tuckey, la prueba de Scheffé (especialmente robusta a la
violación de los supuestos estadísticos), la de Duncan (más potente
cuanto mayor es el número de Medias comparadas), o la de Dunnett
(especialmente adecuada para hacer comparaciones con un grupo de
referencia).

4.4 Modelo

El modelo del Análisis de Varianza es

donde
El modelo indica que podemos expresar el valor observado del
individuo "i" en el grupo "j" como la adición de la magnitud general de
la variable más la magnitud específica del grupo "j" más un
componente específico del individuo "i".

El término del modelo que interesa es a (la magnitud de la variable o


posición específica del grupo). El estimador de a es la esperanza de la
Media Cuadrática "entre" MCE. La prueba F somete a contraste la
hipótesis que un grupo (al menos) ocupa una posición diferente (la
variable tiene una magnitud específica en ese grupo) a la de los otros
grupos.

4.5 ANOVA intrasujetos

El análisis de Varianza intrasujetos contrasta la hipótesis de


igualdades de las Medias de muestras recogidas en los mismos
sujetos. Ejemplo: Queremos probar si una bebida tiene efecto
estimulante, y damos a beber una dosis pequeña (0,5dl.) a un grupo
de individuos seleccionados aleatoriamente. A las 24 horas les damos
una dosis de 1dl., y hacemos lo mismo durante los dos días
siguientes en dosis de 1,5 y 2dl. Cada día, al acabar de beber los
administramos una prueba de coordinación motora, y recogemos los
siguientes datos:

El análisis de los datos de grupos relacionados presenta


características específicas: Cada fila define un grupo de datos del
mismo sujeto. En consecuencia, la MCI no es un estimador adecuado
de la variación aleatoria porque los datos no son independientes. Por
otro lado, parte de la variación observada entre columnas es
explicada por el efecto de los tratamientos (si hay efecto). Por esta
razón la variación entre las filas (que es variación entre sujetos) mide
la variación ocasionada por diferencias entre tratamientos más la
variación ocasionada por diferencias individuales entre sujetos.

Para resolver el problema, se define la variación aleatoria como el


residuo de sustraer la variación "entre tratamientos" y la variación
"entre sujetos" de la variación total:

La prueba F tiene el mismo sentido que en el Análisis de Varianza


intersujetos, pero se hacen poniendo en el numerador la Media
Cuadrática que corresponda y en el denominador la Media Cuadrática
residual.

Prueba F para someter a contraste la Hipótesis Nula de que los


tratamientos no son efectivos:

Prueba F para someter a contraste que la variación ocasionada por


diferencias individuales es nula:

5 Correlación y Regresión

5.1 Correlación
5.1 Inferencias respeto de r (coeficiente de correlación de Pearson)

a) Supuestos:

La población sigue la distribución Normal.

Los datos son independientes.

b) Hipótesis:

c) Estadístico de contraste:
donde Zr es la transformación de Fisher del coeficiente de correlación.

d) Distribución del estadístico de contraste: Normal.

e) Significación del estadístico de contraste.

g) Intervalo de confianza:

Ejemplo

En un estudio de la relación entre malestar físico subjetivo y


depresión hallan que la correlación entre las dos variables es igual a
0.6 en una muestra de 35 pacientes de depresión seleccionados
aleatoriamente. Saben que la correlación entre estas variables en la
población de individuos sin depresión es igual a 0.4 (valor ficticio), y
quieren saber si la diferencia es estadísticamente significativa.

a) Supuestos:

Se asume que los supuestos son satisfechos dado que hemos


seleccionado aleatoriamente los individuos de la muestra.

b) Hipótesis:

alfa=0.05

c) Estadístico de contraste:

donde Zr es la transformada de Fisher del coeficiente de correlación


de Pearson.
d) Distribución del estadístico de contraste: Normal.

e) Significación del estadístico de contraste: 0.06

f) Decisión: La significación del estadístivo de contraste es superior a


0.05 se acepta la Hipótesis Nula.

g) Intervalo de confianza:

Con un nivel de confianza del 95% se concluye que la correlación


poblacional toma un valor entre 0.34 y 1

Conclusión: La diferencia entre la correlación observada en la


muestra y la correlación poblacional no es estadísticamente
significativa.

5.2 Diferencia de correlaciones


5.2 Inferencias respecto de rho1-rho2

a) Supuestos:

La población sigue la distribución Normal.

Los datos son independientes.

b) Hipótesis:

c) Estadístico de contraste:
donde Zr es la transformada de Fisher del coeficiente de correlación
de Pearson.

d) Distribución del estadístico de contraste: Normal.

e) Significación del estadístico de contraste.

g) Intervalo de confianza:

Ejemplo

En un estudio hallan que la correlación entre malestar físico subjetivo


y depresión a una muestra de 50 europeos es igual a 0.55. En
cambio, la correlación entre las mismas variables en una muestra de
39 asiáticos es igual a 0.49. ¿Podemos decir que la diferencia es
estadísticamente significativa?

a) Supuestos:

La población sigue la distribución Normal.

Los datos son independientes.

b) Hipótesis:

c) Estadístico de contraste:

donde Zr es la transformada de Fisher del coeficiente de correlación.

d) Distribución del estadístico de contraste: Normal.

e) Significación del estadístico de contraste: 0.36


f) Decisión: Dado que la significación del estadístico de contraste es
superior al valor de alfa (0.05), se acepta la Hipótesis Nula.

g) Intervalo de confianza:

Con un nivel de confianza del 95% se concluye que la diferencia entre


las correlaciones poblacionales se sitúa entre -0.36 y 0.51

5.3 Regresión
5.3 Inferencia respecto de coeficientes de regresión
Inferencia respecto de beta

a) Supuestos:

La población sigue la distribución Normal.

Los datos son independientes.

Sigma es desconocida.

b) Hipótesis:

c) Estadístico de contraste:

donde

d) Distribución del estadístico de contraste: tn-2.


e) Significación del estadístico de contraste.

g) Intervalo de confianza:

Inferencia respecto de alfa

a) Supuestos:

La población sigue la distribución Normal.

Los datos son independientes.

Sigma es desconocida.

b) Hipótesis:

c) Estadístico de contraste:

donde

d) Distribución del estadístico de contraste: tn-2

e) Significación del estadístico de contraste.

g) Intervalo de confianza:
donde

6 Comprobación de supuestos
6 Comprobación de supuestos

6.1 Homogeneidad de Varianza

La prueba de Levene se utiliza para verificar el supuesto de


homogeneidad de varianzas de los grupos comparados. Contrasta la
Hipótesis Nula de que las varianzas de las poblaciones comparadas
son idénticas. La prueba de Levene se basa en el estadístico W:

donde

k: Número de grupos

N: Número total de muestras

Ni: Número de muestras en el grupo i

6.2 Normalidad

Procedimientos gráficos: Una primera posibilidad consiste en obtener


histogramas con curvas superpuestas de la distribución Normal. Otra
posibilidad son las gráficas QQ que sitúan los cuantiles de la
distribución de la muestra respecto de los cuantiles del modelo de
distribución normal. Cuando ambas distribuciones coinciden los
puntos se sitúan sobre una recta, y en la medida que la distribución
de la muestra difiera de la distribución normal se sitúan fuera de la
recta.

Ejemplo

La gráfica muestra una distribución que aproxima la distribución


Normal.

Pruebas de bondad de ajuste

Procedimientos más precisos se basan en pruebas de bondad de


ajuste que someten a contraste la hipótesis de que la distribución de
la muestra se ajusta al modelo Normal. La prueba de Kolmogorov-
Smirnov o la de Shapiro-Wilk pueden ser utilizadas a este propósito.

Tema 11: Inferencia no paramétrica

1 Introducción
2 Un grupo
2.1 Signos
2.2 Kolmogorov
3 Dos o más grupos
3.1 Dos grupos independientes
3.2 Dos grupos relacionados
3.3 Más de dos grupos independientes
3.4 Más de dos grupos relacionados
4 Datos categóricos
Introducción
4.1 Una proporción
4.2 Dos proporciones
4.2.1 Muestras independientes
4.2.2 Muestras relacionadas
4.3 Independencia y ajuste

1 Introducción

Las pruebas no paramétricas de contraste de hipótesis son una


alternativa a las pruebas paramétricas cuando los datos no cumplen
los supuestos requeridos para la inferencia paramétrica, lo que
generalmente ocurre cuando:

a) Los datos no siguen la distribución Normal.

b) El nivel de medida es ordinal.

2 Pruebas de un grupo

2.1 Binomial

La prueba de los signos o binomial puede ser considerada una


aplicación de la prueba de contraste de hipótesis sobre proporciones
cuando se desea hacer inferencias sobre parámetros obtenidos con
datos medidos a nivel ordinal como la Mediana. El estadístico de
contraste es el número de datos con valor superior al definido en la
Hipótesis Nula, y la prueba contrasta el nivel de significación con la
probabilidad de ocurrencia de datos con valor igual o superior al
observado.

Ejemplo

En una investigación piden a una muestra de sujetos que indiquen en


una escala de 0 a 10 la preferencia por una bebida. Los resultados
son:

Desean saber si la Mediana de la población de la que procede la


muestra de los datos es igual a 5.

a) Supuestos: Los datos están medidos a nivel ordinal o superior.

b) Hipótesis:

c) Estadístico de contraste:

d) Distribución del estadístico de contraste: Bin(7,0.5). (7 es el


número de datos. 0.5 es la probabilidad que una observación tenga
valor superior a 5 bajo el supuesto establecido en la Hipótesis Nula).

e) Significación del estadístico de contraste: La probabilidad de


obtener 3 datos por encima de 5 (n=7, p= 0.5) es 0.5

f) Decisión: Se acepta la Hipótesis Nula.

2.2 Kolmogorov

La prueba de Kolmogorov es una prueba de bondad de ajuste, es


decir, del grado en que la distribución observada difiere de otra
distribución. Es una alternativa a la prueba Ji Cuadrado de bondad de
ajuste cuanto el número de datos es pequeño. La prueba no debe ser
aplicada si hay muchos empates.

a) Supuestos. Los datos están medidos al menos a nivel ordinal.

b) Hipótesis Nula: No hay diferencias entre las distribuciones


comparadas.
c) Estadístico de contraste: D (mayor diferencia entre las frecuencias
relativas de las distribuciones).

d) Distribución del estadístico de contraste: Específico dependiendo


de la distribución con que se compare la distribución observada.

Ejemplo

Desean saber si una muestra de debe datos pertenece a una


población normalmente distribuida. Los datos (ordenados de menor a
mayor) son:

b) Hipótesis Nula: No hay diferencia estadísticamente significativa


entre la distribución de la población a que pertenece la muestra y la
distribución Normal.

Hipótesis Alternativa: Hay diferencia estadísticamente significativa


entre la distribución de la población a que pertenece la muestra y la
distribución Normal.

c) Estadístico de contraste. Obtención del estadístico de contraste:

Tipificar la muestra:

Obtener los valores típicos que corresponden a diez intervalos de una


distribución Normal:

-1.28, -0.84, -0.52, -0.25, 0, 0.25, 0.52, 0.84, 1.28

(Valores que corresponden a los puntos cuya función de distribución


Normal estandarizada son 0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8 y 0.9)

Emparejar las distribuciones tipificadas hipotética (Normal en el


ejemplo) y observada:
(Notas:

* F(X) se refiere al límite superior del intervalo.

* Los valores en la columna F(X)obs son funciones de la distribución


Normal estandarizada y son los que correspondería a las
puntuaciones observadas si ajustaran a la distribución Normal, es
decir, si la Hipótesis Nula fuera verdadera)

D=0.2

e) Significación del estadístico de contraste: De acuerdo con las


tablas de la prueba es igual a 0.81

f) Se acepta la Hipótesis Nula por ser mayor la significación del


estadístico de contraste que el nivel previamente establecido (alfa=
0.05)

3 Dos o más grupos


3.1 U de Mann

Es una alternativa a la prueba t para dos muestras independientes. La


prueba se basa en la relación entre las sumas de rangos y las
diferencias entre grupos, como puede apreciarse en los siguientes
ejemplos:

Los siguientes datos son puntuaciones de sensación de bienestar


obtenidas en dos muestras diferentes:

Ordenamos los datos como si fueran una sola muestra y les


asignamos rangos:
Los rangos de los dos grupos están separados, dado que las
puntuaciones de los dos grupos son diferentes.

Las sumas de los rangos por filas son:

Las sumas dan cantidades muy diferentes.

En cambio, consideremos el siguiente ejemplo, donde no hay


diferencia entre los grupos comparados:

Ordenación de los datos como si fueran de una sola muestra:

(Nota: Cuando los datos tienen empates se les asigna el rango


promedio del que tendrían si no hubiera empates)

Sustituyendo los valores originales por los rangos:

Los rangos de los dos grupos están mezclados, dado que las
puntuaciones son parecidas en ambos grupos.

Las sumas de rangos por filas son:


Las sumas dan la misma cantidad porque los rangos asignados a las
puntuaciones de los dos grupos son idénticos.

a) Supuestos:

Los datos deben estar medidos a nivel ordinal, cuando menos.

No hace falta suponer normalidad de las distribuciones ni


homogeneidad de las Varianzas.

El procedimiento se basa en la relación entre las sumas de los rangos


y las diferencias entre grupos.

b) Hipótesis:

donde R es la Media de los rangos.

c) Estadístico de contraste:

Muestras pequeñas (si n<20):

Muestras grandes:

d) Distribución del estadístico de contraste. Con muestras grandes Z


aproxima la distribución Normal. Con muestras pequeñas, U sigue
distribución específica.

Ejemplo (con el primer grupo de datos)

b) Hipótesis:

e) Estadístico de contraste:
d) Distribución del estadístico de contraste: Específica ya que las
muestras son pequeñas.

e) Significación del estadístico de contraste. Según las tablas de la


prueba, el estadístico es significativo para alfa=0.05.

f) Decisión: Se rechaza la Hipótesis Nula

3.2 Wilcoxon

Es una alternativa a la prueba t para dos muestras relacionadas.

a) Supuestos:

Los datos deben estar medidos a nivel ordinal, cuando menos.

No se requiere los supuestos de normalidad de las distribuciones ni


homogeneidad de las Varianzas.

b) Hipótesis:

c) Estadístico de contraste:

Muestras pequeñas: S+ (Suma de rangos de las diferencias positivas


entre los datos).

Muestras grandes:

Obtención de S+:

1) Calcular las diferencias en valor absoluto entre las dos


puntuaciones de cada pareja

2) Asignar rangos a las diferencias (no incluir las diferencias nulas).


3) Sumar los rangos correspondientes a las diferencias positivas (S+)
y los correspondientes a las diferencias negativas (S-).

d) Distribución del estadístico de contraste:

Muestras pequeñas (si n<20): S+ sigue una distribución específica.

Muestras grandes: Z aproxima la distribución Normal cuanto más


grande sea la muestra.

Ejemplo

d) Distribución del estadístico de contraste: Dado que n es mayor que


20, se asume que Z aproxima la distribución Normal.

e) Significación del estadístico de contraste Z: 0.016

f) Decisión: Se rechaza la Hipótesis Nula por ser la significación del


estadístico de contraste menor que la previamente establecida
(alfa=0.05).

3.3 Kruskal

Es una extensión de la prueba de Mann-Whitney cuando hay que


comparar más de dos grupos independientes.

Alternativa al ANOVA unifactorial entre-sujetos cuando:

* No se dan los supuestos de normalidad y homoscedasticidad.

* Los datos están medidos a nivel ordinal.


b) Hipótesis:

c) Estadístico de contraste :

d) Distribución del estadístico de contraste: Aproxima Ji Cuadrado con


J-1 g.l. para muestras grandes. Con muestras pequeñas (si el número
de datos de algún grupo es menor a 5) sigue una distribución
específica.

Ejemplo

c) Estadístico de contraste:

Ordenar los datos como si fueran de una sola muestra:

Asignar rangos a los datos:

Sustituir los datos originales por sus rangos:


Sumar los rangos de las filas:

El estadístico H toma el siguiente valor:

d) Distribución del estadístico de contraste: Aproxima Ji Cuadrado con


2gl.

e) Significación del estadístico de contraste: 0.07

f) Decisión: Se acepta la Hipótesis Nula por ser la significación del


estadístico de contraste superior a la del valor previamente
establecido (alfa= 0.05)

3.4 Friedman

Es una alternativa al análisis intrasujetos cuando:

1) No se dan los supuestos de normalidad y homoscedasticidad.

2) El nivel de medida de las variables es ordinal.

b) Hipótesis Nula y Alternativa:

H0: Las distribuciones de las J poblaciones son idénticas.

H1: Las distribuciones de las J poblaciones no son idénticas.

c) Estadístico de contraste:

d) Distribución del estadístico de contraste: Aproxima Ji Cuadrado con


n-1 grados de libertad con muestras grandes (n>15 o J>4).
Ejemplo

Asignamos rangos por filas y sumamos por columnas:

d) Distribución del estadístico de contraste: Específica ya que las


muestras son pequeñas.

e) Significación del estadístico de contraste: De acuerdo a la tabla de


la prueba, el estadístico de contraste es significativo (alfa=0.05) (el
valor crítico para n=3 y J=4 es 7.4),

f) Decisión: Se acepta la Hipótesis Nula.

4 Datos categóricos

El objeto de este apartado es la inferencia con datos cualitativos, que


al ser relativamente fáciles de obtener facilitan la generación de bases
de datos en la práctica profesional. Sin embargo, la inferencia con
estos datos requiere muestras más grandes que con datos
cuantitativos.

Los estadísticos de contraste utilizados en estas pruebas son z y Ji


Cuadrado, que ha sido explicado anteriormente como estadístico de
asociación, y en Estadística Inferencial es utilizado en pruebas de
bondad de ajuste y de contraste de hipótesis de proporciones. El
procedimiento de cálculo del estadístico Ji Cuadrado es el mismo en
todos los casos, salvo algunas particularidades en la prueba de
bondad de ajuste.

4.1 Una proporción

a) Supuestos:

Los datos son independientes.


b) Hipótesis:

c) Estadístico de contraste:

Muestras grandes

d) Distribución del estadístico de contraste:

Si la muestra es pequeña, el estadístico de contraste p sigue la


distribución Binomial. Si la muestra es grande, z sigue la distribución
Normal estandarizada:

e) Significación del estadístico de contraste.

g) Intervalo de confianza:

Ejemplo

Queremos probar si una moneda de un Euro está bien construida en


el sentido de que la probabilidad de "cara" es la misma que la de
"cruz", por lo que lanzamos la moneda 20 veces y observamos 8
"caras". Es razonable pensar que la moneda está bien hecha?
(alfa=0.01).

a) Supuestos: Dado que los datos venden de lanzar la moneda al


aire, es razonable suponer que son independientes.

b) Hipótesis:
Asignamos 0.5 al parámetro porque inicialmente pensamos que la
moneda está bien hecha.

c) Estadístico de contraste:

Muestras grandes:

Se asigna 0.4 a "p" porque 8 caras de 20 es una proporción igual a


0.4

d) Distribución del estadístico de contraste: Normal.

e) Significación del estadístico de contraste: 0.19

f) Decisión: Dado que este valor es superior al nivel de significación


(0.01), aceptamos la Hipótesis Nula.

g) Intervalo de confianza:

Diremos con un nivel de confianza del 1% que la verdadera


proporción de caras de la moneda de la prueba está entre 0.68 y 0.12

Conclusión: La evidencia obtenida no hace pensar que la moneda esté


mal hecha.

4.2 Dos proporciones


4.2.1 Muestras independientes

a) Supuestos: Los datos son independientes.

b) Hipótesis:
c) Estadístico de contraste:

Si a=0:

donde

Si "a" no es igual a 0:

d) Distribución del estadístico de contraste: Si la muestra es pequeña,


el estadístico de contraste sigue la distribución Binomial. Si la
muestra es grande, la distribución Normal estandarizada.

g) Intervalo de confianza:

Ejemplo

Quieren probar la hipótesis de que la gente dedica más tiempo a la


lectura de libros en las regiones del Norte que en las del Sur. Las
proporciones de individuos que declaran leer al menos un libro al mes
en dos muestras de individuos del Norte y del Sur son,
respectivamente, de 0.35 y 0.23 (Los tamaños de las muestras son,
respectivamente, 40 y 55, a=0.05).

b) Hipótesis:
c) Estadístico de contraste:

d) Distribución del estadístico de contraste: Aproximadamente Normal


dado que np>5 y n(1-p)>5

e) Significación del estadístico de contraste: 0.1

f) Decisión: El estadístico de contraste es inferior a 0.05. En


consecuencia se rechaza la Hipótesis Nula.

g) Intervalo de confianza:

Diremos con un nivel de confianza del 95% que la diferencia de


proporciones se halla entre -0.06 y 0.3

4.2.2 Muestras relacionadas

Generalmente queremos saber si la diferencia observada entre


muestras de pares de datos dicotómicos (o dicotomizados) es
significativa.

b) Hipótesis

c) Estadístico de contraste

Muestras pequeñas:
Muestras grandes:

d) Distribución del estadístico de contraste.

T sigue el modelo Binomial(T;n,0.5) y (n=n12+n21) y aproxima al


modelo Ji Cuadrado con 1 gl cuanto mayor sea el tamaño de la
muestra.

g) Intervalo de confianza.

donde

(m= Número total de datos)

Ejemplo

Quieren saber si las parejas tienden a hacer las mismas actividades o


al contrario, y para ello hacen una investigación en que recogen los
siguientes datos:

donde:

Número de pares con valores 1 en X y 2 en Y (n12): 2

Número de pares con valores 2 en X y 1 en Y (n21): 1

b) Hipótesis:
c) Estadístico de contraste:

d) Distribución del estadístico de contraste: Binomial(2;10,0.5)

e) Significación del estadístico de contraste: 0.875

f) Decisión: Se acepta la Hipótesis Nula y concluimos que muy


probablemente las parejas tienden a llevar a cabo actividades
semejantes (el ejemplo es ficticio).

4.3 Ji Cuadrado
4.3.1 Pruebas de independencia

La prueba Ji Cuadrado de contraste de independencia entre variables


cualitativas se basa en el estadístico Ji Cuadrado, que ha sido
introducido en el tema 5 apartado 5, cuya distribución es Ji Cuadrado
con (f-1)(c-1) grados de libertad (f y c: Número de filas y columnas
de la tabla bivariada de contingencia) si la Hipótesis Nula de
independencia es verdadera.

4.3.2 Ajuste
En las pruebas de bondad de ajuste se desea conocer si las muestras
aproximan distribuciones específicas.

Por ejemplo, un investigador interesado al lenguaje no verbal quiere


saber si los individuos con empatía alta, normal y baja difieren en los
gestos faciales que hacen a la presentación de una desconocida/o, y
recogen los siguientes datos que representan el número de sonrisas
observadas:

de ser verdadero el supuesto de que no hay diferencia en función de


la empatía, la distribución de los datos debería ser uniforme. Por ello
efectúa una prueba de bondad de ajuste donde la Hipótesis Nula es
que los datos siguen la distribución Uniforme:

Contraste de hipótesis:
a) Supuestos:

Los datos son independientes.

Todas las frecuencias observadas son mayores a 0.

El 80% de las frecuencias teóricas (al menos) son superiores a 5.

b) Hipótesis Nula: No hay diferencia entre las distribuciones


observada y Uniforme.

c) Estadístico de contraste:

d) Distribución del estadístico de contraste: Aproxima a Ji Cuadrado


con I-1 g.l. cuanto mayor sea el número de categorías (I).

e) Significación del estadístico de contraste: 0.01

f) Decisión: Se rechaza la Hipótesis Nula por ser su significación


menor a la previamente establecida (alfa=0.05).

g) Intervalo de confianza:

donde

Intervalo de confianza para la primera de las categorías con los datos


del ejemplo:
el intervalo no incluye la proporción teórica (0.147)

Segunda categoría:

el intervalo no incluye la proporción teórica.

Tercera categoría:

el intervalo SÍ incluye la proporción teórica.

Se observa discrepancias significativas con el modelo de distribución


uniforme en las categorías primera y segunda, lo cual confirma la
decisión tomada al rechazar la Hipótesis Nula.

ÚLTIMOS TEMAS...
Por fin llegamos a los últimos temas de la asignatura y por fin le encuentro sentido a todo, a todas las
hipótesis que formulé y no sabía para qué, estos temas se centran en saber si el estudio acepta o rechaza
dichas hipótesis,para ello debemos saber utilizar los test de chi cuadra y t de students, que se resuelven
mediante las siguientes formulas, nada complejo si tenéis un buen profesor, como yo, que os la explique
con paciencia y sobretodo haciendo más de un ejercicio, os animo a que lo intentéis.
¡¡SEGURO QUE PODÉIS¡¡

CHI CUADRADA

Datos observados

Datos extraídos
se obtienen mediante la formula V.e = A x C / T = 18 x 100/ 200= 9 (para el primero y el segundo
cuadro)

T DE STUDENTS

UNA VEZ OBTENIDOS LOS RESULTADOS ES NECESARIO INTERPRETA DICHOS


RESULTADOS EN LA TABLA CORRESPONDIENTE A CADA TEST, TENIENDO EN CUENTA
EL GRADO DE LIBERTAD Y ALFA

Publicado por Irene Galan en 12:27 No hay comentarios:


Enviar por correo electrónicoEscribe un blogCompartir con TwitterCompartir con FacebookCompartir en
Pinterest
SEMINARIOS

Los seminarios de esta asignatura han ido enfocados al aprendizaje del programa informático Epi info,
para dicho aprendizaje se necesitó los tres seminarios correspondientes:

 Primer contacto con el programa lo que hicimos fué como aprender a descargarnos el programa e
introducir y grabar datos mediante una encuesta, que posteriormente nos sirvió de mucho para la
realización de nuestro trabajado de investigación.
 Segundo seminario, en él aprendimos a como ver las distintas variables de estudio relacionadas
entre ellas mediante tablas de frecuencias y gráficos.
 Tercer seminario, este día estudiamos como mediante el programa podemos observar si los datos
recogidos son estadisticamente significativos o no, observando el valor de chicuadrado o t de student
dependiendo del estudio en sí, una vez realizado esto, podemos anular o aceptar la hipótesis nula de
dicho estudio.

Desde mi punto de vista, estos seminarios eran necesarios para nuestro aprendizajes en el mundo de la
investigación, porque sin ellos no hubiéramos podido obtener los resultados de nuestros estudios
realizados posteriormente.
Publicado por Irene Galan en 11:54 No hay comentarios:
Enviar por correo electrónicoEscribe un blogCompartir con TwitterCompartir con FacebookCompartir en
Pinterest

jueves, 30 de mayo de 2013


INTRODUCCIÓN A LA BIOESTADÍSTICA

La bioestadística es una ciencia de la estadística que se ocupa de los problemas planteados dentro de las
ciencias de la vida, como la biología, la medicina, entre otros. Por tanto, estadística es la ciencia que
estudia la variabilidad y para medir las variables utilizaremos diferentes escalas:

 Escala nominal: es el nivel inferior de medida, es decir utilizaremos los números como meros
nombres, pudiéndolo sustituir por símbolos, letras. No gozan si ninguno de estos números las
propiedades aritméticas.
 Escala ordinaria: es la mediación ordinal dadas dos o más modalidad de una variable, por lo cual,
los números expresan relaciones de: igualdad, desigualdad y orden.
 Escala de medidas (III). Escala de intervalo: presenta las características propias de las dos escalas
anteriores: identidad y orden.
 Tipos de variables: cualitativas, se refiere a propiedades que no pueden ser medidas.
 Nominales: dicotómicas, dos niveles o categorías; policotómicas, más de dos categorías.
 Ordinales: establecen un orden.

Cuantitativas: son las que se pueden medir en términos numéricos, son por tanto las que utilizamos para
las escalas de intervalos y de razón.
 Discretas: sólo pueden tomar un número finito de valores, la unidad de medición no puede
ser fraccionados.
 Continuas: las que pueden valer cualquier número dentro de un rango, la unidad de
medida pueda ser subdividida en forma infinita.

Una variable discreta no podemos convertirla en continua, al revés sí.

 Variables: representación de datos.


o Tablas de frecuencia: son la imagen de los datos que muestran frecuencias en columnas las
categorías de las variables en las filas.

 Representación gráficas: forma rápida de comunicar información numérica, son la imagen de las
ideas y aumenta la información escrita y ofrece orientación visual.
 Histogramas y polígonos de frecuencia:

 Gráficos de tronco y hojas.

 Gráficos para datos bidimensionales:


 Gráficos para datos multidimensionales: diagramas de estrellas.

Publicado por Irene Galan en 3:10 No hay comentarios:


Enviar por correo electrónicoEscribe un blogCompartir con TwitterCompartir con FacebookCompartir en
Pinterest

martes, 2 de abril de 2013


LA ETAPA EMPÍRICA DE LA INVESTIGACIÓN: EL DISEÑO Y EL MATERIAL Y
MÉTODOS.

En este tema 6º ya empezamos a introducirnos en los análisis estadísticos de los estudios, desde el
material y métodos, pasando por la planificación de la recogida de datos y sobretodo con la pregunta
clave del tema:
¿ Qué queremos medir? Prevalencia o incidencia.

 Prevalencia: la prevalencia es adimensional, y la recogida del muestreo ha sido algo espontáneo,


en el momento, sin tener que esperar resultados.

Prevalencia= nº de individuos con la enfermedad / nº de individuos en la población.


Y los datos se exponen mediante los cohortes:

Enfermos
Expuestos
No enfermos

Enfermos
No expuestos
No enfermos

Razón de prevalencia o RP: enfermos/expuestos // enfermos/no expuestos.

 Incidencia: es adimensional también, y la recogida de los datos de las muestras necesaria se


realiza durante un periodo de tiempo de estudios, es decir necesito esperar a que se manifieste algún
factor. Para realizar este estudio, dependiendo de los datos que tengo y de lo que quiero averiguar,
podemos realizar dos tipos:

R.R o riesgo relativo: que es la razón entre los expuesto y los no expuestos, teniendo en cuanta los
nuevos casos aparecidos en la población.
R.R= nº de los casos (nuevos) entre los expuestos/nº total de individuos // nº de los casos (nuevos) entre
los no expuestos/nº total de individuos.

ODDS RATIO o razón de ventajas: estudios de casos y controles, estudia la magnitud de asociación,
tratando de relacionar los casos entre los controles, por lo que implica un tiempo entre las variables que
se encuentran en estudios.
Para este tipo de estudio se realiza una tabla donde recoge todos los datos que vamos a realizar.
Ejemplo:

FACTORES NO
FACTORES
CASOS a b a+b
NO CASOS c d c+d
Nº total de
a+c b+d muestra
(toda la
población
estudiada)
ODDS RATIO: ODDS CASOS/ ODDS CONTROLES= a/b // c/d
Midiendo por tanto la ventaja de los casos contra los controles.

Para poder realizar este tipo de estudios, antes debemos realizar una descripción del estudio en sí, para
ello necesitamos antes realizar las siguientes cuestiones:

1. tipos de variable/es dependiente/es e independiente/es:


 variable dependiente: lo que se desarrolla, lo que queremos averiguar, casi siempre la
enfermedad.
 Variable independiente: el factor que explica la aparición de la enfermedad.
2. tipos de hipótesis:
 hipótesis nula o H0: es la hipótesis que no relaciona las variables entre ellas.
 Hipótesis alternativas: es aquella que encuentra relación entre las variables.
3. tipos de diseños:
 analítico o descriptivo: los estudios analíticos son aquellos que buscan relación entre causas y
efectos.
 Transversal o longitudinal: transversal es cuando ocurre en un momento concreto y longitudinal
durante un periodo de tiempo.
 Observacional o experimental: el estudio es observacional cuando no controlamos las variables,
como por ejemplo el sexo de la población.
 Prospectivos o retrospectivos: para realizar un estudio prospectivo espero los resultados de las
variables, es decir, mirando al futuro. Y si el estudio es retrospectivo las variables ya han influido, por lo
tanto miramos hacia el pasado.

Espero que con este resumen del tema os pueda ayudar a comprender mejor el tema y sobretodo los
problemas de estudios. Un beso.
Publicado por Irene Galan en 3:29 No hay comentarios:
Enviar por correo electrónicoEscribe un blogCompartir con TwitterCompartir con FacebookCompartir en
Pinterest

jueves, 14 de marzo de 2013


EL MARCO TEÓRICO Y LOS OBJETIVOS DE LA INVESTIGACIÓN.HIPÓTESIS
DE INVESTIGACIÓN

Este 5º tema trata de definir a donde queremos llegar con la investigación, que queremos lograr, pero
siempre teniendo en cuenta lo que tu quieres descubrir y donde quieres llegar con lo que estas haciendo
en la práctica profesional, de aquí sale la famosa Hipótesis, que consiste en un enunciado donde va
recogiendo todas las expectativas de la investigación, por tanto no es mas que una predicción del
resultado esperado.

También nos enseña a realizar un marco teórico, para ello hay realizar cuatro pasos:
 formular una pregunta de manera precisa a partir del problema que presente el paciente o de la
unidad.
 Localizar las pruebas disponibles en la literatura.
 Observar la presencia de sesgos.
 Aplicar las conclusiones de esta evaluación a la práctica.

Para formular una pregunta de forma correcta debemos descomponerla en 4 elementos, llamadas así,
preguntas PICO.

 Paciente o problemas de interés.


 Intervención que se va a considerar.
 Intervención con la que Comparar.
 Resultado que se valora. Outcome.

Existiendo también niveles de evidencias (I, II, III, IV), grados de recomendación A,B y C, y grados de
exclusión, de los cuales existen: grado de recomendación D y grado de recomendación E.
Publicado por Irene Galan en 5:09 No hay comentarios:
Enviar por correo electrónicoEscribe un blogCompartir con TwitterCompartir con FacebookCompartir en
Pinterest

FUENTES DE INFORMACIÓN Y REVISIÓN BIBLIOGRÁFICA. INFORMACIÓN


DOCUMENTAL E INFORMACIÓN DE CAMPO

Este tema nos va ayudar a saber como buscar información fiable, para un proyecto de investigación o
simplemente para realizar la búsqueda de algún articulo que nos sea necesario en el proyecto de
investigación, hay apartados específicos para recoger toda la información buscada previamente al
estudio, uno de estos pasos es la búsqueda de los antecedentes, en los cuales, recoge una serie de
artículos científicos como: Medline, Index de enfermería, Scopus, entre otros.
Por lo tanto lo primero que debemos realizar es la búsqueda de los antecedentes para ir concretando la
información, para ello empezamos encontrando los descriptores correctos, en la pagina bib.us.es/salud.

1. Pinchamos en DeCS

2. Consulta al DeCS
3. Introducimos la palabra que queremos buscar, par encontrar su descriptor, en este ejemplo realizo
la búsqueda de estudio.

4. elegimos el descriptor que más encaje con la definición que buscamos, en este caso el descriptor
va hacer: estudio comparativo.

Realizamos esta misma operación con todas las palabras claves de la información que queremos realizar,
para averiguar sus descriptores. Mis siguientes descriptores van hacer: Diabetes mellitus, obesidad.

5. volvemos a la pagina bib.us.es/salud, seleccionamos una de las paginas de búsquedas de artículos


científicos, pinchamos he introducimos los descriptores por el sistema booleanos, que selecciona los
descriptores del thesaurus. Para realizar una busqueda donde queremos buscar varios descriptores juntos,
debemos seguir unas estrategias:
 Si queremos buscar articulos que trate sobre un descriptor como por ejemplo A y B a la vez,
debemos introducir ambos descriptores unidos con: “A∩B” o “A AND B”.
 si lo que queremos buscar son articulos que traten sobre A, sobre B o sobre ambos a la vez,
usaremos: “AUB” o “A OR B”.
 y si por último, lo que queremos es encontrar artículos sobre A, pero que no trate sobre B,
usaremos: “A≠B” o “A NOT B”

6. pinchamos en Search y comienza la busqueda de nuestro articulo con los thesaurus seleccionados
previamente, seleciono en el lenguaje los articulos que sean en español para que la busquedad sea más
facil,estos son todos los articulos encontrados:

7. selecciono el artículo que más me interesa:

8. cojo la referencia de la revista que lo ha publicado, el volumen y las páginas, vuelvo a la página
de bib.es.com/salud y seleccionas revistas-e, e introduces el nombre de la revista, en este caso “gaceta
sanitaria”.
9. seleccionas el año del articulo elegidos, como el elegido es el 2009, seleccionamos desde 2005.

Seguimos seleccionando nuestro artículo mediante el volumen y las paginas en el lado izquierdo de la
pantalla.

10. una vez encontrado nuestro artículo, pinchamos en PDF y se descarga sin problemas.
BUSQUEDA FINALIZADA¡¡

También podría gustarte