Documentos de Académico
Documentos de Profesional
Documentos de Cultura
INTRODUCCIÓN
Actualmente, para poder realizar cualquier estudio o trabajo de investigación, por pequeño que sea,
o simplemente para la lectura de artículos científicos, es imprescindible tener un mínimo
conocimiento de estadística, sin que ello implique un gran dominio de las matemáticas.
No es el objetivo de esta Unidad Didáctica, por tanto, formar expertos estadísticos, sino
proporcionar al Técnico de Prevención de Riesgos Laborales las bases que le permitan entender la
aplicación de la estadística a las investigaciones o estudios en este terreno.
La estadística nos proporciona una serie de métodos para, al realizar el estudio de un conjunto de
individuos, recoger, ordenar, tabular y analizar los datos de interés, así como para aceptar o
rechazar ciertos supuestos (hipótesis). Estos son los cometidos fundamentales de la llamada
Estadística Descriptiva.
Por otro lado, la estadística nos permite también hacer el estudio sobre una muestra, y a partir de
los resultados obtenidos en la muestra, hacer inferencias acerca de la población de origen. De
esta parte se encarga la Estadística Inferencial.
A lo largo de la Unidad iremos viendo algunos de los aspectos más básicos y fundamentales de estas
dos ramas de la Estadística, centrándonos fundamentalmente en la Estadística Descriptiva.
Posteriormente, en la Unidad Didáctica 2 de la Especialidad de Ergonomía y Psicosociología Aplicada:
"Métodos estadísticos más aplicados en Ergonomía y Psicosociología Aplicada", trataremos
con más detenimiento algunos de los aspectos de la Estadística Inferencial.
OBJETIVOS
1
• Qué tipos de variables existen en Estadística.
• Cómo ordenar y describir los datos recogidos en un estudio.
• Qué índices estadísticos son los adecuados para describir cada tipo de variable.
• Cuáles son los objetivos de la Estadística Inferencial.
• Cómo se selecciona una muestra para que sea representativa de la población de origen.
• Cuáles son los procedimientos más habituales en Estadística Inferencial.
• Qué se entiende por grado de significación estadística.
ESQUEMA DE LA UNIDAD
2
CAPÍTULO 1: CONCEPTOS PREVIOS
1. POBLACIÓN Y MUESTRA
En la introducción hemos definido la Estadística como una ciencia que recoge, ordena, y analiza los
datos de una muestra o población, y que nos permite hacer inferencias acerca de la población a
partir de los datos obtenidos en una muestra.
Cuando nos planteamos realizar un estudio sobre determinadas características o comprobar una
cierta teoría a partir de unos datos empíricos u observados, el primer paso que debemos dar es
definir perfectamente la población, es decir, determinar el conjunto completo de individuos a los
cuales se referirán las conclusiones de nuestro estudio.
En muchas ocasiones, la población que nos interesa es muy extensa, por lo que será prácticamente
imposible, o al menos muy costoso, estudiarla de forma completa.
Las técnicas estadísticas nos permiten inferir las características y relaciones existentes en una
población, analizando dichos aspectos en una muestra representativa de esa población.
Es decir, las técnicas estadísticas nos permiten estudiar las características o relaciones que nos
interesan en un grupo reducido de individuos de la población, y a partir de los resultados obtenidos,
hacer inferencias o extrapolar esas conclusiones a la población.
Una vez que hemos definido el conjunto de sujetos a los que se desea generalizar las conclusiones
del estudio, tendremos una única población, pero pueden existir infinidad de muestras
representativas: cada vez que elijamos un determinado grupo de sujetos, obtendremos una muestra
cuya composición, muy probablemente, será diferente de la anterior, ya que la selección se hace al
azar.
2. PARÁMETROS Y ESTADÍSTICOS
Los diferentes índices estadísticos que describen una población se denominan parámetros, y se
suelen representar con letras griegas.
Cada parámetro de la población puede ser estimado a partir de los datos observados en una
muestra extraída al azar. Los índices estadísticos descriptivos de una muestra se denominan
estadísticos, y son una estimación del valor del parámetro en la población.
Supongamos por ejemplo que conocemos la talla de todos los mozos españoles incorporados a filas
durante un determinado año, es decir, que conocemos los datos de toda la población, de manera
que su media ha resultado ser 173.2 cm. Supongamos además, que de esa población se ha extraído
una muestra de 600 mozos, y que su talla media ha resultado ser 172.1 cm.
El parámetro media tiene un único valor, µ=173.2 cm, mientras que pueden existir varios
estadísticos, ya que al aplicar el estadístico a cada muestra, obtendremos un valor diferente,
debido al error aleatorio de muestreo.
Si no existen sesgos, los estadísticos calculados en las diferentes muestras, fluctuarán alrededor
de la verdadera media µ; esta fluctuación será más débil (las estimaciones serán más parecidas al
parámetro µ ), cuanto mayor sea el tamaño de las muestras.
Como hemos dicho al principio, la estadística nos permite, por un lado, recoger, ordenar, tabular y
analizar datos referidos a un conjunto de individuos, (además de aceptar o rechazar ciertos
supuestos o hipótesis), y por otro lado, partiendo de los datos de una muestra, hacer inferencias
sobre la población. Según esto, la estadística consta de dos partes fundamentales:
4
• Estadística Inferencial, cuyo cometido es hacer inferencias sobre la población, a partir de
los datos obtenidos en una muestra.
Cuando nos planteamos el estudio de los datos recogidos de una determinada muestra o población,
el primer paso, antes de entrar en análisis más complicados, es el análisis descriptivo de esos
datos.
Este tipo de análisis es fundamental, porque nos permitirá posteriormente formular hipótesis de
trabajo razonadas y elegir los métodos estadísticos más adecuados para verificar dichas hipótesis.
La Estadística Descriptiva nos proporciona los instrumentos para llevar a cabo este primer
análisis, es decir, para estudiar las características existentes en un conjunto de individuos (muestra
o población), con dos finalidades fundamentales:
• Organizar los datos, bien a través de tablas, bien por medio de representaciones gráficas.
• Analizar esos datos, obteniendo unos índices estadísticos que representan a la muestra
o población objeto del estudio.
1. MATRIZ DE DATOS
La matriz de datos es un tipo de estructura o tabla que contiene los valores de cada
sujeto en las diferentes variables. Generalmente, en las filas se representan cada uno
de los individuos (sujetos, puestos de trabajo,...), y en las columnas las variables.
En una matriz de datos recogemos los valores que estas variables toman en cada uno de los puestos
de trabajo:
5
2. TIPOS DE VARIABLES
Cuando hablamos de variables nos estamos refiriendo a cada uno de los caracteres o
aspectos que se miden en una muestra de individuos. Son características comunes a
un grupo de individuos, objetos, grupos o hechos, que tienen distintos valores o
diferentes categorías dentro de ese grupo.
La estadística clasifica las variables en dos grandes grupos: variables cualitativas o categóricas, y
variables cuantitativas. Dentro de las variables cualitativas se distinguen dos tipos, según se
puedan ordenar o no las diferentes categorías de la variable. Dentro de las variables cuantitativas se
distinguen las discretas de las continuas. Así, tenemos:
Son variables cuyas modalidades se presentan en forma numérica, es decir, pueden ser
medidas. Podemos distinguir:
6
En algunas ocasiones, la propia definición de la variable lleva implícita la escala de medida que se ha
de utilizar, pero en otras puede ser necesario escoger entre distintas posibilidades.
Por ejemplo, si en un determinado estudio nos interesa conocer el consumo de alcohol de un grupo
de trabajadores, podríamos recoger la información sobre esta variable de distintas formas:
Como norma general, siempre que sea posible es preferible escoger la escala cuantitativa
continua, ya que este tipo de escala contiene más información, y permite utilizar pruebas
estadísticas más potentes.
Sin embargo, a la hora de decidir en qué tipo de escala vamos a recoger la información que nos
interese, también deberemos valorar la dificultad que supone hacerlo de una determinada manera,
frente al beneficio esperado.
Una vez recogidos los valores en la matriz de datos, debemos organizarlos para obtener un resumen
claro, y que conserve el máximo posible de la información original. Para ello, construimos una
distribución de frecuencias.
En primer lugar, se ordenan los sujetos según los valores que presentan en la variable por la que les
vamos a clasificar. La clasificación se hace en categorías (si la variable se ha medido en una escala
nominal u ordinal), o en números o intervalos de valores (si la variable se ha medido en una
escala cuantitativa). En la distribución de frecuencias podemos incluir distintos tipos de datos, como:
• Frecuencia absoluta (ni): número de veces que ocurre un determinado valor de la variable
estudiada. La suma total de las frecuencias absolutas coincide con el número total de casos.
• Frecuencia relativa (fi): se obtiene dividiendo la frecuencia absoluta de cada modalidad
entre el número total de casos observados. La suma de todas las frecuencias relativas es
igual a 1.
• Frecuencia absoluta acumulada (Ni): número de veces que ocurre un determinado valor
o alguna de las modalidades anteriores, una vez ordenadas de menor a mayor. (Los valores
acumulados no tienen sentido para variables nominales). Se inicia el cálculo por la modalidad
inferior de la variable, a continuación se suma la siguiente categoría, y así sucesivamente. La
frecuencia absoluta acumulada de la última modalidad coincide con el número total de casos.
• Frecuencia relativa acumulada (Fi): se obtiene dividiendo la frecuencia absoluta
acumulada de cada modalidad entre el número total de casos. La frecuencia relativa
acumulada de la última modalidad coincide con 1.
7
• Porcentaje (pi): producto de las frecuencias relativas por 100. Representa el porcentaje de
elementos en cada modalidad, y la suma total equivale a 100.
• Porcentaje acumulado (Pi): se obtiene multiplicando la frecuencia relativa acumulada por
100. Representa el porcentaje de elementos que están en una modalidad o en alguna de las
modalidades inferiores.
Siguiendo el ejemplo, vamos a hacer la distribución de frecuencias clasificando los datos en función
de los valores obtenidos en la variable COMODIDAD.
Esta variable, que hace referencia al grado de comodidad de los trabajadores con el ambiente
térmico, la hemos recogido como una variable cualitativa ordinal, con cuatro categorías, codificadas
como: COMODO=0, ALGO INCOMODO=1, INCOMODO=2, y MUY INCOMODO=3. La distribución de
frecuencias de esta variable consiste por tanto en ordenar los sujetos según estas cuatro categorías.
Así, en la primera columna (ni), registramos la frecuencia absoluta, es decir, el número de sujetos
que han considerado que el ambiente térmico es cómodo (4), algo incómodo (2), incómodo (3), o
muy incómodo (1).
En la segunda columna (fi) registramos la frecuencia relativa, dividiendo la frecuencia absoluta por
el número total de casos. Por ejemplo, para la categoría COMODO, fi es el resultado de dividir
4/10=0.4. La suma de fi de todas las categorías es igual a 1. El porcentaje (fi) es el resultado de
multiplicar fi por 100. Para esta primera categoría, 0.4*100=40, que significa que el 40% de los
trabajadores consideran que el ambiente térmico es cómodo.
En la cuarta columna (Ni) registramos la frecuencia absoluta acumulada. Puesto que empezamos
por la categoría "inferior", para COMODO Ni es igual a ni, y a partir de ahí se empieza a sumar a
cada categoría la ni de la anterior, de forma que la frecuencia absoluta acumulada de la segunda
categoría (algo incómodo) es 2+4=6, y así sucesivamente, hasta llegar a la última categoría, cuya
Ni coincide con el número total de casos, 10.
La frecuencia relativa acumulada (Fi) se puede calcular dividiendo la frecuencia absoluta acumulada
(Ni) por el total de casos, o sumando a la frecuencia relativa (fi) de cada categoría la de las
anteriores. La Fi de la última categoría es igual a 1.
8
Cuando nos interese tabular una variable cuantitativa con muchas observaciones, es
recomendable agrupar los datos en intervalos, determinando previamente la amplitud de la
distribución, el número de intervalos, la amplitud de éstos, y sus límites exactos.
Supongamos por ejemplo que nos interesa tabular nuestros datos por la variable PESO.
Estos son los límites reales de los intervalos, los extremos de cada uno de los grupos,
denominándose inferior y superior a los límites correspondientes al valor mínimo y máximo
del intervalo. Los límites reales, que coinciden con los valores observados, son diferentes
de los límites exactos, que marcan con mayor precisión el principio y el fin de cada
intervalo.
El límite exacto inferior de cada intervalo queda media unidad por debajo del límite real, y el
límite exacto superior, media unidad por encima del real, coincidiendo el límite exacto superior
con el límite exacto inferior del siguiente intervalo. Es decir, en nuestro ejemplo, los límites exactos
de los intervalos serían 50.5-60.5, 60.5-70.5, 70.5-80.5, 80.5-90.5.
9
4. REPRESENTACIÓN GRÁFICA
Es conveniente incluir en cada gráfico toda la información posible, para evitar ambigüedades y
facilitar su interpretación por otras personas o por nosotros mismos.
Vamos a ver algunos de los tipos de representaciones gráficas más utilizados, en función del tipo de
variable:
• Diagrama de barras
Sobre cada categoría se construye un rectángulo de base arbitraria (pero constante), cuya
altura es la frecuencia o porcentaje correspondiente. Puesto que no existe una continuidad
entre las distintas modalidades de la variable, los rectángulos o barras están separadas por
espacios en blanco.
• Diagrama de sectores
• Histograma
Con él se representan las variables cuantitativas continuas, con los datos agrupados en
intervalos. Consiste en formar, sobre cada intervalo de valores, rectángulos cuyo área sea
igual a la frecuencia del intervalo.
11
5. ANÁLISIS DESCRIPTIVO DE LOS DATOS
Los índices que vamos a utilizar van a depender del tipo de variables que estemos estudiando, es
decir, de si se trata de variables cualitativas o cuantitativas.
Para describir la distribución de valores de una variable cualitativa, basta con calcular las
proporciones y los porcentajes relativos de cada una de las categorías. En nuestro ejemplo:
Con estos datos, las variables cualitativas quedan perfectamente definidas y representadas.
Para el análisis descriptivo de las variables cuantitativas es necesario utilizar distintos tipos de
medidas, a través de las cuales se caracteriza la distribución de sus valores.
a) Medidas de tendencia central: indican el valor de la variable estudiada hacia el que tienden
a agruparse los datos u observaciones. Los índices más estudiados son la media, la mediana y la
moda.
- Media ( ): Este índice se calcula exclusivamente para las variables cuantitativas,
y equivale al cociente entre la suma de todos los valores de la variable y el número
total de casos.
Siendo la media, ∑xi la suma de todos los valores que toma la variable, y n el
número total de casos.
= ( 67 + 74 + 60 + 83 + 59 + 52 + 71 + 77 + 56 + 63) / 10 = 66.2
12
b) Medidas de dispersión: Reflejan la variabilidad de la variable estudiada respecto a su punto
central, es decir, cómo se agrupan los datos en torno a la medida de tendencia central, muy
concentrados o muy dispersos. Las principales medidas de dispersión son la varianza, la
desviación típica, la amplitud y la amplitud intercuartil.
Por ejemplo, cuando hablamos del percentil 75 (P75) nos estamos refiriendo al
valor de la variable que deja por debajo de sí al 75% de los casos. Si el
percentil 75 de un determinado carácter cuantitativo, como puede ser la edad,
es 34, esto significa que el 75% de los individuos del grupo tienen, en la
variable edad, puntuaciones iguales o inferiores a 34.
13
d) Medidas de forma: La asimetría (G) es el coeficiente que indica si la forma de la
distribución de una variable cuantitativa es o no simétrica. Este dato es muy importante, porque
la elección de los índices estadísticos que describen a una distribución dependerá de si ésta es o
no simétrica.
Entre todos los índices estadísticos presentados, seleccionaremos en cada caso los más
apropiados para caracterizar la distribución de valores de la variable que queramos describir.
Generalmente, los índices más utilizados son la media como medida de tendencia central, y la
varianza o la desviación típica como medida de dispersión.
Sin embargo, cuando las variables son asimétricas, la media deja de ser una buena medida
de la tendencia central, y la varianza de dispersión. En estos casos, como medida de tendencia
central es mejor utilizar la mediana, y como medida de dispersión, la amplitud intercuartil.
La moda y la amplitud son índices especialmente indicados para describir distribuciones de
valores muy homogéneas (de muy poca variabilidad).
En los apartados anteriores hemos visto distintos índices descriptivos para variables cualitativas y
cuantitativas. Vamos a ver ahora algunos índices que nos permiten medir la asociación entre dos
variables, es decir, nos permiten ver si existe relación entre dos variables, si una de ellas depende,
en alguna medida, de la otra.
En este apartado vamos a centrarnos en el estudio de los índices que nos permiten medir la
asociación lineal entre dos variables cuantitativas X e Y. Estos índices son la covarianza y el
coeficiente de correlación de Pearson.
El índice básico para describir la asociación lineal entre dos variables cuantitativas X e Y (por
ejemplo, peso y talla) es la covarianza, que da una medida de la variabilidad conjunta de las dos
variables, y que tiene como unidades de medida el producto de las unidades de medida de las
variables X e Y.
La covarianza se define como el promedio de los productos de las desviaciones de las dos
variables respecto a su media . La suma de estos productos para los n sujetos de una muestra se
llama suma de productos cruzados, y se representa como SPxy.
Así, la fórmula de la covarianza es:
14
La covarianza toma valores positivos cuando en la muestra existe una asociación lineal
positiva entre las dos variables (es decir, a medida que aumentan los valores de una variable
aumentan los de la otra, para un mismo sujeto, a valores altos en una variable corresponden
valores altos en la otra variable), y negativos cuando se presenta una asociación lineal
negativa (a medida que aumentan los valores de una variable decrecen los valores de la otra
variable).
Como ya hemos dicho, estos valores tienen como unidades de medida el producto de las unidades
de medida de cada una de las variables, lo que supone un gran inconveniente de esta medida de
asociación.
Aunque más arriba hemos presentado la fórmula que nos permite calcular el valor del coeficiente de
correlación entre dos variables, el cálculo es muy sencillo, ya que basta con introducir en la
calculadora los n pares de valores para cada uno de los individuos (xi; yi).
Hasta ahora hemos visto cómo la Estadística Descriptiva nos permite recoger, ordenar, tabular y
describir los datos de un conjunto de individuos (muestra o población), es decir, conocer cómo se
comporta una población o una muestra respecto a una variable determinada (enfermedad,
exposición, parámetros bioquímicos, etc.). Pero en ocasiones, cuando la población es muy grande,
resultaría muy costoso y prácticamente imposible estudiar uno a uno a los sujetos de dicha
población.
15
1. TAMAÑO DE LA MUESTRA
Como paso previo cualquier técnica de muestreo, es necesario calcular el tamaño de la muestra,
es decir, determinar el número de sujetos que han de componer la muestra que vamos a estudiar.
2. ELECCIÓN DE LA MUESTRA
Una vez calculado el tamaño de muestra necesario, el siguiente paso será la elección de la muestra
propiamente dicha. La técnica de muestreo deberá diseñarse de forma que asegure que la muestra
de sujetos incluida represente adecuadamente a la población de estudio, es decir, que la
muestra sea representativa de la población de estudio. Si la muestra es representativa, la teoría de
la estimación permitirá inferir las características de la población a la cual pertenece dicha muestra.
La estadística ha desarrollado una serie de técnicas de muestreo que ayudan a obtener muestras
representativas y permiten calcular la magnitud del error debido al muestreo. Las principales
técnicas de muestreo son:
Para seleccionar una muestra por este sistema, necesitamos el listado completo y ordenado
de todos los trabajadores que componen la población, y a partir de ahí, utilizando por
ejemplo una tabla de números aleatorios, iremos seleccionando trabajadores hasta alcanzar
el tamaño de muestra adecuado.
Imaginemos que un médico de empresa quiere hacer un estudio sobre una muestra de los
trabajadores que acuden a su consulta. Conociendo el tamaño de la población candidata, y el
tamaño de muestra que necesita para realizar el estudio, se calcula el valor de K.
Supongamos que el resultado es K=10. Esto quiere decir que el médico realizará el estudio
sobre el décimo trabajador que acuda a su consulta, sobre el que haga el número 20, y así
sucesivamente hasta completar el tamaño de muestra necesario.
Por ejemplo, si tenemos una población con un 40% de hombres y un 60% de mujeres, y
queremos que la muestra sea similar a la población respecto a esta característica, deberemos
16
estratificar por la variable sexo (dividir a la población por esa característica) y seleccionar
una muestra de tamaño adecuado dentro de cada uno de los estratos, manteniendo la misma
proporción.
3. ESTIMACIÓN DE PARÁMETROS
Como dijimos al principio de la Unidad, los parámetros son los índices estadísticos que definen una
población. La Estadística Inferencial nos permite, a partir de un estadístico calculado para una
muestra (por ejemplo, una media o una proporción), estimar el parámetro para la población.
La forma más idónea de hacer esta estimación es utilizando intervalos de confianza, que permiten
definir el rango de valores donde muy probablemente (asumiendo cierto error) se encontrará
el parámetro que queremos estimar para la población.
Los parámetros que más habitualmente nos va a interesar estimar a partir de los datos de una
muestra van a ser la proporción y la media, aunque se puede hacer la estimación de cualquier
parámetro de la población, como la mediana, la varianza, etc.
4. CONTRASTE DE HIPOTESIS
En muchos estudios nos interesa, de un modo general, contrastar unos datos observados con
unos valores esperados (teóricos), es decir, comprobar si los datos obtenidos en el estudio de
una muestra son compatibles con nuestra hipótesis de trabajo, ver si esa hipótesis puede ser o no
aceptada. Al iniciar una investigación científica se plantean dos hipótesis que son mútuamente
excluyentes:
17
• La hipótesis nula (H0), de no diferencia, que es aquella que mantiene que no existen
diferencias entre los valores observados y los valores teóricos o esperados.
• La hipótesis alternativa (H1), de diferencia, que es aquella que mantiene que sí existen
diferencias entre los valores observados y los teóricos o esperados. Esta hipótesis se planta
como la más verosímil cuando se rechaza la hipótesis nula.
La hipótesis alternativa puede ser unilateral, cuando además de especificar que existen diferencias,
determina si el estadístico observado es mayor o menor que el parámetro, o bilateral, cuando
únicamente especifica que existen diferencias entre el estadístico observado y el parámetro, sin
determinar si es mayor o menor.
Ambas hipótesis, la nula y la alternativa, (de igualdad y de diferencia) deben ser planteadas de
forma simultánea. Las pruebas de significación o de contraste de hipótesis nos permiten valorar la
verosimilitud de una hipótesis respecto a los datos empíricos, y poder tomar la decisión de mantener
o rechazar la hipótesis formulada.
Por ejemplo, supongamos que deseamos comparar la proporción de accidentes laborales mortales
(accidentes mortales/total de accidentes) extraídos de dos muestras aleatorias de accidentes
ocurridos en dos años diferentes (A y B). Es decir, queremos saber si la proporción de accidentes
mortales en esos dos años es igual o diferente.
La hipótesis nula que deseamos contrastar es la hipótesis de igualdad, es decir: "La proporción de
accidentes laborales mortales en el año A es igual a la proporción de accidentes en el año B".
Junto a esta hipótesis nula se plantea su hipótesis complementaria, que se denomina hipótesis
alternativa: "La proporción de accidentes laborales mortales en el año A es diferente a la
proporción en el año B".
Para probar nuestras hipótesis, se pueden plantear distintas pruebas estadísticas, en función de
diversos factores. En cualquier caso, una vez realizadas las pruebas estadísticas oportunas, las
conclusiones se canalizan en dos sentidos diferentes:
Una vez planteadas la hipótesis nula y la alternativa, se procede a realizar las pruebas estadísticas
específicas y apropiadas para cada problema concreto. El resultado de cualquier prueba va a ser
siempre una probabilidad "p", que puede interpretarse como la probabilidad de que las
diferencias encontradas se deban al azar.
18
A partir de este valor p, debemos tomar una decisión sobre si la H0 puesta a prueba debe ser o no
rechazada. Se trata por tanto de evaluar si el grado de significación p obtenido es lo suficientemente
pequeño como para considerar la H0 poco verosímil, y en consecuencia, tomar la decisión de
rechazarla. Cuanto más pequeño sea el valor de "p", menos verosímil es la hipótesis nula de
igualdad.
No es posible establecer un criterio objetivo para decidir que probabilidad es alta o baja. Por ello, se
ha establecido un consenso por el que generalmente se da como valor de referencia el valor de
significación de 0.05, de manera que se considera significativo todo valor de "p" igual o menor de
0.05 (p£0.05). Cuanto mayor sea el valor de "p", más verosímil será nuestra hipótesis de igualdad.
Sin embargo, una p>0.05, pese a ser considerada una probabilidad alta de que la hipótesis nula se
cumpla, no nos permite afirmarla.
Un resultado puede ser estadísticamente muy significativo, y no tener ninguna relevancia clínica, ya
que la significación estadística depende de otros factores, además de la magnitud de la diferencia
observada. Por ello, es conveniente utilizar los intervalos de confianza para estimar la magnitud
de la diferencia (entre proporciones, medias, etc.) o la intensidad de la relación entre variables.
RESUMEN DE LA UNIDAD
La Estadística Descriptiva nos permite recoger, ordenar y analizar los datos de una muestra o
población, y la Estadística Inferencial nos permite, a partir de una muestra extraída de cierta
población, hacer inferencias acerca de esa población.
Los datos de una investigación se recogen en una tabla o matriz de datos, donde las filas
representan sujetos y las columnas variables. Las variables se pueden clasificar en dos grupos:
cualitativas (nominales u ordinales) y cuantitativas (discretas o continuas).
Las tablas que se obtienen con los diferentes tipos de variables se pueden visualizar mediante
representaciones gráficas cuya principal función es dar información global y resumida de los
datos recogidos.
Las distribuciones de datos se pueden describir a través de una serie de medidas o índices
estadísticos, diferentes en función del tipo de variable de la que se trate.
19
Posteriormente, si hemos realizado el estudio sobre una muestra, utilizaremos las técnicas de la
Estadística Inferencial para extrapolar esos datos a la población de procedencia de la muestra, es
decir, procederemos a la estimación de parámetros de la población.
Y finalmente, si el objetivo de nuestro estudio era comparar nuestros datos con unos datos teóricos,
procederemos a realizar los contrastes de hipótesis oportunos, utilizando para ellos las técnicas
adecuadas, en función fundamentalmente del tipo de variables que queramos comparar.
BIBLIOGRAFÍA
· CARRASCO, J.L. (1986). El método estadístico en la investigación médica. Madrid: Ed. Ciencia 3
S.A.
20