Está en la página 1de 283

TEMA 1

1.1 LA INVESTIGACIÓN EN PSICOLOGÍA


El método científico es un procedimiento estructurado que utiliza
la ciencia para la ampliación de sus conocimientos. Se caracteriza
por ser sistemático y replicable.
 Sistemático porque es un proceso que tiene unas etapas
definidas
 Replicable porque los datos obtenidos mediante su uso
tienen que poder ser replicados o refutados (en las mismas
circunstancias) por cualquier investigador interesado.

El método científico, por tanto, proporciona una manera de actuar


para afrontar una investigación, a través de las siguientes fases
interdependientes:

 Se define un problema, que puede surgir de teorías ya


establecidas, de la lectura de la bibliografía o de la
experiencia directa con los hechos. En la mayoría de los
casos surgen de lagunas o contradicciones en investigaciones
anteriores

 Se plantea una hipótesis, para dar solución al problema


planteado.

 Las siguientes tres fases tratan de contrastar si la hipótesis


planteada es compatible con los hechos. Para ello, hay que
establecer un procedimiento adecuado de recogida de
información, analizar los datos obtenidos y discutir los resultados
en busca de conclusiones.

 Por último, elaborar un informe acerca de la investigación que


se ha realizado para dar a conocer los resultados
1.2 CONCEPTO Y FUNCIONES DE LA ESTADÍSTICA:
DESCRIPCIÓN E INFERENCIA

La Estadística es la rama de las matemáticas que se encarga del


estudio de determinadas características en una población,
recogiendo los datos, agrupándolos, organizándolos en tablas,
representándolos gráficamente y analizándolos para sacar
conclusiones de dicha población.
La Estadística, dispone de dos áreas: la Estadística Descriptiva y
la Estadística Inferencial.

 Estadística Descriptiva se organizan y resumen conjuntos


de observaciones cuantificadas procedentes de una muestra o de la
población total. Este resumen puede hacerse mediante tablas,
gráficos o valores numéricos. Así, se dispone de distintos
procedimientos que nos permiten estudiar las características de una
o más variables:

 En el caso de una variable, podemos recurrir a estadísticos


que nos indicarán cuáles son los valores más habituales de
esa variable (índices de tendencia central ), hasta qué punto
esos valores son similares o diferentes entre sí (estadísticos
de variabilidad ), en qué grado las observaciones se reparten
equilibradamente por encima y por debajo de la tendencia
central (estadísticos de asimetría) y cómo de apuntada es la
distribución de las puntuaciones de la variable (estadísticos de
curtosis).

 En el caso de dos variables podemos utilizar índices que nos


indiquen hasta qué punto están ambas variables relacionadas
entre sí ( índices de asociación ); procedimientos que nos
permitirán predecir el valor de una variable en función de otra
(ecuaciones de regresión)

 Estadística Inferencial: se realizan inferencias acerca de


una población basándose en los datos obtenidos a partir de una
muestra.
En una investigación, queremos conocer un parámetro o
característica de los elementos de una población; sin embargo,
la población suele ser demasiado extensa para estudiarla al
completo, por eso se realiza un muestreo con el que se obtiene un
conjunto de elementos que representan a la población y se estudia
la característica deseada en la muestra mediante estadísticos que
se utilizarán para estimar los parámetros de la población.

Es importante distinguir entre población y muestra:

 Población: Conjunto de todos los elementos que cumplen


una determinada característica objeto de estudio. Ej: Niños
con TDAH en la comunidad gallega.

 Muestra: Subconjunto cualquiera de una población (personas,


animales o cosas) que cumplan una definición compartida por
la población. Ej. El subconjunto de a población de TDAG
gallega

Tenemos que distinguir entre parámetro y estadístico.

 Parámetro: índice medido en una población que la describe


de alguna manera

 Estadístico: índice medido en una muestra.

Utilizando la estadística inferencial, se pronostica el valor de los


parámetros poblacionales a partir de los estadísticos muestrales.
1.3 VARIABLES: MEDICIÓN Y CLASIFICACIÓN

Para representar las variables se utilizan letras latinas mayúsculas y


para referirnos a un valor cualquiera de la variable X se utiliza el
subíndice i (X,), siendo n el número de elementos que componen la
muestra:

X, siendo i = 1, 2, 3 ... , n

Cuando se trata de objetos físicos, el proceso de medición es


directo y fácil, pues sólo hay que seguir unas reglas prescritas
expresadas mediante determinadas escalas, como por ej. medir la
estatura pero cuando se trata de medir la timidez de un estudiante
en una situación de
interacción social, medir ya no es tan sencillo, pues hay que medir
variables que no son directamente observables.

El proceso de medición es previo al análisis de datos y especifica el


procedimiento de asignación de números a los valores de la
variable. Por
ejemplo, a los dos valores de la variable sexo (hombre y mujer) se
les puede asignar los números 1 y 2, y al peso de una rata se le
puede asignar el número en gramos que da la balanza. Para medir
variables psicológicas en muchas ocasiones se utilizan test
psicológicos. Su aplicación proporciona una puntuación para cada
persona en esa variable.
Otro ejemplo podría ser la valoración de la calidad de vida de un
paciente, medida a través de una pregunta que forma parte de un
test:

¿cómo calificarías tu calidad de vida7


A) Muy mala.
B) Regular.
C) Normal.
D) Bastante buena.
E) Muy buena.

La regla consiste en asignar un número a cada una de las opciones


de respuesta. Así se podría asignar un 1 a escoger la opción «muy
mala», un 2 a «regular», un 3 a «normal», un 4 a «bastante buena»
y un 5 a «muy buena».

En Psicología se utilizan diferentes escalas de medida en función


de la variable a medir, entendiendo como escala de medida el
conjunto de reglas o modelos desarrollados para la asignación de
números a las variables.
Un ejemplo de escala de medida es la escala centígrada de
temperatura, que se basa en asignar Oº a la temperatura de
congelación del agua y 100° a la de ebullición.

Siguiendo la clasificación de Stevens, pueden distinguirse cuatro


tipos de escalas de medida: nominal, ordinal, de intervalo y de
razón.

 ESCALA NOMINAL: Asignación, puramente arbitraria


de números o símbolos a cada uno de los valores de la variable.
La única relación que se tiene en cuenta es la de
igualdad/desigualdad, que implica la pertenencia o no a una
categoría determinada.
Los valores de la variable se denominan categorías.
En las variables nominales se puede asignar a cada valor de la
variable cualquier tipo de símbolo. Ej, en lugar de números
podríamos utilizar (S) para designar a los sanos y (E) a los
enfermos.

A las variables que presentan un nivel de medida nominal se les


denomina variables cualitativas o categóricas. Las variables
cualitativas se clasifican además, en función del número de
categorías que presentan. Si una variable presenta solo dos
categorías se dice que es una variable dicotómica (ej. el sexo); si
presenta más de dos categorías, es una variable politómica (ej. el
estado civil).

En ocasiones se categorizan variables que podrían medirse a un


nivel superior; en este caso, decimos que una variable se ha
dicotomizado si se han establecido dos categorías, y
politomizado si se han establecido más de dos categorías. Un
ejemplo sería la variable peso del roedor de un experimento:
aunque podríamos medir exactamente su peso en gramos,
puede resultar útil en una investigación dicotomizar la variable peso
clasificando a las ratas en peso alto y bajo, o politomizarla,
estableciendo tres o más niveles de peso.

 ESCALA ORDINAL: Se asignan números a objetos para


indicar la extensión relativa en que se posee una característica. Los
datos pueden utilizarse para jerarquizar u ordenar las
observaciones, pero sin indicar la distancia que hay entre las
posiciones. Cuando se asignan números es sólo para indicar el
orden de las. Esta escala permite la identificación y diferenciación
de los sujetos y además, permite establecer relaciones del tipo
«mayor que» o «menor que», aunque no se plantea una distancia
entre unas medidas y otras. En este caso, la asignación de números
a las distintas categorías no puede ser completamente arbitraria,
debe hacerse atendiendo al orden existente entre éstas.

Un ejemplo sería la variable severidad de la enfermedad, que


podría adoptar tres valores: 1 leve, 2 moderado y 3 grave.

Las variables ordinales también reciben el nombre de


cuasicuantitativas.

 ESCALA DE INTERVALO: Ordenan los objetos según


la magnitud del atributo que representan y proveen intervalos
iguales entre las unidades de medida. Con la escala de intervalo,
los números asignados a los objetos, no solo permiten decidir si un
objeto es igual o diferente a otro o si posee en mayor o menor grado
la característica de interés; además, la distancia entre los distintos
valores consecutivos de la variable es la misma.

La inteligencia medida con un test es un ejemplo de escala de


intervalo.
Si cuatro personas (A, B, C y D) han obtenido 80, 90, 150 y 160
puntos en un test de inteligencia, podemos decir que la diferencia
en inteligencia entre A y B es la misma que entre C y D (90-80 =
160-150), ya que el test proporciona una unidad de medida estable.
Sin embargo, no se puede afirmar que D sea el doble de inteligente
que A aunque tenga el doble de puntuación en el test, ya que para
realizar una afirmación de ese tipo sería necesario que el cero de la
escala fuera absoluto. En este caso es arbitrario porque obtener un
cero en un test de inteligencia no refleja ausencia inteligencia.

Lo que caracteriza a una escala de intervalo es la unidad de


medición común y constante.

En la escala de intervalo el origen es arbitrario, y no refleja


ausencia de la magnitud que estamos midiendo.

 ESCALA DE RAZÓN: Los números asignados a los objetos


admiten como válidas las relaciones de igualdad-desigualdad,
orden, suma, resta, multiplicación y división.
Tiene todas las características de una medida de intervalo
y, además, se le puede asignar un punto de origen verdadero de
valor cero, significando ausencia de la magnitud, pasando a ser un
valor absoluto.
Se puede afirmar que A tiene dos, tres o cuatro veces la magnitud
de la propiedad presente en B. La altura y el peso son dos ejemplos
típicos de escala de razón. Por ejemplo, si una rata de laboratorio
pesa 350 gramos y otra 175, podemos afirmar que la 1ª rata pesa el
doble que la segunda.

Es muy importante, la definición operativa de una variable


(cómo se define y se registra) porque puede determinar su nivel de
medida. La mayoría de las variables psicológicas se considera que
están medidas en una escala de intervalo. Así, si la variable
perseverancia, que es un rasgo de personalidad, se ha medido
mediante una prueba psicológica, su nivel de medida es de
intervalo. Sin embargo, si se define perseverancia como el número
de intentos o ensayos que realiza una persona para conseguir un
objetivo se trata de una escala de razón .

Las variables medidas en escala de intervalo y de razón son


variables cuantitativas. Las variables cuantitativas se clasifican,
además, en función de los valores numéricos que pueden asignarse
en continuas y discretas.

 Variable continua: es aquella para la que, dados dos valores,


siempre se puede encontrar un tercer valor que esté incluido entre
los dos primeros. Ej. el peso, ya que entre los valores 79 y 80 kg. se
pueden considerar todos los decimales que se quiera.
 Variable discreta es aquella que adopta valores aislados. Por
tanto, fijados dos valores consecutivos, no se puede tomar ninguno
intermedio. Ej. el número de hijos

1.4 ORGANIZACIÓN DE DATOS Y DESCRIPCIÓN DE


VARIABLES

Una vez que el investigador ha recabado la información


a través del proceso de medida y recogido los datos,
dispone de un listado o base, llamado matriz de datos. La
generación de una base de datos supone la codificación previa de
las observaciones, la introducción de los datos en algún programa
informático, la depuración de los datos ya grabados (detección y
tratamiento de los errores de grabación y valores perdidos), y la
realización de transformaciones de variables que faciliten su
posterior tratamiento estadístico. Hay muchos programas
estadísticos que se pueden utilizar
para organizar y analizar los datos

Una vez que los datos están codificados es necesario depurar


la base de datos que conlleva el procesamiento de los datos
perdidos y de los valores atípicos. Los datos perdidos son valores
que no han sido registrados, porque el participante no ha
consignado ese dato. Existen procedimientos de imputación de
datos, basados en los valores válidos de otros casos que se utilizan
en ocasiones en variables cuantitativas.
Un dato atípico es un valor muy diferente al resto de valores de la
misma variable. Suelen ser ocasionados por errores al introducir los
datos o por valores extremos, distorsionando los resultados de los
análisis, por ello hay que identificarlos y tratarlos de manera
adecuada, generalmente excluyéndolos del análisis.

Registrados los datos en un software es recomendable hacer un


control de calidad de la grabación de los mismos, revisando la
codificación de un porcentaje de los casos, habitualmente un
5% - 10% del total.
Depurada la base de datos, se utiliza para extraer la información
relevante. Si tenemos muy pocos datos es posible que la simple
inspección visual de los mismos sea suficiente para describir el
fenómeno, pero no es lo habitual por lo que se necesita organizar la
información mediante una distribución de frecuencias, que es una
tabla donde se resume la información disponible de una variable. Se
sitúan los valores de la variable por filas y en las columnas se
dispone el número de ocurrencias por cada valor, porcentajes, etc.
para facilitar la lectura de la información que contienen los datos.
Además de la organización de los datos, la distribución de
frecuencias cumple dos funciones fundamentales: ofrecer la
información necesaria para realizar representaciones gráficas y
facilitar los cálculos para obtener los estadísticos.

1.4.1 Descripción de variables cualitativas

La descripción de una variable cualitativa consiste en una


distribución de frecuencias y en su representación gráfica mediante
un diagrama de barras o de sectores.
En la distribución de frecuencias de variables cualitativas, se
muestran las frecuencias absolutas, las frecuencias relativas y los
porcentajes.
Para construir la tabla de distribución de frecuencias se
inspeccionan en primer lugar los valores que toma la variable.

En la primera columna se especifican los valores que adopta la


variable X o el número asignado a ese valor
En la segunda columna aparece la frecuencia absoluta (n) que
es el número de observaciones en cada categoría.
En la siguiente columna aparece la frecuencia relativa o
proporción de cada categoría (p), que se obtiene dividiendo la
frecuencia absoluta, n, entre el número total de observaciones, que
se representa por n. La frecuencia relativa también se expresa en
términos de porcentaje (P) para lo cual hay que multiplicar cada
una de las proporciones por cien (cuarta columna).

Los dos gráficos más habituales en la descripción de variables


cualitativas son los gráficos de barras y los gráficos de sectores. En
los gráficos de barra los distintos valores de la variable se sitúan en
el eje horizontal y las frecuencias o los porcentajes en el eje de
ordenadas.
Cada barra representa una categoría de la variable a representar,
siendo su altura igual a su frecuencia (o porcentaje). En los gráficos
de sectores cada sector representa una categoría de la variable y
su ángulo central debe ser proporcional a su frecuencia (o
porcentaje.

Diagrama de barras (a) y diagrama de sectores (b) de la variable


Bachillerato elegido.
Se muestra a continuación la distribución de frecuencias de la
variable estado civil de una determinada muestra. ¿cuál es la
proporción de personas casadas?

1.4.2 Descripción de variables ordinales o cuasicuantitativas


En el caso de variables ordinales se procede de la misma manera,
aunque con los valores situados en la tabla de acuerdo a un
determinado orden. Por ejemplo, la variable nivel de estudios
presenta los valores: Primarios, ESO, Bachillerato, Grado
universitario y Posgrado universitario.
En la distribución de frecuencias hay que preservar este orden,
ya sea empezando por el valor más bajo o más alto de la variable:
Para obtener estos valores, hay que ir acumulando (sumando),
desde la categoría de menor valor de la variable a la de mayor
valor, las frecuencias absolutas, proporciones o porcentajes, de
cada categoría de respuesta. Por ejemplo, la frecuencia
absoluta acumulada en el caso de Bachillerato es 29, resultado de
sumar las frecuencias de los valores anteriores (7 + 11 = 18) y la
suya propia ( 18 + 11 = 29), indicando que 29 personas presentan
un nivel de estudios de Bachillerato o inferior. En las variables
nominales carece de sentido el cálculo de las frecuencias
acumuladas, ya que sus valores no establecen un orden
determinado.
Las variables ordinales generalmente se representan con un
diagrama de barras o un diagrama de sectores. El diagrama de
barras también se puede realizar sobre las frecuencias,
proporciones o porcentajes acumulados, respetando el orden de los
valores de la variable representada:

Algunos índices apropiados para este tipo de variables son la


mediana y la y la amplitud intercuartil.
1.4.3 Descripción de variables cuantitativas

Al trabajar con variables cuantitativas puede suceder que el número


de valores que tome la variable sea reducido (ej. n° de hijos) o sea
muy amplio (horas de estudio semanales). En el primer caso, para
elaborar la distribución de frecuencias se procede de la forma
indicada para variables ordinales y en el segundo será necesario
agrupar la variable en intervalos, que consiste en formar grupos de
valores consecutivos de la variable.
Para ello, se sitúa cada uno de estos grupos en una fila, y se
calculan las frecuencias de cada grupo o intervalo de valores, y no
de cada valor de la variable.
En primer lugar, hay que decidir qué número de intervalos tendrá la
distribución de frecuencias. A la hora
de tomar esta decisión hay que tener presente que al establecer
intervalos siempre se pierde información, ya que ahora la frecuencia
no estará referida a un solo valor de la variable, sino a todos los
contenidos en el intervalo
Los límites aparentes tienen la misma unidad de medida que los
valores de la variable, Esto es, si los datos son enteros, entonces
los límites aparentes son enteros, Si los datos contienen decimales,
los límites aparentes tendrán el mismo número de decimales que
los datos recogidos.
Con los límites aparentes en la distribución existe discontinuidad
entre un intervalo y el siguiente, ya que el límite superior de un
intervalo no coincide con el límite inferior del siguiente intervalo,
Con los límites exactos de una distribución no existe
discontinuidad entre un intervalo y el siguiente, ya que el límite
superior exacto de un intervalo coincide con el límite inferior exacto
del intervalo siguiente. El Límite Inferior Exacto (LIE) se calcula
restando al valor del límite inferior aparente media unidad
de medida y el Límite Superior Exacto (LSE) se calcula sumando
al valor del límite superior aparente media unidad de medida.
Por tanto, los límites exactos del intervalo 1-5, por ejemplo son 0,5-
5,5, de forma que el límite superior exacto de un intervalo coincide
con el límite inferior exacto del siguiente.

A partir de los límites aparentes o de los límites exactos se calcula


el punto medio del intervalo, que es la semisuma del límite superior
e inferior del intervalo que es el punto medio del
Intervalo.
A un intervalo que no tiene límite inferior o límite superior se le
denomina intervalo abierto. Por ejemplo, si en la variable ansiedad
ante los exámenes, hubiera dos sujetos con una puntuación de 41
y 43 respectivamente, se puede optar por establecer el intervalo
abierto «más de 30», en lugar de añadir los tres intervalos
correspondientes 31- 35, 36-40 y 41-45, dos de ellos con frecuencia
nula.
Los gráficos más habituales para representar a una variable
cuantitativa discreta son el diagrama de barras y el diagrama de
líneas. En el caso de variables cuantitativas continuas
agrupadas en intervalos se utiliza el histograma, que es una
extensión del diagrama de barras que dibuja los rectángulos unidos
entre sí, indicando que existe continuidad en los valores de las
variables.

En el eje horizontal de un histograma se sitúan los límites exactos


de los intervalos o su punto medio. El histograma (a) se ha
realizado sobre los límites exactos de los intervalos y el histograma
acumulativo (b) se ha realizado sobre los puntos medios de los
intervalos.
El diagrama de líneas o polígono de frecuencias se construye
situando un punto a una altura
proporcional a la frecuencia en cada valor o en el punto medio de
cada intervalo (si la variable está agrupada en intervalos).
Finalmente se unen los puntos para formar una línea.
1.5 TENDENCIA CENTRAL, VARIABILIDAD Y FORMA DE UNA
VARIABLE: APROXIMACIÓN GRÁFICA

 TENDENCIA CENTRAL: Lugar donde se


centra una distribución particular en la escala de valores.

La Figura 1.7 podría representar, por ejemplo, la estatura medida en


un grupo de 1000 hombres nacidos en 1950 (A) y en otro grupo de
hombres nacidos en 1990 (B). Se puede apreciar los
hombres nacidos en 1990 son más altos que los nacidos en 1950.
Eso no significa que todos los nacidos en 1990 sean más altos (se
puede observar que hay solapamiento entre las curvas).
La tendencia central de los dos grupos es distinta (las curvas no se
solapan completamente) y que el grupo B (el nacido en 1990) tiene
una estatura promedio mayor que el grupo A (porque la curva del
grupo B está situada a la derecha, en
puntuaciones más altas de estatura). Esta tendencia central puede
cuantificarse mediante los estadísticos de tendencia central.
 VARIABILIDAD: Grado de concentración de los valores entre
sí o con respecto a un valor centr l de la distribución. Una
distribución de frecuencias es homogénea (tiene poca variabilidad)
si los valores de la distribución están cercanos al promedio y es
heterogénea (tiene mucha variabilidad) si los valores se dispersan
mucho con respecto al promedio.

En la Figura 1.8 el grupo A representa, las puntuaciones en


inteligencia medidas en un grupo de niños de distintos colegios
españoles, mientras que el grupo B representa las puntuaciones
en inteligencia de un grupo de niños de altas capacidades.
En este caso, además de una tendencia central distinta (el grupo B
presenta, en líneas generales, un nivel mayor de inteligencia que el
grupo A) podemos apreciar que las puntuaciones en inteligencia del
grupo de estudiantes con altas capacidades están más próximas
entre sí que las del otro grupo. Por tanto, el grupo A presenta una
mayor variabilidad en inteligencia que el grupo B.
 FORMA: Para estudiar la forma de una variable se analiza su
asimetría y su curtosis.

Asimetría: Grado en que los datos se reparten equilibradamente


por encima y por debajo de la tendencia central. Una distribución es
simétrica cuando al dividirla en dos partes iguales, las dos mitades
se superponen (caso del examen B). Una distribución tiene
asimetría positiva cuando la mayor concentración de puntuaciones
se produce en la parte baja de la escala (caso del examen A que es
difícil) y asimetría negativa cuando la mayor parte de las
puntuaciones se sitúan en la parte alta de la escala (caso del
examen C que es fácil).

En la Figura 1. 9 se ha representado la puntuación obtenida por un


grupo de alumnos en un examen muy difícil (A), en un examen de
dificultad intermedia (B) y en un examen muy fácil (C).

La curtosis es el grado de apuntamiento de los datos


Si la distribución de frecuencias es muy apuntada se llama
leptocúrtica (A), y si es muy aplastada se denomina platicúrtica
(C). Si su grado de apuntamiento es intermedio, mesocúrtica (B).
TEMA 2

2.1 ÍNDICES DE TENDENCIA CENTRAL

En el análisis descriptivo de la distribución de frecuencias de una


variable, es habitual que el número de observaciones sea grande y
que nos planteemos resumir, las principales propiedades de esa
distribución. En lo que respecta a la tendencia central de la
distribución, nos interesa calcular un valor central que actúe como
resumen numérico para representar al conjunto de datos. Estos
valores centrales de la variable se denominan medidas, índices o
estadísticos de tendencia central, que nos permiten representar
toda la distribución de frecuencias con un único valor y, además,
facilitan la comparación de diferentes conjuntos de puntuaciones de
una variable.

2.1.1 Media aritmética

La media aritmética o promedio o media, es el estadístico de


tendencia central más conocido y usado debido a su sencillez
La media aritmética indica la tendencia general de una distribución
de frecuencias de una variable y es el valor central alrededor del
cual están la mayoría de las observaciones y sólo puede calcularse
en variables cuantitativas (nivel de medida de intervalo o de razón).

La media aritmética de una variable X, es la suma de todos los


valores observados de la variable divididos por el número total de
observaciones. Se expresa matemáticamente:

X es el valor que toma la variable en el sujeto i


n es el número total de observaciones
Por lo general, el número de observaciones es mucho mayor que el
del ejemplo, por lo que es usual que los datos se presenten en
tablas de distribución de frecuencias agrupados. En
este caso, la media aritmética se puede calcular a partir de las
frecuencias absolutas (n) o de las frecuencias relativas o
proporciones (p,)
Con ambas fórmulas, se obtiene el mismo resultado
Como se puede comprobar, con ambas fórmulas, se obtiene el mismo
resultado.

En el caso de una distribución de frecuencias agrupadas en


intervalos se calcula igual, teniendo en cuenta que los valores de X
de la fórmula (X) serán los puntos medios de cada intervalo.
La media aritmética aprovecha toda la información disponible en los
datos, ya que para su cálculo es necesario utilizar todas las
puntuaciones de los participantes.

Propiedades de la media aritmética


Limitaciones de la media aritmética

 Cuando los datos están agrupados en intervalos, la media no


se puede calcular si el intervalo máximo no tiene límite
superior y/o el intervalo mínimo no tiene límite inferior.

 La media es sensible a la existencia de unas pocas


observaciones con valores extremos en la distribución de
frecuencias. Esta circunstancia se da en distribuciones
marcadamente asimétricas, por lo que no es recomendable la
utilización de la media en este tipo de distribuciones debido a
que afecta a su representatividad como valor central de la
distribución.
2.1.2 La mediana

Cuando la distribución es asimétrica una buena alternativa a la


media aritmética para resumir la tendencia central de las
puntuaciones es la mediana, que no se ve afectada por los valores
extremos, debido a que en su cálculo no intervienen
todos los valores de la distribución sino únicamente los que ocupan
las posiciones centrales.

La mediana se puede obtener en todo tipo de


variables, excepto en variables cualitativas. Asimismo, conviene
señalar que el valor de la mediana no tiene por qué coincidir con un
valor real de la variable (especialmente en variables cuantitativas
discretas). Se trata de un valor que cuantifica la tendencia central
de la distribución y que se ajusta a la siguiente definición:

Supongamos que hemos obtenido la puntuación de n participantes


en una variable. Para el cálculo de la mediana con pocos casos se
procede de la siguiente manera:

1º se ordenan las n puntuaciones de menor a mayor.


2º se observa si el número de observaciones n es impar o par. Si n
es impar, el valor de la mediana es el de la observación que ocupa
la posición central, dentro de ese conjunto de observaciones ya
ordenadas. Esa posición central coincide con la posición
(n+l) / 2.
Si el número de observaciones n es par, la mediana
es la media aritmética de los dos valores centrales de la
distribución.
Los dos valores centrales son los que ocupan las posiciones
n/2 y (n/2 )+l. Por lo tanto, la mediana es igual a:
Lo normal es que el número de observaciones no sea tan pequeño,
que aparezcan valores de observaciones repetidos y, que por ello,
los datos se presenten en tablas de distribución de frecuencias
agrupados o no en intervalos. En este caso, el intervalo en el que se
encuentra la mediana se denomina intervalo crítico y
se corresponde con aquél en el que la frecuencia absoluta
acumulada na es igual o superior a n/2 o la proporción acumulada
(pa ) es igual o mayor a 0,50. La mediana se obtiene con la
siguiente fórmula:
El origen de la fórmula planteada se basa en el método de
interpolación, en el que se asume la distribución homogénea de las
puntuaciones dentro de cada intervalo. Su estudio nos ayuda a
entender el concepto y la lógica que subyace a la fórmula que
utilizamos para su cálculo. Veamos
cómo se puede calcular directamente la mediana con este método
utilizando
los datos del Ejemplo 2.6. Se sabe que el número de observaciones
es n = 40 y que, por lo tanto, la mediana es el valor que deja por
debajo de sí a 20 casos. Se ha identificado el intervalo crítico en [6 -
10] y el número de puntuaciones acumuladas hasta el límite
superior del intervalo anterior al crítico [1 - 5] es den,, = 13. Por
tanto, faltan 20 - 13 = 7 observaciones para llegar al 50% en el que
se encuentra la mediana:

Cuando se trata de una distribución de frecuencias, pero los datos


no están agrupados en intervalos, el cálculo de la mediana es
un caso particular de la fórmula anterior en la que la amplitud de los
intervalos es igual a uno (I = 1) y los límites exactos de dicho
intervalo se obtienen sumando y restando 0,5 unidades a cada valor
de la variable.
La mediana se puede calcular en cualquier distribución de
frecuencias de variables, excepto cuando se trata de una variable
cualitativa o de una variable agrupada en intervalos en la que existe
un intervalo abierto y éste es el intervalo crítico en el que se
encuentra la mediana.
2.1.3 La moda

Un tercer estadístico de tendencia central que se puede obtener,


tanto en variables cualitativas como en cuantitativas, es la moda.

Cuando en una variable existe un único valor con la frecuencia


absoluta máxima, la distribución presenta una única moda y es
unimodal. Sin embargo, la distribución de una variable no tiene por
qué tener una única moda. De hecho, si son dos los valores con la
frecuencia más alta la distribución es bimodal, si son tres los
valores sería trimodal, ... En la Figura 2.2, la distribución de arriba
es unimodal y la moda es el valor X3 , mientras que la de abajo es
bimodal, siendo las dos modas los valores X2 y X3 . También
puede ocurrir que una distribución no tenga moda, lo que
se denomina distribución amodal. Esto sucede cuando todos los
valores tienen la misma frecuencia absoluta; en este caso no se
puede calcular la moda.
Cálculo de la moda según el tipo de variable:

En el caso de una distribución de una variable cualitativa, la moda


es la categoría con la máxima frecuencia.

En esta variable, la categoría con mayor frecuencia absoluta es


Humanidades y Ciencias Sociales con n1 = 21. Por lo tanto, esa
categoría es la moda de esta distribución.

En una distribución de una variable cuantitativa con los datos no


agrupados en intervalos, la moda es el valor con la mayor
frecuencia absoluta.
Si se trata de una distribución de una variable cuantitativa
con los datos agrupados en intervalos, se localiza el intervalo modal
(intervalo con la frecuencia máxima) y la moda es el punto medio de
dicho intervalo.

Características de la moda:

 Es un índice de cálculo sencillo y de fácil interpretación.

 De los tres índices de tendencia central, la moda es el


único que, además de aplicarse a variables cuantitativas, se
puede calcular en variables cualitativas.

 Cuando los datos están agrupados en intervalos y existen


intervalos abiertos, la moda se puede calcular, excepto si el
intervalo modal coincide con el intervalo abierto.
2.1.4 Elección de un índice de tendencia central

Cuando se ha medido una variable en una muestra de n


observaciones, y se desea seleccionar un valor que resuma
adecuadamente la tendencia central de la distribución de
frecuencias, la primera opción se recomienda utilizar, es la media
aritmética. Únicamente se desaconseja su uso cuando la
distribución es asimétrica, con unos pocos valores extremos que
pueden distorsionar la representatividad de la media como
tendencia central de la distribución.
La media, es un índice que no tiene sentido calcular, tanto en el
caso en el que el nivel de medida de la variable sea nominal u
ordinal, o cuando los datos estén agrupados y existan intervalos
abiertos en los extremos de la distribución.
Cuando la media no se pueda aplicar (o no sea recomendable su
utilización), usaremos la mediana que es más resistente a los
valores extremos que generan asimetría en la se puede obtener en
variables con nivel de medida ordinal, y, además, se
puede calcular en distribuciones con datos agrupados en intervalos
con intervalos abiertos. Sin embargo, en ocasiones no se puede
obtener la mediana, debido a dos motivos:

1) el nivel de medida de la variable es nominal

2) Con datos agrupados en intervalos, la mediana se encuentra


en el intervalo abierto. En esa situación, la única alternativa
posible es utilizar la moda, la cual no se puede calcular
cuando la distribución sea amodal (no tiene moda) o el
intervalo abierto coincide con el intervalo modal.

 Cuando las variables son cualitativas únicamente se puede


utilizar la moda como medida de tendencia central.

 En el caso de variables con nivel de medida ordinal, se


pueden obtener tanto la moda como la mediana.

 Si la variable es cuantitativa se pueden calcular los tres


índices de tendencia central, lo que implica disponer de mayor
información para estudiar esta propiedad de las distribuciones.

 Cuando la distribución de una variable cuantitativa es


simétrica y unimodal, coinciden los valores de la media,
mediana y moda.
Resumen de la aplicación de los índices de tendencia
central en función del nivel de medida y el tipo de variable.
2.2 ÍNDICES DE POSICIÓN

Los índices estadísticos de posición, informan acerca de la


posición relativa de un sujeto con respecto a su grupo de referencia,
dentro de la distribución de frecuencias de la variable.

Dado que se trata de localizar la posición de un sujeto en una


distribución, para construir un estadístico de posición, debemos
dividir la distribución en un número de secciones iguales entre sí en
cuanto al número de observaciones. Por ejemplo, si queremos
dividir una distribución en dos partes iguales, necesitamos un único
valor para esa partición, que coincide con la mediana de la
distribución (divide la distribución en dos partes, cada una con el
50% de las observaciones).
Dependiendo de cuantos valores de la variable se utilicen para
dividir la distribución, se puede hablar de diferentes medidas de
posición.
Existen tres índices estadísticos de posición; percentiles (los más
utilizados. Cuartiles y deciles.

2.2.1 Percentiles o centiles

Son los 99 valores que dividen en 100 partes iguales la distribución


de frecuencias de la variable. Los percentiles no son porcentajes,
sino valores que dejan por debajo de sí un porcentaje de las
observaciones o casos.

Cálculo de los percentiles con datos agrupados en intervalos:

1º Saber qué número de casos, de todos los que tenemos (n), deja
por debajo de sí el percentiI k. Ese valor lo obtenemos calculando el
valor de
2º localizamos el intervalo en el que se encuentra el percentil k. Este
intervalo se denomina intervalo crítico y se corresponde con aquél
en el que la frecuencia absoluta acumulada n, es igual o superior a
3º Obtenemos el percentil k aplicando la siguiente fórmula:
Cuando en la distribución de frecuencias los datos no están
agrupados en intervalos, se aplica la misma fórmula, pero con
amplitud del intervalo igual a uno(I= 1).
Cuando se tienen muy pocos datos, no es habitual calcular
percentiles porque tienen poca utilidad, pero si fuera necesario
obtener un percentil en esas circunstancias y para simplificar los
cálculos, se aplicaría también la fórmula general de los percentiles
asumiendo intervalos con amplitud igual a uno.
Con el método descrito se puede calcular el valor de cualquiera de
los 99 percentiles de una distribución. Sin embargo, puede suceder
que se tenga un valor o puntuación de la variable, X, y nos interese
saber qué percentil ocupa ese valor en la distribución. Para realizar
ese cálculo hay que despejar k de la ecuación anterior, obteniendo
la siguiente fórmula:

Cuando se calcula a qué percentil corresponde una puntuación,


podemos obtener un valor con decimales, por lo que tomaremos la
cantidad entera más próxima; si el primer decimal es igual o mayor
a cinco, tomaremos el número entero superior; si es menor que
cinco tomamos el número entero inferior.
Otra situación que nos podemos encontrar es que se pida el
percentil de una puntuación que es, al mismo tiempo, el límite
exacto superior de un intervalo y el límite exacto inferior del
siguiente intervalo. En este caso se puede elegir cualquiera de los
dos intervalos como intervalo crítico y obtendríamos el mismo
resultado:
2.2.2 Cuartiles y deciles

Los cuartiles y deciles son dos estadísticos de posición en los que


las secciones en las que se divide la distribución de frecuencias son
muchas menos que en los percentiles.

Debido a la equivalencia con los percentiles, para calcular los tres


cuartiles se utilizan los métodos propuestos para los percentiles. En
concreto, Q1 se calcula mediante P25, Q2 mediante P50 y Q3,
mediante P75. Con los deciles, ocurre lo mismo

Tabla de equivalencias de los tres índices de posición de una


distribución de frecuencias:
TEMA 3

3.1 MEDIDAS DE VARIABILIDAD

La variabilidad o dispersión, es el grado de variación que hay en


un conjunto de puntuaciones.

En la Figura 3.1 (a) las puntuaciones están muy próximas entre sí y


concentradas en torno al valor promedio, por lo que parece que
existe poca dispersión en los datos, sin embargo, en la figura 3.1
(b), las puntuaciones están más alejadas entre sí y no están tan
concentradas alrededor de la media, existiendo mayor variabilidad.
Cuanto menor es la variabilidad en una distribución, más
homogénea es la muestra de sujetos en la variable que estamos
midiendo. En el caso extremo y poco habitual de máxima
homogeneidad, todos los valores de la variable serían iguales entre
sí y a la media, y no habría variabilidad en los datos.
Cuando existe cierta dispersión en los datos, la muestra es más o
menos heterogénea y las puntuaciones difieren entre sí. Para
cuantificar la dispersión, se han definido numerosos índices de
variabilidad. Hay dos tipos de índices:

1. Aquellos que miden el grado en el que las puntuaciones


se asemejan o diferencian entre sí.

2. Aquellos en los que la dispersión se mide con respecto a


alguna medida de tendencia central como la media aritmética.

3.1.1 Amplitud total o rango o recorrido de las observaciones

La amplitud total (AT), de un conjunto de puntuaciones,


es la distancia que hay en la escala numérica entre los valores que
representan la puntuación máxima y la puntuación mínima.

En variables agrupadas en intervalos la puntuación máxima es el


límite superior exacto del intervalo máximo y la puntuación mínima
es el límite inferior exacto del intervalo mínimo.
Este índice es muy sencillo de calcular y utiliza muy poca
información del conjunto de puntuaciones, ya que se trata sólo de la
diferencia entre el mayor valor (Xmax ) y el menor valor (Xmin) de la
variable. Por otro lado, y como consecuencia de lo anterior, su
principal inconveniente es que es sensible únicamente a los valores
extremos de la distribución, por eso, no capta la poca o mucha
dispersión que pueda existir entre los restantes valores, que son la
gran mayoría de las puntuaciones.

3.1.2 Varianza y desviación típica

La varianza de un conjunto de n puntuaciones en una variable X,


denotada por , se define como el promedio de los cuadrados de
las desviaciones de las puntuaciones con respecto a la media.
Cuando los datos se presentan en tablas de distribución de
frecuencias es necesario tener en cuenta la frecuencia de cada
intervalo. En estos casos, la varianza se puede obtener utilizando
las dos expresiones equivalentes siguientes:
Como se puede observar, la varianza, al basarse en diferencias al
cuadrado, es un número positivo que se expresa en las unidades de
la variable al cuadrado.
Con el fin de lograr una medida de dispersión en las mismas
unidades que la variable y que sea más fácilmente interpretable, se
calcula la raíz cuadrada de la varianza y se obtiene un índice que se
denomina desviación típica.
A la hora de
cuantificar la variabilidad de los datos, la desviación típica se suele
utilizar más que la varianza debido a que se expresa en las mismas
unidades de medida que la variable objeto de estudio.
Ambos índices presentan una serie de propiedades:

 El cálculo de la varianza y la desviación típica, a diferencia de


otros índices de dispersión, requieren el uso de todas las
puntuaciones observadas en la distribución.

 La varianza y la desviación típica miden la variabilidad de los


datos con respecto a la media aritmética, por lo que sólo
deben aplicarse si es apropiado utilizar la media como medida
de tendencia central.

 La varianza y la desviación típica, nunca es negativa;


pueden ser iguales o mayores que cero. Son iguales a cero
sólo si todas las puntuaciones son iguales entre sí. En este
caso, no habría variabilidad o dispersión en los datos. En el
resto de los casos, la varianza y la desviación típica son
positivas

 Si a las puntuaciones de la variable X les aplicamos una


transformación lineal: Y=bXi+a, la varianza de las nuevas
puntuaciones Y será y la desviación típica será

Otro índice de variabilidad relacionado con la varianza es la


Cuasivarianza, donde se divide por n - 1, en lugar de n como en la
varianza

.
La cuasidesviación típica se define como la raíz cuadrada de la
cuasidesviación típica:
3.1.3 Coeficiente de variación

Es frecuente que uno de los objetivos del análisis descriptivo de los


datos sea la comparación del grado de variabilidad o dispersión
entre dos conjuntos de puntuaciones en una misma variable o en
distintas variables.
Debido a que las variables objeto de estudio se miden en unidades
distintas no tiene sentido compararlas en base a los valores de sus
varianzas o desviaciones típicas. Para paliar este inconveniente es
necesario definir un índice de variabilidad relativa que no
dependa de las unidades de medida. Un coeficiente que cumple con
estos requisitos es el coeficiente de variación:

El coeficiente de variación está definido para variables con X > 0 y


es recomendable que su resultado se acompañe de la media y
desviación típica de la distribución a partir de las cuales ha sido
calculado.
Es importante resaltar que, cuando comparamos dos conjuntos de
puntuaciones obtenidas de la misma variable, también es necesario
el coeficiente de variación para comparar la dispersión de ambas
distribuciones.
Únicamente es posible utilizar la desviación típica cuando la media
de ambos grupos es la misma y, en ese caso, llegaríamos a las
mismas conclusiones con ambos índices.
3.1.4 Amplitud intercuartil

En ocasiones, y debido a la asimetría de la distribución, no es


aconsejable el uso de la varianza, la desviación típica, o la media
aritmética, teniendo que usar un índice resistente de dispersión
adecuado, que se utilizaría junto con la mediana como medida de
tendencia central. Estamos hablando de la amplitud intercuartil.
La amplitud intercuartil, AiQ, o rango intercuartil es la diferencia
entre el tercer y el primer cuartil.
Este índice no informa de la variabilidad del conjunto de
puntuaciones, sino del 50% de las mismas comprendidas entre el
percentil 25 y el 75 de la distribución.
3.2 MEDIDAS DE FORMA

3.2.1 Asimetría de una distribución

La asimetría de una distribución nos indica el grado en el que las


puntuaciones se reparten por debajo y por encima de la medida de
tendencia central. Los que más se utilizan son el de Pearson y el
de Fisher.

 Índice de asimetría de Pearson: Se basa en la relación entre


la media y la moda:

Es un índice adimensional, que se aplica a distribuciones


unimodales. Cuando la distribución es simétrica, la media y la moda
coinciden Ap= 0. En distribuciones con asimetría positiva, la media
es mayor que la moda, Ap>0. Cuando la asimetría es negativa, el
valor de la moda es superior al de la media Ap <0.
 Índice de asimetría de Fisher. Se basa en las distancias de
las puntuaciones respecto a su media elevadas al cubo, por lo
que su valor puede ser positivo, negativo o cero.

Este índice tiene en cuenta las puntuaciones de la muestra por lo


que puede considerarse el mejor índice de asimetría. Su valor es 0
si la distribución es simétrica (A p= 0); menor que 0 si la distribución
es asimétrica negativa (Ap< 0); y mayor que 0 si es asimétrica
positiva (AF> 0).
3.2.2 Apuntamiento o curtosis de una distribución

La curtosis, es el grado de apuntamiento de los datos en la


distribución de frecuencias y que adopta tres formas diferentes: a)
leptocúrtica: sí la distribución es muy apuntada; b) platicúrtica: si es
muy aplastada; y c) mesocúrtica: sí muestra un grado de
apuntamiento intermedio.

A continuación se presenta un índice que cuantifica el grado de


apuntamiento de la distribución de frecuencias. El índice de
curtosis se basa en
las distancias de cada puntuación respecto a la media elevadas a la
cuarta potencia:

Una distribución en la que el índice sea 0 (Cr= 0) se dice que es


mesocúrtica y tiene un grado de apuntamiento similar al de la curva
normal.
Si el índice es positivo (Cr> 0) la distribución es leptocúrtica y el
apuntamiento es mayor que en la distribución normal.
Si el índice es negativo (Cr < 0) la distribución es platicúrtica y el
grado de curtosis o apuntamiento es menor que en la curva normal.
3.3 DIAGRAMA DE CAJA O GRÁFICO DE CAJA Y BIGOTES

Presentación visual, útil para estudiar la asimetría de una variable


Cuantitativa y para detectar si hay valores extremos o atípicos
(outliers) en la distribución de frecuencias (sin agrupar en
intervalos).
El diagrama se representa mediante una caja rectangular, cuya
altura se corresponde con la amplitud o rango intercuartil
AIQ = Q3-Q1 = P 75 - P25. Dentro de la caja se dibuja una línea para
indicar dónde se sitúa la mediana, que coincide con el
segundo cuartil o Q2. La caja es atravesada por una línea vertical
llamada bigote, en cuyos extremos se sitúan los valores mínimos y
máximos de la variable
Los límites que determinan si un valor es atípico se calculan
multiplicando la amplitud intercuartil (AIQ) por 1,5 y restando este
resultado al primer cuartil Q1: (cálculo del límite inferior) o
sumándolo al tercer cuartil Q3 (cálculo del límite superior).
Cuando existen casos extremos o atípicos, éstos aparecen como un
círculo pequeño por encima o por debajo de los bigotes del
diagrama de caja.
Para estudiar la asimetría, hay que tener en cuenta la
longitud de los bigotes y el número de casos atípicos en ambas
colas de la distribución: si los bigotes tienen la misma longitud y el
mismo número de casos atípicos en ambos lados, diremos que es
aproximadamente simétrica.
Si los bigotes son de igual longitud pero hay más casos
atípicos en un extremo en una cola de la distribución, entonces
diremos que la distribución presenta asimetría. Si los bigotes
presentan diferente longitud estamos ante una distribución
asimétrica, como es el caso representado en la figura 3.3.
3.4 PUNTUACIONES TÍPICAS

Hasta ahora hemos tratado con puntuaciones directas


(puntuaciones de un sujeto en un test, etc.), pero la comparación de
las puntuaciones directas de un mismo sujeto en dos variables
distintas puede llevarnos a confusión, ya que las puntuaciones
directas nos ofrecen muy poca información.
Una solución, es trabajar con puntuaciones diferenciales.
Si a una puntuación directa X, le restamos la media de su grupo
obtenemos una puntuación diferencial que representamos
por x (minúscula):

Características:

Por tanto, al restar a las puntuaciones directas su media hemos


obtenido una nueva escala con media 0 y con idéntica varianza a
las puntuaciones directas. Sin embargo, dos puntuaciones
diferenciales idénticas pueden tener un significado muy diferente en
función de la media y de la varianza de las distribuciones de las que
proceden. Para eliminar este inconveniente se utilizan las
puntuaciones típicas que nos permiten comparar las puntuaciones
de un sujeto en dos variables distintas y también comparar dos
sujetos distintos en dos pruebas o variables distintas.
Al proceso de obtener puntuaciones típicas se llama tipificación.
Una puntuación típica indica el número de desviaciones típicas
que se aparta de la media una determinada puntuación.

Las puntuaciones típicas reflejan las relaciones entre las


puntuaciones con independencia de la unidad de medida. Por eso
permiten hacer comparaciones entre distintos grupos y variables

Características:
TEMA 4

4.1 ASOCIACIÓN ENTRE DOS VARIABLES CUALITATIVAS

Una variable es nominal o cualitativa cuando a lo largo de ella sólo


es posible establecer categorías no ordenadas;
También se considerarán cualitativas aquellas variables que tienen
un mayor nivel de medida (ordinal, intervalos o razón) pero, a
posteriori, han sido categorizadas.
Se dice que hay asociación entre dos variables si existe algún tipo
de patrón de emparejamiento entre los distintos valores de esas
Variables, por lo que, la existencia de asociación entre dos
variables indicaría que la distribución de los valores de una de las
dos variables difiere en función de los valores de la otra. Por
ejemplo, si nos interesa conocer la relación entre la nacionalidad de
los turistas que vienen a veranear a España y el tipo de alojamiento
que utilizan, podríamos decir que hay relación entre ambas
variables si el tipo de alojamiento elegido varía en función de la
nacionalidad.
Es habitual que el investigador compruebe que los dos grupos
formados al azar están equilibrados en alguna variable de interés.
No serviría utilizar una distribución de frecuencias, ya que
se precisa información de las dos variables de manera conjunta. En
estos casos hay que utilizar una tabla de contingencia o tabla de
doble entrada.

4.1.1 Tabla de contingencia

Una tabla de contingencia es una forma de ordenar los datos para


estudiar la relación entre variables con pocas categorías, donde
situamos los valores de una de las variables en las filas y los
valores de la otra variable en las columnas.
Cada celdilla representa la frecuencia o número de elementos que
reúne a la vez los valores de las dos variables que se cruzan en
cada casilla.
En el ejemplo que nos ocupa, de la Tabla 1.2. en la variable sexo se
asignó el valor 1 a los hombres y el valor 2 a las mujeres, y en la
variable grupo se asignó el valor 1 al grupo
control y el valor 2 al grupo experimental.
Como puede observarse en la Tabla 4.2, hay 14 hombres
asignados al grupo de control, 9 al grupo experimental, 6 mujeres
asignadas al grupo control y 11 al experimental. Como se indica en
la Tabla 4.3, estos cuatro
valores son frecuencias conjuntas, porque en ellas se toma en
consideración uno de los valores de las dos variables; así, 14 son el
número de personas que adoptan el valor 1 (hombre) en la variable
sexo y que adoptan el valor 1 (control) en la variable grupo. Las
frecuencias marginales son los totales de cada valor de una única
variable. Por ejemplo, 23 es el total de hombres de la muestra y 17
es el total de mujeres. En cuanto a la variable
grupo, sus frecuencias marginales son 20 y 20.
La suma de las frecuencias marginales de cada variable
tiene que ser igual al total de la muestra. Así, en el caso de la
variable sexo 23 + 17 = 40, y en el caso de la variable grupo
20 + 20 = 40.
En la Tabla 4.4 aparecen varios tipos de frecuencias absolutas:

 La frecuencia absoluta de cada celda que surge de la


distribución conjunta por combinación de dos valores: número
de casos que comparten dos características a la vez ·

 La frecuencia absoluta total de cada valor o categoría de la


variable. El conjunto de estos valores dan la distribución
marginal absoluta: número de casos que tienen una
característica, de la variable X o fila o de la variable Y o
columna

 El total de casos analizados es n o , de una muestra de la


población, o del total de unidades de la población.
Todas las frecuencias que aparecen en las tablas de contingencia
anteriores son frecuencias absolutas , pero de manera habitual,
las tablas de contingencia se presentan además con información de
los porcentajes.

Hay tres tipos de porcentajes conjuntos que se utilizan en una


tabla de contingencia:

 Porcentaje del total : es el número de casos de cada


celdilla dividido por el total de casos (n) y multiplicado por 100.

 Porcentaje condicionado a X, o porcentaje por fila: es el


número de casos de cada celdilla dividido por el total de casos
por fila y multiplicado por 100. El conjunto de estos valores se
denomina distribución condicional de filas.

 Porcentaje condicionado a Yj o porcentaje por columna:


es el número de casos de cada celdilla dividido por el total de
casos por columna y multiplicado por 100. El conjunto de
estos valores se denomina distribución condicional de
columnas.
Al considerar los porcentajes para interpretar la relación entre las
variables hay que tener en cuenta si la relación entre las variables
es simétrica o asimétrica. En una relación asimétrica una de las
dos variables se considera como factor explicativo de la distribución
de la otra variable, y en una relación simétrica, no existe distinción.
En la Tabla 4.5, la relación entre las variables sexo y grupo es
simétrica, porque una variable no influye en la otra.
En una relación asimétrica los porcentajes se calculan en el
sentido de la variable explicativa, por lo que la suma de los
porcentajes en cada categoría de la variable explicativa referidos al
total marginal de esa categoría será el 100%; ej. si la variable
explicativa se sitúa en las columnas, para hacer las comparaciones
se calcularán los porcentajes por columna.
En una relación simétrica se puede utilizar cualquiera de los
porcentajes.
Cada uno de los tres tipos de porcentajes, pone el énfasis en una
distribución diferente y ofrece comparaciones distintas, según el
sentido de la predicción. La utilización de los porcentajes permite
eliminar la influencia del tamaño de la muestra y del tamaño de los
marginales, realizando estas, podemos ver si hay relación o no
entre las variables, así como la naturaleza de la relación.
4.1.2 Representación gráfica: diagrama de barras conjunto

El diagrama de barras conjunto es apropiado cuando al menos una


de las dos variables es cualitativa. Se construye sobre los datos de
la tabla de contingencia, situando una de las dos variables en el eje
horizontal y para identificar la otra variable se utilizan barras de
distinto color o trama.
Hay dos formas de representar un diagrama de barras conjunto:
diagrama de barras adosadas y diagrama de barras apiladas

4.1.2.1 Diagrama de barras adosadas

Barras colocadas horizontalmente o verticalmente , mostrando la


frecuencia de cada casilla del interior de la tabla de contingencia.
Para cada valor de la variable X se representa, una al lado de otra,
la frecuencia con que se presenta cada valor de Y dentro de ese
valor de X. Al estar situadas unas junto a otras permite la
comparación rápida entre las variables y dentro de cada variable.
4.1.2.2 Diagrama de barras apiladas

Muestra una barra por cada valor que toma la variable Y, las cuáles
a su vez, se dividen en distintos colores que representa a cada valor
de la variable X. Indica la frecuencia con la que aparece cada valor
de X en cada valor de Y, comparando entre categorías, la
aportación de cada valor al total.
Representación más adecuada para visualizar porcentajes
condicionados.
4.1.3 Medidas globales de asociación entre variables
cualitativas

4.2.3.1 Independencia:

Se habla de independencia entre variables cuando no existe un


patrón de relación entre los valores de las mismas.
Para saber si existe o no independencia entre dos variables se
utiliza el estadístico , que se basa en la comparación de las
frecuencias conjuntas, comparando las frecuencias empíricas con
las frecuencias teóricas, suponiendo que fueran independientes. Al
comparar estas frecuencias, si no existen diferencias entre ellas se
concluye la ausencia de relación de interdependencia, por lo que se
concluye que las variables son independientes entre sí.
Una frecuencia empírica es la se corresponde con los datos
observados.
En esta tabla de contingencia las frecuencias empíricas son

Las frecuencias teóricas hay que calcularlas a partir de:


Empezando con la primera celdilla, que tiene una frecuencia
empírica de 14, su frecuencia teórica es igual 23 x 20/40=11.5.
En este caso, las frecuencias marginales de la variable
grupo coinciden (hay 20 participantes en el grupo de control y 20 en
el experimental) por lo que las celdillas de la misma fila tienen la
misma frecuencia teórica. De igual manera, se calculan el resto de
las frecuencias teóricas, que se situarán en la misma tabla entre
paréntesis.

Una vez conocidas las frecuencias empíricas y teóricas se puede


cal cular . El sumatorio engloba toda la fracción, por lo que se
van a sumar cuatro fracciones, una por cada celdilla. Sustituyendo,
en la primera fracción tenemos que la frecuencia empírica menos la
frecuencia teórica es 14 - 11 ,5, se eleva el resultado de la resta al
cuadrado y se divide entre 11,5, con un dando 0,543. Y así, con el
resto de celdillas de la tabla. El resultado es 2,556.

El índice toma el valor 0 cuando dos variables son


independientes, siendo mayor que 0 cuando exista asociación entre
ellas, tanto mayor cuanto más intensa sea esa relación. Ahora bien,
no tiene un límite máximo, lo cual supone una dificultad a nivel
interpretativo.
Otro inconveniente, es que al multiplicar las frecuencias
de todas las casillas por una constante, el valor de aumenta, a
pesar de que las proporciones de todas las casillas sean las
mismas antes y después de dicha multiplicación. Esto hace que su
valor solo pueda compararse para variables en tablas de
contingencia del mismo tamaño
(I x J) y con el mismo n.
La asociación entre variables no debe entenderse como una
cuestión de todo o nada, sino como un continuo, que iría desde la
ausencia de relación (independencia) al nivel máximo de relación
entre las variables. Dado que no resulta apropiado
para evaluar el grado de relación entre variables, se han
desarrollado varios índices que tratan de superar sus limitaciones.

4.1.3.2 Coeficiente C de Contingencia

Medida de asociación derivada de , aplicable a tablas de


contingencia de cualquier dimensionalidad (con independencia del
n° de filas y columnas).

El coeficiente de contingencia C puede asumir valores mayores o


iguales a 0 y menores que 1. Cuanto mayor es el valor de C, mayor
es la relación entre las dos variables, mientras que valores cercanos
a 0 indican ausencia de relación entre las variables. C adopta el
valor 0 cuando =0, (lo que sucede si todas las frecuencias
teóricas coinciden con las empíricas).
Para adoptar el valor 1 el número de observaciones (n) tendría que
ser igual a 0, motivo por el que nunca llega a ese valor.
Este coeficiente es útil cuando el número de filas y de
columnas de la tabla de contingencia coinciden porque se
precisa más su valor máximo, lo que permite una interpretación
mejor con la siguiente fórmula:
4.1.3.3 Coeficiente V de Cramer

Modificación de que alcanza un valor máximo de 1 en caso de


máxima asociación o asociación perfecta y un valor mínimo de 0 en
una situación de independencia perfecta.

La experiencia muestra que con este estadístico es poco frecuente


encontrar valores próximos a 1, de hecho pocas veces se alcanza
un valor de 0,6; se puede considerar al 0,6 prácticamente como un
valor máximo habitual, por lo que un valor de 0,3, antes que
considerarlo como bajo por su proximidad a 0 conviene interpretarlo
como un valor intermedio.
4.1.3.4 Coeficiente

El coeficiente es una medida de asociación derivada de que


se aplica a variables dicotómicas (con tablas de contingencia 2x2).

Con esta fórmula, puede adoptar valores entre - 1 y 1; será


positivo si el producto de n11 x n22 es mayor que el producto de
n12 x n21 y negativo en caso contrario.
Para dos variables dicotómicas codificadas con 0 y 1, un valor
positivo de phi indicará que los sujetos tienden a estar clasificados
en 1 en las dos variables o en 0 en las dos variables; un coeficiente
negativo quiere decir que la tendencia es a estar clasificado en 1 en
una variable y en 0 en la otra variable.
4.2 RELACIÓN ENTRE VARIABLES ORDINALES

En las variables ordinales es posible establecer relaciones de orden


entre los distintos valores de la variable, lo que lleva a establecer
relaciones de tipo mayor, menor, o igual.
El uso, en el caso del estudio de dos variables ordinales, la
estrategia dependerá del número de valores distintos que puedan
adoptar esas variables:

 Si ambas variables adoptan un número reducido de valores,


se suelen utilizar tablas de contingencia.
Cuando queremos estudiar la fuerza de la asociación,
teniendo en cuenta el carácter ordinal de las variables,
podemos utilizar, por ejemplo, la d de Sommers, o el
coeficiente Gamma

 Si alguna de las dos variables (o ambas) adoptan un número


amplio de valores, el estudio en tablas de contingencia deja
de ser práctico, debido al elevado número de filas y columnas
de las tablas, por lo que se utiliza el coeficiente de
correlación de Spearman o el coeficiente tau-b de Kendall.

4.2.1 Coeficiente de correlación por rangos de Spearman

El coeficiente de correlación de Spearman se basa en los rangos de


los datos en lugar de hacerlo en los valores reales.
Para calcularlo, primero hay que ordenar todos los casos para cada
variable y asignar un rango consecutivo a cada observación de
cada una de las variables por separado.
Se suelen producir puntuaciones que son iguales, dando lugar a
rangos empatados. En estos casos se asigna a las puntuaciones
el rango promedio que ocuparían las observaciones empatadas.
Si la asociación entre ambas variables fuera perfecta, esperaríamos
que el rango que corresponde a cada caso de la variable X fuera
igual al rango de la variable Y, por lo tanto el coeficiente se calcula
en base a las diferencias registradas en los rangos entre ambas
variables, esperando que estas diferencias fueran 0. Conforme
mayores son las diferencias observadas en las ordenaciones de
ambas variables, más se aleja la relación de ser perfecta. Para
evitar que las diferencias positivas anulen las diferencias negativas,
el estadístico se calcula en función de la suma de las diferencias
elevadas al cuadrado.
TEMA 5

5.1 RELACIÓN ENTRE VARIABLES CUANTITATIVAS


Las variables cuantitativas, son las que están en un nivel de medida
de intervalo o de razón, por lo que poseen una unidad de medida
común y constante

5.1.1 Representación gráfica de la relación: el diagrama de


Dispersión o Nube de Puntos
Se utiliza en el caso de dos variables cuantitativas, ofreciendo una
primera aproximación de relación que existe entre ambas variables.
Para realizar el diagrama de dispersión se sitúa una de las variables
en el eje de abscisas (en este caso se ha situado la variable nº de
horas de estudio semanales) y la otra en el eje de ordenadas
(Calificación PAU).
Para cada par de datos, se localiza la intersección de ambas
variables y se marca con un punto.

Atendiendo al diagrama de dispersión, se puede observar que


existe cierta relación lineal entre las variables, correspondiendo, en
mayor medida, calificaciones altas a mayor n° de horas de estudio y
viceversa, pero también existen excepciones como el estudiante
con el ID 8, que ha estudiado un número de horas más bien alto
(10) y ha obtenido un 1 en el examen de lengua de la PAU.
Dos variables X e Y mantienen una relación lineal directa cuando
los valores altos en Y tienden a emparejarse con valores altos en X,
los valores intermedios en Y tienden a emparejarse con
valores intermedios en X, y los valores bajos en Y tienden a
emparejarse con valores bajos en X.
También puede darse entre las variables una relación lineal
inversa cuando los valores altos en Y tienden a emparejarse con
valores bajos en X, los valores intermedios en Y
tienden a emparejarse con valores intermedios en X, y los valores
bajos en Y tienden a emparejarse con valores altos en X.
Otra situación que también se puede dar, es la relación lineal nula,
en la que no existe relación entre ambas variables, por lo que no
hay emparejamiento sistemático entre ellas.
Por último, tenemos una relación entre dos variables, pero esta
relación, no es lineal. Según la Ley de Yerkes-Dodson la relación
entre activación y rendimiento, toma la forma de una U invertida.
Para cada tipo de tarea se define un grado óptimo de activación, en
el cual el rendimiento para esa tarea es máximo. Por encima y por
debajo de ese nivel óptimo, el rendimiento decrecerá tanto más
cuanto más lejos se encuentre el nivel actual de activación del
óptimo para la tarea.
5.1.2 Covarianza

Índice que detecta la relación lineal entre X e Y, siendo la variación


conjunta de dos variables. Su valor es positivo, si la relación es
directa y negativo, si es inversa y en torno a cero si es nula. Su
valor absoluto será mayor, cuanto más acusada sea la linealidad en
el diagrama de dispersión
5.1.3 Coeficiente de correlación lineal de Pearson

Es un índice que detecta la relación lineal entre X e Y, y lo hace


superando los límites de interpretación de la covarianza, al tener
establecido un valor máximo (1) y mínimo ( -1). Sólo es apropiado
para el estudio de las relaciones lineales entre variables.
Sobre la motivación de los estudiantes y el rendimiento académico,
el coeficiente de correlación arroja un valor de 0.746, valor positivo,
por lo que existe una relación lineal directa. El resultado, está
próximo a 1, por lo que la relación entre ambas variables, es lata
5.1.3.2 INTERPRETACIÓN Y CARACTERÍSTICAS
 Tener en cuenta el valor absoluto. Cuanto mayor es el valor
absoluto del coeficiente, la relación lineal entre las dos
variables, es más fuerte

 Hay que tener en cuenta el signo del coeficiente de


Correlación de Pearson. Cuando el signo es positivo, indica
que a valores mayores de la variable X, tienden a
corresponder, en media, valores mayores de la variable Y, a
valores menores de la variable X, tienden a corresponder, en
media, valores menores de la variable Y, por lo que se trata
de una relación lineal directa. Cuando el signo es negativos,
indica que los valores mayores de la variable X, tienden a
corresponderse, en media, valores menores de la variable Y, y
a valores menores de la variable X, tienden a corresponderse
con valores mayores de la variable Y, indicando una relación
lineal inversa
5.1.3.3 Casos particulares del coeficiente de correlación
lineal de Pearson
5.1.3.3.1 Relación entre variables ordinales
El coeficiente de correlación lineal de Spearman, que estudia la
relación entre dos variables ordinales, se deriva matemáticamente
del coeficiente de correlación lineal de Pearson, aplicado a rangos,
por lo que su resultado, es igual.
El único caso en el que las fórmulas de Pearson y Spearman no
coinciden es en el de empates en os rangos, en cuyo caso hay que
utilizar el coeficiente de correlación de Pearson entre los rangos de
las variables
En caso de no haber empates se puede utilizar cualquiera de las
dos, pues el resultado es idéntico, teniendo en cuenta que el
coeficiente de correlación de Spearman, simplifica bastante los
cálculos.
5.1.3.3.2 Relación entre variables dicotómicas

La fórmula del coeficiente ,se deriva del coeficiente


de correlación lineal de Pearson, por lo que el resultado de ambas
es igual. Eso sí, el cálculo de se basa en la tabla de
contingencia, por lo que es bastante más rápido que el de rxy que
precisa de las puntuaciones de cada sujeto en ambas variables.
5.1.3.3.3 Relación entre una variable dicotómica y otra
Cuantitativa

Una variable dicotómica es una variable categórica que solo puede


adoptar dos valores, que se suelen representan por 0 y 1. El
coeficiente de correlación biserial puntual se utiliza cuando
una de las variables es dicotómica y la otra es cuantitativa:
5.2 COEFICIENTES DE CORRELACIÓN EN FUNCIÓN DEL TIPO
DE VARIABLE: TABLA RESUMEN
5.3 REGRESIÓN LINEAL SIMPLE

Los valores de la regresión lineal simple, tienden a regresar a la


media de la variable.

El modelo de regresión utiliza la información contenida en las


relaciones lineales observadas entre las variables. Si dos variables
X e Y se relacionan linealmente, entonces la representación gráfica
de su distribución conjunta se aproximará visualmente a una línea
recta pudiendo escribir una variable en función de la otra con la
ecuación de una recta
La diferencia entre correlación y regresión, estriba en su objetivo:
 En la regresión, el interés se centra en predecir los valores
de una variable (Y) a partir de los valores conocidos en la otra
variable (X), más que en la variación conjunta de las dos
variables.

 En la correlación la relación entre las variables es


simétrica, mientras que en la regresión la relación es asimétrica o
direccional,

La forma de proceder cuando se utiliza un modelo de regresión


implica tres fases:
1. la identificación del modelo de regresión, que supone obtener
los coeficientes de regresión que le caracterizan.

2. La valoración del modelo, que supone el estudio de la


capacidad predictiva del mismo.

3. La aplicación del modelo para predecir variables.


4.3.1 Cálculo de los coeficientes de regresión

La regresión se suele utilizar en situaciones en las que se dispone


de la medida de dos variables X e Y en una muestra de
participantes y, después, para otros sujetos de esa misma
población, se predice cuáles serán los va lores de Y, desconocidos
en ese momento, en función de los valores de X, que sí son
conocidos.
Desde el punto de vista geométrico, la recta de regresión tiene la
misma interpretación que cualquier otra recta, pero desde el punto
de vista estadístico, tiene una característica fundamental: se trata
de la recta que ajusta a la nube de puntos del diagrama de
dispersión con menos error.
Términos de la ecuación de la recta de regresión:

Se han presentado dos fórmulas para calcular b. La primera es más


rápida cuando tenemos los datos directos y la segunda es preferible
cuando ya tenemos realizados algunos cálculos previos. Conocido
el valor de las dos constantes a y b de la ecuación anterior, tenemos
ya formulado el modelo de regresión. Habitualmente se suele poner
Y' en lugar de Y para denotar que nos estamos refiriendo a los
valores pronosticados en el criterio, no a los valores reales
obtenidos por los sujetos.
Dado que se trata de una predicción, hay cierto nivel de error, de no
haberlo, todos los puntos del diagrama de dispersión se
encontrarían sobre la recta. Por tanto, para cada uno de los sujetos
se comete cierta cantidad de error al asignarle la puntuación
pronosticada Y' en lugar de la puntuación Y. En este sentido, a la
ecuación anterior habría que añadirle un término que reflejase este
error, de la siguiente manera:

E, es una medida del error individual cometido para cada una de las
observaciones. Al utilizar un modelo de regresión se utiliza el
modelo lineal con el que se comete un error lo más pequeño posible
para todos los sujetos. Para hacer esto, la regresión lineal se vale
del criterio de mínimos cuadrados, que es un procedimiento que
proporciona valores tales que la suma de los errores al cuadrado
(SCE) para los n participantes sea mínimo. Se establece obteniendo
los valores a y b que minimizan la siguiente expresión:

Así, conseguimos que la recta se ajuste mejor a la nube de puntos.


4.3.2 Valoración del modelo

Aunque con el modelo de regresión se consiga el mejor ajuste


posible a los datos disponibles, eso no es garantía de que ese
ajuste sea óptimo para predecir la variable criterio.
Antes de realizar cálculos numéricos, lo ideal para valorar el ajuste
es representar los datos mediante un diagrama de dispersión, para
tener una primera aproximación de la posible relación entre las dos
variables.
En el ejemplo sobre motivación y rendimiento, se aprecia una
tendencia lineal en los datos que hace que la mayoría de los puntos
se encuentren próximos a la recta de regresión. Se trata de una
relación directa y el coeficiente de correlación lineal de Pearson
arroja un valor de = 0, 746.
En el ejemplo sobre calorías ingeridas y grado de anorexia también
se visualiza una clara tendencia lineal en el diagrama de dispersión,
estando la nube de puntos muy próxima a la recta de regresión
correspondiente, con un = - 0,885.
En los dos últimos ejemplos el modelo de regresión no parece ser la
mejor opción para realizar pronósticos por distintos motivos. En el
caso del ejemplo sobre edad y motivación, el diagrama de
dispersión refleja que no hay ningún tipo de relación entre ambas
variables ( =0), por lo que la recta de regresión no serviría para
realizar pronósticos en la variable motivación. En el ejemplo sobre
nivel de arousal y rendimiento se aprecia en el diagrama de
dispersión que sí hay una relación entre ambas variables, pero
curvilínea, por lo que la recta de regresión lineal del diagrama
tampoco sirve para hacer buenos pronósticos ( = -0,079) .
Para examinar la utilidad predictiva de un modelo de regresión,
además de la aproximación gráfica, se pueden utilizar dos índices:
la varianza error y el coeficiente de determinación.

5.3.2.1 La varianza error

La varianza error es la varianza de los errores cometidos al


pronosticar la variable Y a partir de la variable X, definiendo estos
errores como la diferencia entre la puntuación que obtendría el
sujeto en esa variable (Y) y la puntuación que se le ha pronosticado
con el modelo de regresión a partir de su valor en la variable X (Y').

La varianza error se calcula aplicando la fórmula de la varianza a


estas puntuaciones error, y es conocida como error cuadrático
medio. Esta varianza se puede denotar como o y se
interpreta como la varianza de los errores cometidos al pronosticar
la variable Y a partir de la variable X (o mediante la recta de
regresión de Y sobre X).

Para la recta de regresión de la Figura 5.3 se ha marcado con una


llave la distancia entre cada uno de los valores asumidos por la
variable Y' representada en la recta de regresión (pronosticada) y la
variable Y (observada). Estas «distancias» son los errores
cometidos al pronosticar el rendimiento en la asignatura (Y) a partir
de los valores en motivación (X).
En el gráfico se aprecian los errores cometidos. Por ejemplo, el
estudiante n°7 obtuvo en rendimiento académico, una puntuación
de 6, mientras que la línea de la recta de regresión le pronostica
una puntuación menor. Esta diferencia entre la puntuación real en Y
y la puntuación pronosticada en Y es el error cometido en la
predicción.
Cuanto menor sea el valor de la varianza error, mejores serán las
predicciones realizadas por el modelo de regresión.
5.3.3.2 El coeficiente de determinación

En regresión lineal simple, el coeficiente de determinación es


igual al coeficiente de correlación de Pearson elevado al cuadrado.
Indica la proporción de varianza de la variable pronosticada o
criterio (Y) que es explicada por el modelo lineal, esto es, por la
variable predictora X.

El coeficiente de determinación no depende de las unidades en que


se expresan los datos y toma valores entre 0 y 1. Cuanto mayor sea
el valor del coeficiente de determinación, mejores serán las
predicciones realizadas por el modelo de regresión. Si el coeficiente
de determinación es igual a 0, significa que la variable predictora
tiene nula capacidad predictiva de la variable a predecir (Y). Si
llegara a ser igual a 1 la variable predictora explicaría toda la
variación de Y, y las predicciones no tendrían error.
4.3.3 Características del modelo de regresión
 La pendiente de la recta de regresión siempre será del mismo
signo que el coeficiente de correlación lineal de Pearson, por
lo que informará sobre el tipo de relación lineal entre las
variables. Dado que las desviaciones típicas siempre son
positivas b, adopta el signo del coeficiente de correlación
lineal de Pearson.

 La media de los errores de predicción (E= Y - Y') es 0.

 La media de las puntuaciones pronosticadas coincide con la


media de las verdaderas puntuaciones en Y:
 La varianza de las puntuaciones en Y, es igual a la suma de la
varianza de los pronósticos (hechos mediante la recta de
regresión), más la varianza de los errores (o error cuadrático
medio).

 El coeficiente de determinación es igual al cociente entre la


varianza de las puntuaciones pronosticadas y la varianza de
las puntuaciones en Y, por eso es un indicador de la proporción
de varianza del criterio que queda explicada con el modelo de
regresión lineal.

 El complementario del coeficiente de determinación es igual al


cociente entre la varianza de los errores y la varianza de las
puntuaciones en Y, e indica la proporción de la varianza del
criterio que NO queda explicada por el modelo de regresión
lineal.
TEMA 6

6.1 CONCEPTOS PREVIOS


6.1.1 Experimento aleatorio

Un experimento es un proceso que conduce a la obtención de un


resultado, se dice que es aleatorio porque en el resultado interviene
el azar y no se puede predecir con certeza. Tiene 3 características:

1. Todos los resultados posibles son conocidos con anterioridad


a su realización

2. No se puede predecir con certeza el resultado concreto del


experimento, pudiéndose obtener cualquiera de los resultados
posibles en función del azar.

3. El experimento puede repetirse teóricamente un número


infinito de veces en idénticas condiciones.
6.1.2 Espacio muestral

Una forma sistemática y didáctica de construir espacios muestrales


es mediante el diagrama de árbol, es una representación
gráfica que muestra los resultados posibles de un experimento
aleatorio.
Ejemplo de lanzar una moneda tres veces mediante un diagrama de
árbol:
Como se puede observar en el diagrama, en el primer lanzamiento
hay dos resultados posibles cara (C) o cruz (X), siendo en ese caso
E = {C;X}. En el segundo lanzamiento, los resultados posibles son
cuatro, ya que a los dos iniciales se les añaden otras dos
posibilidades: que salga C o que salga X. El espacio muestral E en
los dos primeros lanzamientos estaría formado por E = {CC; CX;
XC; XX} En el tercer lanzamiento también puede salir C o X, por lo
que las combinaciones posibles al añadir C o X a los resultados del
segundo lanzamiento son 8. Por tanto, el espacio muestral al lanzar
tres veces una moneda es E = {CCC; CCX; CXC; CXX; XCC; XCX;
XXC; XXX}

6.1.3 Sucesos y tipos de sucesos

A los resultados de un experimento aleatorio, o subconjuntos del


espacio muestral, se les denomina sucesos y se representan por
letras mayúsculas: A, B, .... Los sucesos, a su vez, pueden ser
elementales o compuestos.
Un suceso elemental o simple consta de un solo resultado del
espacio muestral E, mientras que un suceso compuesto consta de
dos o más resultados del espacio muestral.
Un suceso seguro es aquel suceso que está formado por todos los
elementos del espacio muestral y siempre ocurre. Lo distinguimos
del suceso imposible , que no contiene ningún elemento del
espacio muestral y por ello nunca puede ocurrir.
6.1.4 Operaciones con sucesos

Los diagramas de Venn se emplean para representar los sucesos y


estudiar visualmente propiedades y operaciones entre sucesos. El
espacio Muestral, se representa mediante un rectángulo, y dentro
de él se incluyen los sucesos mediante círculos.
Cuando la intersección de dos sucesos no contiene ningún
elemento, se dice que son sucesos incompatibles o excluyentes
y, por tanto, no pueden verificarse a la vez.
6.2 DEFINICIÓN DE PROBABILIDAD

En teoría de la probabilidad se toman todos los posibles resultados


de un experimento aleatorio como elementos del espacio muestral
E. Si E contiene un número finito de elementos, entonces a
cada uno de ellos se le puede asociar un número positivo, que es
su probabilidad de ocurrencia. La suma de todos los números
correspondientes a todos los elementos de E sea 1.

Sucesos muy probables estarán próximos al valor 1 y los menos


probables próximos al 0. El 0, se asigna a los sucesos imposibles y
el 1 para los sucesos seguros.

La definición clásica, a priori o Regla de Laplace, indica que la


probabilidad de un suceso A es igual al cociente entre el número
de casos favorables de que ocurra ese suceso y el número de
casos posibles en el supuesto de que todos los casos tengan la
misma oportunidad de ocurrir.
Esta definición de probabilidad plantea algunos problemas a la hora
de su aplicación. Parte de la base de que los sucesos son
equiprobables y esto no siempre sucede. Una definición que no
asume la equiprobabilidad es la definición estadística o a
posteriori que se basa en la estabilidad de las frecuencias relativas
cuando el número de repeticiones de un suceso aleatorio es muy
elevado y tiende a infinito; ej. lanzamos un dado al aire muchas
veces, y anotamos las frecuencias relativas de un suceso. Podemos
observar que estas frecuencias tienden a estabilizarse en un valor
constante, comprendido entre 0 y 1, al que denominamos
probabilidad del suceso. Desde la perspectiva estadística o a
posteriori, definimos P (A) o probabilidad de un suceso A como el
límite al que tiende la frecuencia relativa de aparición de un suceso
A cuando el número de ensayos n o repeticiones tiende a infinito:
Según la definición clásica, se sabe que la probabilidad de salir cara
en el lanzamiento de una moneda es de un caso favorable dividido
por dos casos posibles (1/2). Supongamos que se realiza de forma
práctica la experiencia de ir lanzando la moneda al aire, y se anota
si sale cara o cruz en cada tirada, así como la frecuencia relativa en
cada caso. Los resultados podrían ser los que se presentan:

Según aumenta el número de lanzamientos, la línea quebrada que


une las frecuencias se ajusta más a la horizontal trazada en la
ordenada 1/2 (0,5) o valor teórico de la probabilidad definida por
Laplace.
Por tanto, la frecuencia relativa tiende a estabilizarse cuando el
número de repeticiones del experimento es muy elevado. A este
fenómeno de estabilización de las frecuencias se le conoce como
«Ley del azar o ley de regularidad estadística».
No siempre es fácil aplicar este concepto de probabilidad
estadística. Muchas veces no es posible repetir un experimento
aleatorio un gran número de veces, y si lo es, no es práctico.
Andréi Nicoláyevich Kolmogórov desarrolla la teoría axiomática
de la probabilidad. Se puede estudiar como una aplicación de la
teoría de conjuntos a los sucesos que componen el espacio
muestral. Tiene dos ventajas importantes:

1. Recoge las definiciones de probabilidad anteriores, ya que


cumplen la axiomática propuesta.

2. Permite el desarrollo matemático de la teoría de la


probabilidad.

Definición axiomática de probabilidad. Dado un espacio muestral


E, se denomina probabilidad de un suceso A, definido en el espacio
muestral E y designado por P(A), a un número real asignado al
suceso A, tal que cumple las siguientes propiedades:
6.3 TEOREMA DE LA SUMA

El teorema de la suma establece que la probabilidad de que ocurra


el suceso A o el suceso B es igual a la probabilidad de que ocurra A
más la probabilidad de que ocurra B, menos la probabilidad de que
ocurran A y B (la intersección de ambos sucesos).

Si los sucesos A y B son mutuamente excluyentes o si son


complementarios, la regla de la suma se simplifica, resultando ser
la suma de las probabilidades de cada suceso:
6.4 PROBABILIDAD CONDICIONADA

En la vida la aparición de un suceso A puede depender de la


aparición de otro suceso B. En estos casos, los sucesos A y B son
dependientes, porque la probabilidad de A está condicionada al
suceso B

Para dos sucesos cualesquiera A y B, la probabilidad de A


condicionada a B es igual a la probabilidad de la intersección
dividida por la probabilidad de B:
6.5 TEOREMA DEL PRODUCTO

Este teorema se aplica a situaciones en las que se quiere calcular la


probabilidad de que aparezcan dos sucesos de forma simultánea

Teorema del Producto. La probabilidad de ocurrencia de A y B es


igual a la probabilidad de ocurrencia de A por la probabilidad de
ocurrencia de B, dado que A ha ocurrido previamente:

Donde es «la probabilidad de que ocurra B dado que ha


ocurrido A»

Un ejemplo de este teorema puede ser cuando se extraen bolas o


papeletas de una urna. Cuando se realiza más de una extracción,
la probabilidad de que ocurra B dado que ha ocurrido A va a verse
afectada por el hecho de que el elemento extraído en A vuelva a
reponerse o no a la urna para ser extraído de nuevo.

 Extracción con reposición cuando se mantiene siempre el


mismo número de bolas o papeletas, dado que las extraídas
se devuelven a la urna.

 Extracción sin reposición se refiere a que no se devuelven


las bolas o papeletas extraídas a la urna, por lo que lo que las
probabilidades de obtener una bola o papeleta concreta en
esta segunda extracción van a depender de lo obtenido en la
primera.
6.6 TEOREMA DE LA PROBABILIDAD TOTAL

En un espacio muestral E, se dice que k sucesos A1, A2, ..., Ak


forman una partición del espacio muestral si se cumplen
simultáneamente las siguientes condiciones:
Este teorema proporciona el valor de la probabilidad de B en función
de la probabilidad de los sucesos A, y de las probabilidades de B
condicionadas a los A.
Otra forma de calcular estas probabilidades es utilizando el
diagrama de árbol:

A la izquierda del diagrama tenemos las probabilidades


correspondientes a los sucesos A1, A2 y A3. Las probabilidades
situadas más a la derecha son las probabilidades de los sucesos B
y su complementario B condicionadas a los sucesos A1, A2 y A3,
respectivamente. Se debe cumplir siempre que la suma de las
probabilidades que salen del mismo punto sea 1.
6.7 TEOREMA DE BAYES

El teorema de Bayes, nos permite calcular cómo se modifican las


probabilidades de determinados sucesos cuando se conoce alguna
información adicional.
Partiendo de las mismas condiciones anteriores (ver Figura 6.3), el
teorema de la probabilidad total nos permitía obtener la probabilidad
de un suceso B. El teorema de Bayes nos permite conocer las
probabilidades condicionadas de los sucesos A, dado el suceso B.
6.8 ALGUNAS APLICACIONES DE LA PROBABILIDAD
CONDICIONADA EN PSICOLOGÍA DE LA SALUD

Para el caso de un TDAH los datos nos muestran que la prevalencia


es de 0,03 (3%) en la población infantil, lo que nos está indicando
que 3 de cada 100 niños en edad infantil presentan TDAH. En
relación a la incidencia, supongamos que en el año 2014 fue del
0,04 (4%), y la del 2015 del 0,03 indicándonos que, de cada 100
niños, en 2014 se presentaban cuatro casos nuevos y en 2015,
había bajado a tres casos nuevos de cada 100.
Existe una relación entre incidencia y prevalencia, ya que si los
casos nuevos (incidentes) no se resuelven, se hacen crónicos
(prevalentes).
Además, una disminución en la incidencia repercute
en una menor prevalencia y al revés.

Otra de las aplicaciones de la probabilidad en la investigación


clínica tiene que ver con el análisis de factores de riesgo o la
probabilidad de que aumente un problema o enfermedad al estar
expuesto a un riesgo.

Por tanto, este tipo de análisis parte de la base de que sujetos


expuestos a un factor (X+) tienen más posibilidades o riesgo de
sufrir una enfermedad o tener un problema psicológico (E+ ) en
comparación con el grupo no expuesto (E-) a dicho factor (X-).
Otra de las aplicaciones de la probabilidad en Psicología Clínica
está relacionada con la valoración de la calidad de las pruebas
diagnósticas.
Supongamos que tenemos una prueba para la evaluación
diagnóstica de un trastorno (T), que nos va a permitir distinguir a las
personas sanas (NT) de las que lo tienen en función de un punto de
corte. Para ello, se supone que la prueba dispone de
dos indicadores: uno (+) que indica que la persona tiene el trastorno
(T) y otro (-) que señala que la persona está sana (NT).
En este tipo de análisis, los datos se presentan en una tabla de
doble entrada:
De esta forma, si se determina el grado de sensibilidad,
especificidad y valores predictivos de una prueba se puede conocer
su calidad. Una prueba sería muy sensible si al aplicarse a un
conjunto de personas que tienen el trastorno (T) dan positivo (+) en
un porcentaje muy alto, sería muy específica si un porcentaje muy
elevado de las personas sin trastorno (NT) dan negativo (-). Lo
mismo se seduce en relación a los valores predictivos positivos y
negativos, cuanto más próximos a 100 (o a 1 en términos de
probabilidad) más valor predictivo, teniendo mejor calidad.
TEMA 7

7.1 CONCEPTO DE VARIABLE ALEATORIA

Cualquier característica medible que toma diferentes valores con


probabilidades determinadas.

Cuando a cada resultado posible del espacio muestral le asignamos


un valor numérico se obtiene una variable aleatoria denominada X.
Las variables aleatorias toman valores numéricos, y se pueden
definir diferentes variables sobre los resultados de un mismo
experimento. Por ejemplo, sobre el experimento de «lanzar una
moneda al aire en tres ocasiones» podemos definir una variable
aleatoria como número de caras obtenidas, como número de cruces
obtenidas, o como una variable que toma el valor 1 cuando el
número de caras obtenido es mayor que el número de cruces y
toma el valor 0 en el otro caso. El azar interviene en el resultado
que obtenemos al realizar el experimento aleatorio y no en la
variable o función.
Las variables aleatorias se representan por letras mayúsculas del
alfabeto latino, y se utilizan las letras minúsculas con subíndice para
referirnos a los valores concretos que toman estas variables
aleatorias. Así X, Y, ... representan variables aleatorias, en tanto que
x 1, x 2, ... Y, y2, ... representan los valores concretos que toman
esas variables, respectivamente.
7.2 TIPOS DE VARIABLES ALEATORIAS

Las variables aleatorias pueden ser discretas o continuas.

 Variable discreta: Adopta valores enteros. Fijados dos


valores consecutivos, no puede tomar ninguno intermedio.

 Variable continua: Dados dos valores, siempre se puede


encontrar un tercer valor que esté incluido entre los dos
primeros.

Un ejemplo de una variable aleatoria discreta es el número de


caras que salen al lanzar dos veces una moneda, que puede
adoptar los valores 0, 1 y 2. También el conjunto de los números
enteros, que puede adoptar un conjunto infinito y numerable de
valores (los números negativos, el cero y los números
positivos).

Un ejemplo de variables aleatorias continuas son el tiempo de


reacción ante un estímulo, la estatura o el cociente intelectual.
7.3 VARIABLES ALEATORIAS DISCRETAS

7.3.1 Función de probabilidad de una V.A. discreta

La descripción del comportamiento matemático de una variable


aleatoria discreta se realizará de forma similar a las variables
estadísticas. En una variable aleatoria discreta X, vendrá dada por
los valores que la variable puede tomar (x1, x2, ..., xn) y su
correspondiente probabilidad.

Se llama función de probabilidad f(x) de una variable aleatoria


discreta X, a aquella función que asocia a cada valor de la variable
la probabilidad de que ésta adopte ese valor:

Consideremos un experimento aleatorio consistente en lanzar una


moneda al aire en tres ocasiones. Si definimos una variable
aleatoria X como número de caras obtenidas, obtenemos la
siguiente tabla:
La primera columna recoge el espacio muestral del experimento
E= {XXX, XXC, XCX, CXX, XCC, CXC, CCX, CCC}, siendo cada fila
un suceso.
El número de sucesos del espacio muestral es igual a ocho.
En la segunda columna se muestran los valores que puede tomar
la variable X anteriormente definida para cada suceso.
En la tercera sus correspondientes probabilidades. Éstas se
calculan teniendo en cuenta la definición clásica de probabilidad.
Por ejemplo, la probabilidad de obtener tres cruces o ninguna cara
(x1 = 0) será 1/ 8, ya que hay un resultado favorable de ocho
posibles. Por tanto, la función de probabilidad de X es:

La función de probabilidad de una variable aleatoria discreta puede


representarse mediante un diagrama de barras donde en el eje de
abscisas se recogen los valores que toma la variable y en el eje de
ordenadas las correspondientes probabilidades.
7.3.2 Función de distribución de una V.A. discreta

La función de distribución de una variable aleatoria X se representa


con la misma letra que su función de probabilidad, pero en
mayúscula: F(x). Indica cuál es la probabilidad de que la variable
aleatoria tome un valor menor o igual que un valor concreto x.
Se llama función de distribución F(x) de una variable aleatoria
discreta X, aquella función que asocia a cada valor de la variable la
probabilidad de que ésta adopte ese valor o cualquier otro inferior:

Si ordenamos de menor a mayor los valores x de la variable


aleatoria discreta, la función de distribución se obtiene acumulando
los valores de la función de probabilidad:

Hay que tener en cuenta que, a la función de probabilidad, se le


asigna a la probabilidad un valor concreto, y que la función de
distribución es acumulativa, (se le asigna la probabilidad a un valor
concreto y todos los anteriores).
F(x) va «dando saltos» en los valores de la variable (0, 1, 2 y 3). El
círculo blanco de la gráfica no incluye esos valores. Por ejemplo
F(2)=0,875 pero F(1, 9999...) = F(1) =0.5 Observando la gráfica de la
Figura 7.3 se pueden deducir, sin recurrir a demostraciones
matemáticas, las propiedades fundamentales que debe cumplir la
función de distribución de probabilidad:
7.3.3 Media y varianza de una V.A. discreta

Para obtener la media, esperanza matemática o valor esperado


( ) o E(x) de una variable aleatoria discreta X calcularemos el
sumatorio de los productos de cada uno de los valores que toma la
variable por su correspondiente probabilidad:

Para obtener la varianza ( o V(X)) de una variable aleatoria X,


debemos calcular el sumatorio del producto de cada uno de los
valores que toma la variable menos su media elevados al cuadrado
multiplicados por su correspondiente valor de la función de
probabilidad:

o
7.4 DISTRIBUCIONES DISCRETAS DE PROBABILIDAD

El trabajo con variables aleatorias discretas se simplifica mucho


cuando se puede encontrar algún modelo teórico que se ajuste a
ellas según sus propiedades. Entre ellas tenemos la distribución
de Bernoulli, la distribución binomial, la distribución de Poisson, la
distribución multinominal, etc.
Por lo general, en Psicología y Ciencias de la Salud se trabaja con
variables aleatorias discretas que sólo pueden tomar dos valores
(dicotómicas) y que habitualmente representaremos por 1 y 0. En
estos casos, resultan muy útiles la distribución de Bernoulli, y su
generalización a n ensayos, que es la distribución binomial.

7.4.1 La distribución de Bernoulli

La realización de un experimento aleatorio como lanzar una


moneda al aire admite sólo dos resultados posibles; cara o cruz. Se
trata de un experimento denominado Bernoulli. El acierto o fallo a
una pregunta con dos alternativas respondida al azar, el lado
izquierdo o derecho de un laberinto en forma de T elegido por una
rata no entrenada en el laberinto... son algunos de los múltiples
ejemplos en los que sólo se presentan dos alternativas posibles de
respuesta. A una de ellas se le denomina «éxito o acierto» (que se
codifica con 1) y a la otra «fracaso o error» (que se codifica como
0), sin que estos términos tengan connotaciones ni positivas ni
negativas, respectivamente.

La variable aleatoria discreta que sigue el modelo de Bernoulli


se define como una variable aleatoria dicotómica X, con dos
posibles valores mutuamente exclusivos: 1 (éxito) con probabilidad
p y 0 (fracaso) con probabilidad q. La suma de ambas
probabilidades es igual a uno:
Una variable aleatoria X que sigue el modelo de Bernoulli con
parámetro p, se denota abreviadamente como y
presenta las características recogidas en el siguiente recuadro:
7.4.2 La distribución binomial

La distribución binomial es una generalización de la distribución de


Bernoulli en la que el experimento se repite más de una vez.
Una variable aleatoria X sigue una distribución binomial si expresa
el número de éxitos en n realizaciones independientes de un
experimento con probabilidad p de obtener «éxito» y (1-p) de
obtener «fracaso». Esta distribución suele representarse por la
expresión B (n, p) donde B indica binomial, n (número de veces que
se repite un experimento Bernoulli) y p (probabilidad de «éxito»). La
distribución de Bernoulli sería un caso de binomial con parámetro n;
un único ensayo, el parámetro p sería la probabilidad de «éxito», y
se representaría como una binomial B (l, p).
Pues bien, una variable X que sigue un modelo de distribución
binomial, con parámetros n y p, y que simbolizamos por ,
presenta las siguientes características:
Las tablas de la función de probabilidad y de la función de
distribución binomial son las Tablas I y II del formulario.
En la Tabla 1, para la función de probabilidad binomial, la primera
columna encabezada con la letra n, son los números de ensayos e
incluye los valores desde 1 hasta 20. La segunda columna recoge el
número de «éxitos» (x) que esperamos obtener para ese número de
ensayos y que abarcan desde 0 hasta ese número de ensayos. La
primera fila de la tabla recoge algunos valores de la probabilidad de
«éxito» (p) que van desde 0,01 a 0,5. En el interior de la tabla se
encuentran las probabilidades correspondientes. La probabilidad
buscada, para unos valores concretos de n y x, se encuentra en la
intersección de su fila con la correspondiente columna de p. Así, por
ejemplo, la probabilidad de obtener dos éxitos en tres ensayos con
una probabilidad de éxito de 0,3 se encuentra en la Tabla I y vale
0,1890.

El uso de la Tabla II, función de distribución binomial, es como la


anterior pero hay que tener en cuenta que las probabilidades que
aparecen en el interior de la tabla son acumuladas.
Las Tablas I y II sólo contienen valores de p desde 0, 1 hasta 0,5.
¿qué hacer cuando tengamos una p > 0,5? En casos como éste hay
que intercambiar las condiciones de «éxito» y «fracaso».

7.4.3 Otras distribuciones discretas

El modelo de Poisson o de «los sucesos raros» se utiliza bajo las


mismas condiciones de la binomial para variables dicotómicas,
pero con un elevado número de ensayos y un valor de p muy
pequeño. La distribución multinomial se utiliza para ensayos que
ofrecen más de dos resultados posibles y supone una
generalización de la binomial o ésta puede considerarse un caso
particular de aquella.
TEMA 8

8.1 CARACTERÍSTICAS DE LAS VARIABLES ALEATORIAS


CONTINUAS

Son aquellas variables aleatorias que pueden adoptar infinitos


valores o un conjunto de valores no numerables. Dado que estas
variables pueden tomar infinitos valores y que, dentro de cada
intervalo de valores existen a su vez infinitos valores posibles, la
probabilidad de que tome un valor determinado es nula. Es decir, en
el caso de las variables aleatorias continuas, la probabilidad de
obtener un determinado valor de X es igual a cero, por lo que, a
diferencia de lo que ocurría con las variables discretas, las
probabilidades se van a asignar a un determinado intervalo de la
variable.
Para ello, se acude al concepto de función de densidad de
probabilidad en torno a un valor en lugar de función de probabilidad
de un valor que se aplicaba en las variables aleatorias discretas.

8.1.1 Función de densidad y función de distribución


Se denomina función de densidad de probabilidad de una
variable aleatoria continua, f(x), a aquella función que cumple las
dos condiciones siguientes:

La primera condición indica que los valores de f(x) son siempre


iguales a cero o positivos, nunca negativos. En la segunda
condición aparece definida una integral, que en variables continuas
es el análogo al sumatorio en variables discretas. Así, establece
que el área total (que va desde hasta en la variable X) bajo
la curva es igual a uno. De ahí que se aplique para la determinación
de las probabilidades correspondientes a las variables continuas.
Con la función de densidad de probabilidad de X podemos calcular
la probabilidad de que X se encuentre en un determinado intervalo
[a,b] mediante el cálculo integral con la siguiente expresión:
f(x) no es una probabilidad, pero la integral de f(x) para un
determinado intervalo [a,b] de X si nos proporciona un valor de
probabilidad.
Otra función que caracteriza a una variable aleatoria es la función
de distribución, F(x). En el caso de variables continuas se define de
la misma manera que para variables discretas, es decir, como la
probabilidad acumulada hasta un cierto valor de la variable.
Se denomina función de distribución acumulada o función de
distribución de probabilidad de una variable aleatoria continua,
F(x), a aquella función que asocia a cada valor de la variable X la
probabilidad de obtener valores menores o iguales que un valor
dado (lo que equivaldría a decir menor, ya que la probabilidad de
ser igual al valor dado es 0).
Para la función de distribución en el caso continuo se
mantienen las mismas propiedades que en las variables aleatorias
discretas:

8.1.2 Media y varianza de una variable aleatoria continua

Sea X una variable aleatoria continua, la media o valor esperado


:

Las propiedades de la media y la varianza para variables


continuas son las mismas que las del caso discreto. Para el cálculo
de la media y la varianza de las principales variables continuas, no
es necesario utilizar el cálculo integral, porque se han derivado
fórmulas directas para la obtención de dichos los dos tipos de
variables aleatorias estudiadas: las discretas y las continuas.
8.2 LA DISTRIBUCIÓN NORMAL

La distribución normal o campana de Gauss o curva normal, fue


definida por De Moivre para encontrar las probabilidades
acumuladas en una distribución binomial cuando n es grande.

8.2.1 Características y propiedades

Su forma de «campana» es más apuntada cuanto menor es su


desviación típica.

La figura nos indica que la puntuación de la mayoría de los


individuos, en una variable que sigue esta distribución, se encuentra
en torno a la media y, a medida que nos alejamos de esa
puntuación, por su lado izquierdo y derecho, va disminuyendo la
frecuencia.
Su representación gráfica es la siguiente:
Esta distribución se denomina normal tipificada o normal
estandarizada. Para la aplicación a problemas concretos en que se
siga esta distribución, usaremos a las Tablas III y IV del Formulario.
Propiedades de una distribución normal:

8.2.2 Utilización de las tablas

En las Tablas III y IV se recoge la función de distribución de la curva


normal estándar. En ellas se presentan todas las puntuaciones
típicas desde -3,59 hasta +3,59 con intervalos de 0,01. La primera
columna, con la letra z, consta de un número con un decimal, que
corresponde a la puntuación típica. La primera fila (a la derecha de
la letra z) corresponde al segundo decimal de la puntuación z.
Todos los valores interiores representan probabilidades y, llevan un
cero delante de la coma. La Tabla III corresponde a las
puntuaciones típicas negativas (por debajo de la media) y la Tabla
IV a las positivas (por encima de la media). Ejemplo, la puntuación
típica z = - 0,25 (Tabla III) deja por debajo de sí una probabilidad de
0,4013.
La puntuación típica z = 0,25 (Tabla IV) deja por debajo de sí una
proporción de 0,5987. Al ser una distribución simétrica puede
comprobarse que la proporción que queda por debajo de z = -0,25
es igual a la proporción que queda por encima de z = 0,25 (1-0,5987
= 0,4013). Si la Tabla no recoge el valor exacto de z que buscamos,
se puede utilizar el valor más próximo:
8.2.3 Histograma y distribución normal

La figura nos indica que, en una variable que sigue esta


distribución, la puntuación de la mayoría de los casos se encuentra
en torno a la media y, a medida que nos alejamos de la media, por
su lado izquierdo o derecho, va disminuyendo la frecuencia de
casos. Esto, va a permitir aplicar las propiedades de la curva normal
a nuestros datos y utilizar las tablas de la misma forma que se ha
visto anteriormente.
Si se dispone de los datos originales de un grupo de sujetos en una
determinada variable X, y ésta se distribuye normalmente, para
resolver determinados cálculos se puede utilizarlas Tablas III y IV
de la distribución normal estándar. Para ello, deberemos
transformar las puntuaciones directas en puntuaciones típicas
mediante la siguiente fórmula:

Para aplicar las tablas de la curva normal a casos concretos que


siguen una distribución normal vamos a considerar tres ejemplos
prácticos:
8.2.4 Aproximación de la binomial a la normal

Cuando en distribución binomial tenemos un n superior a 20,


debemos aproximar la distribución binomial a la normal. Esta
aproximación mejora a medida que p (la probabilidad
de éxito) se aproxima a 0,5 y n (número de ensayos) es grande:

Se sabe que una variable, X, que sigue una distribución binomial


tiene una media y una desviación típica por lo
que se puede transformar su función de probabilidad (que es
discreta) a la normal de la forma que se describe a continuación:

1. La distribución normal es continua y la probabilidad de que la


variable X tome un valor concreto es cero: P (X = x) 0. Para
aproximar la distribución binomial a la normal se establecerá
un intervalo entre 0,5 unidades a la izquierda y a la derecha
de la puntuación:
Sumar y restar el valor 0,5 se llama corrección por continuidad,
que permite utilizar las puntuaciones discretas, X, como si fuesen
continuas interpretándose cada puntuación, X, como si fuesen los
puntos medios de sus intervalos. Gráficamente:
8.3 LA DISTRIBUCIÓN DE PEARSON

se utilizará para hacer referencia a una distribución continua


de probabilidad y la definimos así:

Los grados de libertad (n) indican que cada una de las n variables
aleatorias puede tomar cualquier valor de sus posibles valores,
sean cuales sean los valores tomados por las n -1 restantes.
Esta distribución se usa en pruebas de bondad de ajuste (para
contrastar si la distribución de una variable se ajusta a una
distribución determinada, eje. la normal). Al igual que otras
distribuciones, es una familia de curvas como las presentadas en la
siguiente Figura 8.6, que varían en función de los grados de libertad
8.4 LA DISTRIBUCIÓN t DE STUDENT

Una distribución t , es el cociente entre una variable N(0,1) y la


raíz cuadrada de una variable dividida por sus grados de libertad.
En la Figura 8.7 se representa la distribución t con dos grados de
libertad, junto a la distribución normal estándar.
En la Tabla VI del Formulario se presentan los valores positivos
para esta distribución. En la primera columna se presentan los
grados de libertad y en la primera fila las distintas probabilidades o
proporciones de valores menores o iguales que un valor positivo
dado. Como se trata de una distribución simétrica podemos hallar
las probabilidades asociadas a valores negativos a partir de los
valores positivos de la Tabla VI:
8.5 LA DISTRIBUCIÓN F DE FISHER-SNEDECOR

La distribución F de Fisher-Snedecor se define:

La distribución F de Fisher o de Snedecor se emplea en el contraste


de hipótesis (Análisis de Varianza ...). En la Figura 8.8 aparece su
representación según distintos grados de libertad.
Características:
 Es asimétrica positiva, por lo que nunca toma valores
menores que 0.

 Propiedad recíproca; si X es una variable con distribución F


con n1 y n2 grados de libertad, entonces la variable Y= 1/X es
también una distribución F con n2 y n1 grados de libertad:

p y 1 - p son las probabilidades acumuladas asociadas al valor


de la variable. Esta propiedad es útil para obtener algunos
percentiles o probabilidades que no aparecen en la tabla.
La Tabla VII recoge solo la probabilidad de que X sea menor o
igual que 0,900; 0,950; 0,975; 0,990 y 0,995, que son los valores
utilizados habitualmente.
TEMA 9

9.1 MUESTREO

En la mayoría de los casos, es imposible trabajar con el conjunto


total población, por lo que tendremos que buscar una muestra
representativa de la población.

9.1.1 Conceptos básicos en el muestreo


Una población es una colección, finita o infinita, de elementos que
comparten ciertas características, ej. los rectores de las
universidades españolas componen la población de españoles que
presiden los claustros universitarios. Por lo tanto, una población
queda definida por una o varias características que tienen en común
los elementos que la componen, independientemente de la cantidad
de elementos que la compongan, pues puede estar compuesta por
un solo elemento (población de satélites de la Tierra, compuesta por
sólo uno, la Luna) o que un elemento pueda pertenecer a más de
una población si cumple los criterios necesarios que definen cada
una de ellas, de tal forma que podrá considerarse elemento de una
población A en un caso y/o elemento de una población B en otro. Ej.
los niños con nacionalidad española que se expresan
habitualmente en francés y cumplen los criterios para el diagnóstico
de enuresis, son también vertebrados.
Un elemento pertenece a una población solo durante el tiempo que
se cumplen las propiedades que la definen. Un niño no puede dejar
de pertenecer a la población de seres humanos, pero sí a la de
niños con enuresis cuando, tras recibir un tratamiento, aprende a
controlar su esfínter.
Atendiendo al número de elementos, las poblaciones pueden ser:

 finitas o formadas por un número finito de elementos

 Infinitas o formadas por un número infinito de elementos.

En general, las poblaciones son muy grandes y esto hace que sea
prácticamente inviable trabajar con ellas. Por esta razón, lo habitual
es trabajar con muestras.
Los índices que representan los valores que resumen las
características de las poblaciones, se son los parámetros. Son
constantes.

En ocasiones, es posible estudiar todos los elementos que


componen la población, realizándose un censo, que es el estudio
de todos los elementos que componen la población.

Cuando no es posible o conveniente trabajar con la población, se


trabaja con una muestra, que es una parte de la población. Una
muestra es representativa cuando reúne las mismas
características que la población, garantizando los resultados
puedan ser generalizados a toda la población,

Los índices que representan los valores que resumen las


características de las muestras, son los estadísticos y son
variables aleatorias cuyos valores varían en función de los
elementos que compongan la muestra.

El conjunto de procedimientos y técnicas que permiten extraer


muestras de una población garantizando la representatividad, es la
teoría del muestreo. Tienen que garantizar su representatividad.
Una muestra tiene que permitir hacernos una idea general de cómo
es la población.
La generalización, desde la parte al todo, supone siempre un cierto
error. En el ejemplo anterior, puede ocurrir que al formar la muestra
por azar, haya un número de niños superior al de niñas.
Este error se puede cuantificar y controlar a través de la Estadística
mediante el error máximo y nivel de confianza
Pasos a seguir de un muestreo:

a) Definir los casos (participantes u otros seres vivos, objetos,


fenómenos o comunidades) sobre los cuales se habrán de
recolectar los datos.

b) Delimitar la población mediante una característica que defina,


de forma exhaustiva y excluyente, a los individuos que la
componen.

c) Elegir el método de selección de la muestra.

d) Calcular el tamaño de la muestra.

e) Aplicar el procedimiento de selección.

f) Obtener la muestra.

9.1.2 Tipos de muestreo

Se agrupan en dos categorías:

 Muestreo probabilístico: se conoce la probabilidad que tiene


cada elemento de la población de ser elegido para formar
parte de la muestra y se conoce el marco muestral (listado de
elementos que componen la población). La ventaja de éste, es
garantizar la representatividad y permitir hacer inferencias.

 Muestreo no probabilístico: no se conoce la probabilidad


que tiene cada elemento de ser elegido. No garantiza la
representatividad, por tanto, las conclusiones que se pueden
extraer quedan circunscritas a la situación en la que se realizó
el trabajo sin generalizar más allá de ese contexto.
Principales métodos de muestreo para los tipos de muestreo
probabilístico y no probabilístico:

9.1.2.1 Métodos de muestreo probabilístico

Muestreo aleatorio simple. Consiste en tomar de una población de


tamaño N una muestra de tamaño n, utilizando algún procedimiento
que garantice que todos los elementos de la población tienen la
misma probabilidad de ser elegidos. Ej: asignar un número a cada
elemento de la población y a través de algún medio mecánico o
informático (bolas dentro de una bolsa, tablas de números
aleatorios, números aleatorios generados con un ordenador, etc.) se
eligen tantos sujetos como sea necesario para completar el tamaño
de muestra requerido.

Todas las muestras posibles son equiprobables; tienen la misma


probabilidad de ser elegidas. Pero, la probabilidad de cada una de
ellas y la probabilidad de pertenencia de los elementos será distinta
según la forma en que se genere la muestra. Para formar la
muestra se puede actuar de dos modos:

1. Con reposición: Tras elegir un elemento, éste se


reincorpora a la población de forma que pueda ser
elegido en la siguiente extracción, así la población
siempre tiene el tamaño N. Cada elemento de la
población, tiene la misma probabilidad (1/ N) en
cualquiera de las extracciones de pertenecer a la
muestra y de ser elegida. La probabilidad de obtener
una muestra concreta de n elementos es: (1/ N) x (l/ N) x
(l/ N) x ... x (l/ N) = .
2. Sin reposición. Una vez seleccionado un elemento de
la población no se reintegra, de esta forma la población
va perdiendo tamaño. En la primera extracción, el
tamaño es N, en la segunda es N-1, en la tercera es N-
2… y en la extracción enésima el tamaño será N-(n - 1).
El tamaño de la población cambia con cada extracción.
En este tipo de muestreo, el resultado de una extracción
no es independiente del resultado obtenido en las
demás.

La mayoría de los procedimientos de la Estadística Inferencial,


exigen el principio de independencia en la obtención de las
muestras, lo cual no se cumple en el muestreo aleatorio sin
reposición. Este problema se resuelve considerando que, cuando el
tamaño de la población (N) es grande con respecto al tamaño de la
muestra (n), las probabilidades calculadas con ambos muestreos
(con y sin reposición) son prácticamente iguales.
Este tipo de muestreo, tiene poca o nula utilidad práctica cuando
la población que se está manejando es muy grande.

Muestreo aleatorio sistemático: Cuando los elementos de la


población están ordenados o pueden ordenarse, se puede utilizar el
muestreo sistemático. Es necesario asignar un número a todos los
elementos de la población, pero, en lugar de extraer n números
aleatorios sólo se extrae uno (i). El número i del que se parte es un
número elegido al azar, y los elementos que serán elegidos para
componer la muestra son los que ocupan los lugares i, i + k, 1 + 2k, i
+ 3k, ... + i (n - 1 ) k, siendo k el resultado de dividir el tamaño de la
población entre el tamaño de la muestra (k = N / n) .
El número 1 que empleamos como punto de partida será un número
al azar entre 1 y k. En este tipo de muestreo no todos los elementos
tienen la misma probabilidad de ser extraídos, y las extracciones no
son independientes.
El riesgo de este tipo de muestreo está en aquellos casos en que se
dan periodicidades en la población, ya que, al seleccionar una
periodicidad constante, los elementos seleccionados para la
muestra pueden no ser representativos de la población.

Muestreo aleatorio estratificado: Se utiliza cuando la población es


heterogénea con gran homogeneidad dentro del estrato (se puede
estratificar, por ejemplo, según la profesión, sexo, el estado civil,
etc.). Lo que se pretende con este tipo de muestreo es asegurar
que todos los estratos de interés estén representados
adecuadamente en la muestra.
Cada estrato funciona de forma independiente, pudiendo aplicarse
dentro de ellos el muestreo aleatorio simple o sistemático para
elegir los elementos concretos que formarán parte de la muestra. El
procedimiento de composición de la muestra en los diferentes
estratos se denomina afijación, y puede ser de diferentes tipos:

 Afijación simple: a cada estrato le corresponde igual número


de elementos muestrales.

 Afijación proporcional : la distribución se hace de acuerdo


con e peso (tamaño) de la población en cada estrato.

La muestra total se forma por la suma de las muestras de cada


estrato. Cada submuestra es independiente del resto. Permite
aplicar técnicas de selección diferentes dentro de cada estrato y
obtener estimaciones separadas en cada una de ellas.
Muestreo aleatorio por conglomerados: La unidad muestral es un
grupo de elementos de la población que conforman una unidad más
amplia, a la que se llama conglomerado (áreas sanitarias, los
departamentos universitarios…)
El procedimiento de muestreo, consiste en seleccionar
aleatoriamente un cierto número de conglomerados y trabajar con
todos los elementos pertenecientes a los conglomerados elegidos.
Si el número de elementos del conglomerado es muy amplio
seleccionamos algunos de ellos al azar, en este caso decimos que
es un muestreo por conglomerados bietápico. En general se
habla de muestreo por etapas o polietápico cuando hay más de
dos etapas. Para aplicarlo en cada etapa se van seleccionando
conglomerados de menor tamaño hasta que en la última etapa se
trabaja con los n elementos que componen esos conglomerados.
Por ejemplo, en un estudio sobre la población universitaria española
se seleccionan Universidades; dentro de ellas Facultades, dentro de
ellas carreras específicas y dentro de las carreras los cursos, que
sería el último conglomerado. La muestra estaría formada por todos
los individuos de los cursos seleccionados.
9.1.2.2 Métodos de muestreo no probabilístico

Hay ocasiones en las que no es posible realizar un muestreo


probabilístico porque desconocemos la probabilidad de inclusión de
cada elemento en la muestra y/o tiene un excesivo costo económico
o de tiempo. En esos casos, se acude a métodos no probabilísticos,
aun no sirviendo para realizar generalizaciones.
Se selecciona a los sujetos procurando que la muestra resultante
sea lo más parecida posible a la población.

Muestreo por cuotas o muestreo accidental: Se asienta


sobre la base de un buen conocimiento de los estratos de la
población y/o de los individuos más adecuados para la
investigación. Se parece al muestreo aleatorio estratificado, pero no
tiene el carácter de aleatoriedad.
Se fijan unas «cuotas», que consisten en un número de individuos
que reúnen unas determinadas condiciones. Determinada la cuota,
se eligen los primeros que se encuentren que cumplan esas
características. Este método se utiliza mucho en las encuestas de
opinión

Muestreo opinático o intencional: Esfuerzo deliberado de


obtener muestras «representativas» mediante la inclusión en la
muestra de grupos típicos. Es muy frecuente su utilización en
sondeos preelectorales de zonas que en anteriores votaciones han
marcado tendencias de voto.

Muestreo casual o incidental: Proceso en el que el investigador


selecciona directa e intencionadamente los individuos de la
población. El caso más frecuente de este procedimiento es utilizar
como muestra los individuos a los que se tiene fácil acceso (los
profesores de universidad emplean con mucha frecuencia a sus
propios alumnos).

Muestreo de bola de nieve: Las unidades muestrales van


incorporándose paulatinamente a la muestra, a partir de las
referencias de los sujetos que ya han participado en la
investigación. Se localizan algunos individuos, los cuales conducen
a otros, y estos a otros, y así hasta conseguir una muestra
suficiente. Se emplea mucho en estudios con poblaciones
«marginales», difíciles de identificar y de localizar.
9.2 DISTRIBUCION MUESTRAL DE UN ESTADÍSTICO

Es importante saber cuantos elementos son necesarios para que la


muestra sea representativa y garantizar un grado de certeza a las
conclusiones. Para ello, es necesario explicar antes el concepto de
distribución muestral de un estadístico.
Supongamos que a una población se le mide una característica,
(altura). Con estos datos se podrá hacer una distribución de
frecuencias, (con la salvedad de que los resultados se referirán a
toda la población). Se podrá calcular su media y varianza que, se
denominan parámetros poblacionales y se representan por las
letras griegas
Si en lugar de trabajar con toda la población se hace con una
muestra, la distribución así obtenida es la distribución muestral.
Con los datos de la variable altura, obtenidos de la muestra, se
construye su distribución de frecuencias y se calcula la media y
varianza, que son en este caso los estadísticos y se representan
por

En una población cualquiera es posible extraer más de una muestra


diferente del mismo tamaño. Por tanto, el valor concreto de un
estadístico dependerá de los valores concretos que tomen cada uno
de los elementos de la muestra extraída. El estadístico obtenido ya
no será una constante, sino una variable, ya que su valor concreto
dependerá de la muestra en la que se haya calculado.
La distribución de probabilidad de todos los posibles valores del
estadístico en las diferentes muestras es lo que se denomina
distribución muestral del estadístico (una población de tamaño N
de la que se van a extraer varias muestras de tamaño n, y para
cada muestra se calcula un estadístico (ej. la X) de una variable
aleatoria X cualquiera. Puesto que la media (X) toma diferentes
valores, dependiendo de cada muestra, el conjunto de las distintas
medias, forman a su vez una variable aleatoria que tendrá su propia
distribución de probabilidad con sus características: forma, media y
varianza, esto es, los parámetros que la definen. Estos parámetros
se representarán por letras griegas con un subíndice, que nos
indica a qué estadístico nos estamos refiriendo.
Por tanto, la distribución muestral de un estadístico es la
distribución de probabilidad teórica de los valores de un estadístico
cuando estos se calculan sobre las k muestras (siendo k muy
grande, teóricamente infinito) de tamaño n, extraídas de la población
y obtenidas mediante muestreo aleatorio simple.
La esperanza matemática de una variable aleatoria, es la mejor
opción para estimar parámetros desconocidos utilizando los
modelos de probabilidad ya conocidos.
Si de cualquier población con media μ y desviación típica , se
toman todas las posibles muestras aleatorias con reposición, cada
una de tamaño n, la distribución muestral del estadístico media tiene
como parámetros:
Hasta ahora se han visto dos ejemplos sencillos con poblaciones
muy pequeñas pero, habitualmente, el tamaño de las poblaciones y
de las muestras es mucho mayor. Por eso, se presenta a
continuación un ejemplo basado en simulación en el que la
población está formada por 1000 elementos (N = 1000) y se extraen
muestras de tamaño igual a 30 (n = 30).

Análisis con 10 muestras aleatorias de tamaño n = 30


La Tabla 9.2 reproduce los valores de los elementos de cada
muestra. En las 10 columnas tenemos los valores observados en la
variable para cada muestra, desde la Muestra 1 (M1) hasta la
muestra 10 (M10). En las dos últimas filas figuran la media y la
desviación típica en cada muestra.
Datos, la representación gráfica de la distnbución de la variable X y
los estadísticos muestrales de la M1.

Tras repetir el experimento nueve veces más, se obtuvieron las


nueve columnas siguientes de la tabla (en los gráficos se muestran
las representaciones de cinco de estas muestras con los valores de
sus estadísticos).
Distribución muestra! de las 10 medias
Distribución de frecuencias, representación gráfica y cálculos de
estadísticos correspondientes a la media y desviación típica de las
10 medias.

La media de todas las medias para 10 muestras se


aproxima bastante a la media poblacional . Sin embargo, la
desviación típica de las medias no tiene nada que ver con la
desviación típica poblacional como era de esperar.
El error típico de la media de este siendo el teórico

La diferencia entre ambos se debe al número de muestras tan


reducido que hemos utilizado para construir esta distribución
muestral.
Análisis con 500 muestras aleatorias de tamaño n = 30
La Tabla 9.3 recoge las medias de 500 muestras simuladas sobre la
población antes definida (ahora ya sin los datos de cada muestra),
cuyo tamaño muestral es de n = 30.
9.3 DISTRIBUCIÓN MUESTRAL DEL ESTADÍSTICO MEDIA

La distribución muestral del estadístico media se puede caracterizar


mediante su valor esperado o media , su error típico y la
forma de la distribución. Para obtener esta información, hay que
tener en cuenta la distribución de la variable de partida X en la
población y si la varianza poblacional es conocida. Atendiendo a
estos criterios, se estudian tres casos:

1. La variable X se distribuye según a curva normal con


varianza conocida.

2. La variable X se distribuye de forma normal con varianza


desconocida.

3. La variable X no sigue la distribución normal o no conocemos


su distribución.
9.3.1 Distribución normal de la variable X con varianza poblacional
conocida

Sea una variable aleatoria X con distribución normal y parámetros


poblacionales . Si se extrae un número muy amplio de
muestras de tamaño n, la distribución de sus medias tiende a una
distribución normal definida como a medida que n tiende a
infinito. Esto significa que:
Se puede ver que a medida que aumenta el tamaño de la muestra,
el error típico de la media disminuye. En la distribución muestral de
la media el error típico es inversamente proporcional al tamaño de
la muestra (n), a medida que aumenta el tamaño muestral la
distribución muestral de las medias se hace más homogénea
(presenta menor variabilidad).
9.3.2 Distribución normal de la variable X con varianza
poblacional desconocida

Lo más habitual es que se desconozca la varianza, teniendo que


estimar el valor del error típico de la media mediante la
cuasidesviación típica muestral:

Siguiendo la distribución t student


9.3.3 La variable X no se distribuye normalmente

Habitualmente, las variables no se ajustan al modelo de la normal o


se desconoce cuál es su varianza poblacional. En estas situaciones,
la Estadística aporta el Teorema del Límite Central, que permite
calcular las probabilidades asociadas a los valores de las medias
sin necesidad de conocer la forma de la distribución de las
variables, siempre que las muestras sean superiores a 30 (n >30).

Teorema del Límite Central: Sea X1, X2, ..., X., un conjunto de
variables aleatorias, independientes e idénticamente distribuidas
con media y varianza . Si n es grande (n>30) la distribución
muestral de la media de las X, se aproxima a la distribución normal
a medida que n aumenta, independientemente de las
distribuciones que presenten X1, X2, … Xn.
9.4 DISTRIBUCIÓN MUESTRAL DEL ESTADÍSTICO
PROPORCIÓN

En Psicología y en Ciencias de la Salud son muy habituales


estudios en los que están involucradas una o varias proporciones (o
porcentajes) medidas en alguna variable de interés ej. la proporción
de universitarios varones frente a mujeres adictos a la cocaína.
Para poder hacer los pertinentes estudios deberemos conocer cuál
es la distribución muestral de este estadístico, distinguiendo entre
muestras pequeñas y muestras suficientemente grandes.
Definimos como la proporción de aciertos en la población. Si
extraemos todas las posibles muestras de tamaño n y medimos en
cada una de ellas la variable aleatoria X= número de éxitos en las n
extracciones, y sea P =proporción de éxitos en las n extracciones,
constante en todas las muestras, es decir, P1=P2 =...= P.1 =
Definimos las distribuciones muestrales de X y P según las
muestras sean pequeñas o grandes.

9.4.1 Distribución muestral del estadístico P para muestras


Pequeñas
En la tabla de la binomial se pueden determinar las probabilidades
para diferentes tamaños muestrales y valores de

Supuestos:
 La variable aleatoria X es una variable Bernoulli (solo dos
valores éxito o fracaso)

 Se conoce proporción en la población

 Las n observaciones son independientes

La distribución muestral de la variable P, es una distribución


Binomial:
9.4.2 Distribución muestral del estadístico P para muestras
suficientemente grandes

Las muestras con las que se trabaja suelen ser grandes.


Por el Teorema del Límite Central se sabe que, a medida que n
crece, la distribución de las proporciones se aproxima a la
distribución normal con parámetros:
9.5 DISTRIBUCIÓN MUESTRAL DEL ESTADÍSTICO VARIANZA

Conociendo la distribución de estas variables se deduce


matemáticamente:
Para calcular las probabilidades asociadas a las varianzas,
mediante la tabla de ji-cuadrado, se utiliza:
TEMA 10

10.1 ESTIMACIÓN DE PARÁMETROS


El proceso de estimación de parámetros consiste en inferir
el valor desconocido de un parámetro. Hay cuatro tipos de
estimaciones:

 Estimación puntual. Asignamos un único valor al parámetro


desconocido, a partir del resultado de una muestra. Ej. tras la
aplicación de un programa de intervención dental para niños,
encontramos que el 60% (P = 0,60) de los niños se lavan los
dientes 3 veces al día. Una estimación puntual nos llevaría a
suponer que la proporción en la población de niños que se
lavarían los dientes tres veces al día si participasen en el
programa sería:

 Estimación por intervalos. Damos un rango de posibles


valores, dentro del cual estimamos se encuentra el verdadero
valor del parámetro con un determinado grado de confianza.
Ej. después de participar en el programa de intervención, la
proporción de niños que se lavan los dientes 3 veces al día se
encuentra entre 0,50 y 0,70. Es decir con un
cierto margen de confianza.

 Estimación Bayesiana. En lugar de considerar a los


parámetros como constantes, se presentan como variables
aleatorias con una cierta distribución a priori. Las
observaciones, aportan información que transforman las
probabilidades a priori en probabilidades a posteriori.

 Estimación Bootstrap. Remuestreo y en las técnicas de


simulación, por lo que requieren el uso de ordenadores. Se
extrae de una misma muestra varias (muchas) muestras y
estudiar el conjunto de muestras así obtenidas.

Para que un estadístico pueda considerarse un buen estimador de


un parámetro deberá tener las siguientes propiedades: carencia de
sesgo, eficiencia, consistencia y suficiencia.
10.1.1 Propiedades de los estimadores

CARENCIA DE SESGO: Sea el parámetro a estimar y el valor


del estimador (valor obtenido en la muestra), diremos que es un
estimador insesgado o carente de sesgo si E( ) = para cualquier
valor de . Es decir, un estimador insesgado es aquel en el que se
cumple que la media de la distribución muestral, coincide con el
parámetro estimado.

 ¿Es la media un estimador insesgado de la media


poblacional?
El estadístico media sigue una distribución normal o una t de
Student (según conozcamos o no la varianza poblacional).

En cualquiera de las dos distribuciones . Por lo tanto, la


media de la muestra es un estimador insesgado de la media
poblacional.

 ¿Es la proporción, un estimador insesgado de la proporción


poblacional?

Como se observa, por lo que P es un estimador insesgado


de
 ¿Son la varianza y la cuasivarianza estimadores insesgados
de la varianza poblacional?

Es obvio que la esperanza matemática de la varianza de la muestra,


, no es exactamente su correspondiente valor poblacional , por
lo que decimos que se trata de un estimador sesgado, siendo
precisamente su sesgo el factor

La cuasivarianza sí es un estimador insesgado de la varianza de la


población, ya que . De aquí se deduce, que si queremos
realizar una estimación puntual de , es preferible utilizar la
cuasivarianza en lugar de la varianza.

EFICIENCIA:

Por tanto, entre dos estimadores insesgados será preferible


seleccionar el que presente una menor varianza (menor error típico
de la distribución muestral del estadístico). El error típico refleja el
mayor o menor alejamiento de los posibles valores del estadístico a
su media de la distribución muestral. Un estimador es tanto mejor
cuanto su distribución muestral tenga una varianza más pequeña.
Ej. en relación con la varianza y la cuasivarianza, los errores
típicos de ambos son:

El error típico de la cuasivarianza, es mayor que el de la varianza,


siendo, la varianza es un estimador más eficiente que la
cuasivarianza.
La Eficiencia relativa, ER, de un estimador con respecto a otro
, como la razón:
Si el cociente es igual a 1, ambos estimadores son igualmente
eficientes.
Si ER > 1, el estimador del denominador es más eficiente.
Si ER < 1, el estimador del numerador es más eficiente.

CONSISTENCIA: Indica que, a medida que el tamaño muestral se


hace grande (tiende a infinito), el valor del estadístico se aproxima
al valor del parámetro. Por tanto, un estimador es consistente
cuando la probabilidad de que su valor se acerque al del parámetro
es mayor a medida que aumenta la muestra:

Si n tiende a infinito, la probabilidad de que sea menor que


cualquier valor , por pequeño que sea este, tiende a
SUFICIENCIA: Capacidad del estimador de utilizar toda
la información existente en la muestra en relación al parámetro.
Sabemos que la media de la muestra, , es un buen estimador de
la media poblacional, . También podríamos utilizar otros
estimadores como: la mediana, el promedio ... pero nos basta con
usar la media es un estimador suficiente.

Las propiedades de los estimadores media, proporción y


cuasivarianza son:
10.1.2 Métodos de obtención de estimadores

Los dos métodos más empleados para obtener los estimadores que
se suelen utilizar en Psicología y Ciencias de la Salud. Son:

 Método de mínimos cuadrados. Trata de obtener aquel


estimador que minimice las distancias (al cuadrado) entre el
valor estimado del parámetro y los resultados muestrales
observados. No siempre es el mejor método, pero es útil para,
por ejemplo, estimar los parámetros de la regresión:

 Método de máxima verosimilitud. Este método obtiene


como estimador de un parámetro aquel valor del estadístico
que hace lo más verosímil posible la muestra obtenida.

10.1.3 Estimación puntual

Da un valor numérico único al parámetro desconocido.


Inconvenientes:
 Teniendo en cuenta el elevado número de muestras que
podemos extraer de la población, el número de estimaciones
podría resultar excesivo.

 Aún cuando la muestra es representativa de la población y el


estimador cumpla con las características exigidas, no se
puede establecer ni la fiabilidad de la estimación ni el error
que se comete; lo único que podemos afirmar es que el error
cometido en la estimación se hará menor a medida que
aumente el tamaño de la muestra.
10.1.4 Estimación por intervalos

La estimación por intervalos consiste en obtener una medida del


error (diferencia entre el estimador y el parámetro) que se comete al
realizar la estimación con una determinada probabilidad. Estimar
por intervalos es atribuir al parámetro un rango de valores posibles
dentro del cual estará incluido el parámetro con una determinada
probabilidad. Mediante la estimación por intervalos, obtenemos un
rango de posibles valores del parámetro, denominado intervalo de
confianza y a cuyos límites se les llama límites del intervalo de
confianza. es el límite inferior y , es el límite superior.

A la zona sombreada se le denomina nivel de confianza (n.c.) y


se corresponde con la probabilidad asociada al intervalo que
contiene todos los posibles valores que puede tomar el parámetro
Se le llama nivel de confianza y no de probabilidad ya que, una vez
extraída la muestra, el intervalo de confianza contendrá al
verdadero valor del parámetro o no. Si repitiésemos el proceso con
muchas muestras podríamos afirmar que el de los
intervalos así construidos contendría al verdadero valor del
parámetro. es el nivel de significación y hace referencia a la
cuantía del margen de error que se asume a priori.
La ventaja de este método es que se puede valorar la seguridad
con la que se rea izan las estimaciones mediante el nivel de
confianza, el cual se expresa en términos de probabilidad.
Características del intervalo
de confianza:

 Relación entre amplitud del intervalo y nivel de confianza:


En la Figura 10.2 se muestran tres distribuciones en las que se han
establecido tres intervalos de confianza (zona sombreada en el
gráfico) que van aumentado a medida que aumenta . Cuanto
mayor es el intervalo de valores mayor es la probabilidad de que se
encuentre dentro de él el verdadero valor de y la estimación es
menos precisa. Lo anterior quiere decir que la precisión de la
estimación se relaciona de forma inversa con el nivel de confianza,
a mayor confianza en la estimación, mayor será el intervalo y como
consecuencia, la estimación es menos precisa. En resumen, a
mayor confianza menor precisión.

 El investigador es quien decide y fija el valor del nivel de


confianza en función de la valoración personal que hace
sobre diversos aspectos: el diseño de su trabajo, definición
y obtención de la muestra... En general se adoptan los niveles
de confianza de .

 Nivel de riesgo o significación : El opuesto al nivel de


confianza se llama nivel de riesgo, margen de error o nivel
de significación y se representa por . Indica la probabilidad
de que el valor del parámetro no se encuentre dentro de los
límites definidos. Como se desprende de la Figura 10.3, . se
reparte entre los dos extremos de la curva que delimitan el
intervalo de confianza , dividiéndose el margen de error
en dos partes iguales siendo el área correspondiente a cada
una (zonas sombreadas en la figura).
Cuanto mayor es el nivel de confianza menor es el margen de error.
10.2 CÁLCULO DEL INTERVALO DE CONFIANZA

Para poder calcular el intervalo de confianza de un parámetro


cualquiera es necesario conocer la esperanza matemática y el error
típico.
Para construir un intervalo de confianza para un parámetro,
se suma y se resta al estimador, una cantidad que llamamos error
máximo de estimación,
Para comprender como se define el intervalo de confianza se
retoma el concepto de puntuación Z, ya que, junto a la definición
de error de típico, son los elementos necesarios para entender
cómo se construyen los intervalos de confianza y cuál es su
significado.

10.2.1 Intervalo de confianza para el parámetro μ con


conocida

Acudiendo a las tablas de la distribución normal del Formulario, se


puede calcular la probabilidad de que la variable Z se encuentre
entre dos valores concretos. Si se corresponde al margen de
error (o nivel de significación que se ha fijado) tendremos:
La obtención de los intervalos correspondientes a la media,
conocida la varianza poblacional y siendo normal la distribución de
la variable de estudio es aplicable también al caso en el que la
variable no siga la distribución normal siempre y cuando el tamaño
de la muestra sea grande (n > 30).
El Teorema del Límite Central establece que la distribución muestral
de la media se aproxima a la distribución normal a medida que el
tamaño de la muestra va aumentando, sin que necesariamente la
variable aleatoria X tenga una distribución normal. Así, cuando el
tamaño muestral sea grande y queramos estimar la media
poblacional, podemos utilizar el intervalo antes definido.
10.2.2 Intervalo de confianza para el parámetro μ con
Desconocida

Si la variable aleatoria X tiene distribución normal en la población,


pero la varianza es desconocida, sabemos que la distribución
muestral de la media X sigue la distribución t de Student:

Esto implica que:


10.2.3 Intervalo de confianza para el parámetro
(aproximación a la normal)

Se tiene que la probabilidad de obtener un intervalo de confianza


que contenga el parámetro es:
10.2.4 Intervalo de confianza para el parámetro

Se utilizará la cuasivarianza muestral como estimador de


10.3 SIGNIFICADO DEL NIVEL DE CONFIANZA

Un intervalo tiene asociado un nivel de confianza que podría


interpretarse como la probabilidad de que el parámetro desconocido
se encuentre entre los límites del intervalo. Sin embargo, esto no es
del todo correcto, ya que el concepto de probabilidad solo es
aplicable a variables y los valores de los límites del intervalo una
vez calculados son valores constantes.
Para interpretar correctamente el nivel de confianza asociado al
intervalo (por ejemplo 0,95) se debe pensar de la siguiente manera:
Si se extraen un número elevado de muestras del mismo tamaño y
calculamos la media en cada una de ellas, obtendremos tantos
intervalos de confianza como medias hayamos calculado. Pues
bien, el 95% de todos los intervalos calculados tienen dentro al
parámetro y el 5% no. Por tanto, una proporción de , de todos
los intervalos de confianza contendrá al parámetro poblacional y
una proporción no los contendrá.
Las medias están dentro de la zona sombreada y el intervalo
de confianza NO contiene a la media poblacional. están en
la zona no sombreada y contienen al parámetro. Cualquier valor de
la media que se encuentre en las zonas sombreadas da lugar a
intervalos que NO contienen al parámetro, siendo la probabilidad de
que esto ocurra de 0,05 (0,025 + 0,025). Por el contrario, el valor de
la media que se encuentre en la zona no sombreada contendrá al
parámetro y la probabilidad de que ocurra es de 0,95.
Es probabilidad cuando se alude a la variable media, por eso al
referirnos al intervalo hablaremos de confianza y no de probabilidad.

10.4 GENERALIZACION DE LA CONSTRUCCIÓN DE


INTERVALOS

Se puede generalizar el procedimiento de construcción de intervalos


representados por:

Pasos para la estimadores con distribución muestral conocida,


para construir el intervalo son:

1. Determinar el parámetro que queremos estimar y el


estadístico (estimador) que, cumpliendo con las propiedades
que debe tener un buen estimador, lo estima.

2. Conocer la distribución muestral del estadístico (estimador) y


los parámetros que la definen (media y error típico). La
distribución muestral nos da las probabilidades asociadas a
cada uno de los valores.

3. Fijar el nivel de significación o el nivel de confianza


lo fija el investigador en virtud de la valoración personal que
hace de la seguridad de sus datos y del empleado por otros
investigadores en las mismas o muy similares circunstancias.
Suele ser por convenio: = 0,05 o = 0,01.

4. Determinar el error máximo de estimación definido


por el producto del error típico de la distribución muestral del
estadístico que estima al parámetro por el valor del estadístico
(Z, T, F…) correspondiente al nivel de significación prefijado.
10.5 FACTORES QUE AFECTAN AL INTERVALO DE
CONFIANZA

Nivel de confianza: La mayor o menor amplitud de un intervalo (o


también, menor o mayor precisión) depende del nivel de confianza
con el que se decide trabajar. Con 1 - = 0,95 tendremos intervalos
menos amplios (o más precisos) que con la elección de 1 - = 0,99.

Error típico: Medida de la variabilidad de la distribución muestral


del estadístico que depende del tamaño muestral n y de la
homogeneidad de la muestra, afectando ambos factores al intervalo
de confianza.

Homogeneidad de la muestra: Si las muestras son homogéneas,


la varianza es pequeña y la desviación típica (ya sea poblacional o
muestral), en consecuencia el error típico será pequeño, la amplitud
del intervalo será menor y por tanto la precisión será mayor.

10.6 CÁLCULO DEL TAMAÑO MUESTRAL

Es imprescindible determinar el tamaño que ha de tener una


muestra; tiene que ser suficiente para garantizar la precisión
deseada en la estimación de los parámetros y/o detectar de forma
correcta diferencias entre los grupos en el caso de que existiesen,
valorar la intensidad de la relación, etc.
La Estadística Paramétrica, tiene dos procedimientos de trabajo: la
estimación de parámetros y el contraste de hipótesis.
En ambos se parte de los datos muestrales. Sin embargo, en la
estimación de parámetros se responde a una pregunta sobre la
población, mientras que el contraste de hipótesis se hace una
afirmación sobre la población que luego se comprueba. Por tanto,
hay dos situaciones que a considerar para de determinar el tamaño
muestral
En ambos casos, el tamaño muestral debe ser un número entero.
Cuando su cálculo de lugar a un número decimal debe redondearse
siempre al inmediato superior.

10.6.1 Tamaño muestral para el parámetro media

La determinación del tamaño muestral, gira en torno a los


conceptos de error típico y de error máximo de estimación. Existen
dos situaciones: conocer o desconocer la varianza poblacional

10.6.1.1 Conocida la varianza poblacional


10.6.1.2 Desconocida la varianza poblacional

Lo habitual en la investigación es que no se conozcan los


parámetros media y varianza poblacional. En estos casos, la
varianza también debe ser estimada, al mismo tiempo que la media,
mediante su estimador insesgado, la cuasivarianza.
La distribución muestral del estadístico media (el que queremos
estimar) se ajusta a una distribución t de Student con n-1 grados de
libertad (n = tamaño de la muestra). Al presentar los intervalos
de confianza, en el caso de la varianza, el error máximo de
estimación,
Si no se conoce todavía n, ¿Cómo buscaremos en las tablas t de
Student con n - 1 grados de libertad? Hay dos soluciones:

1. Trabajar mediante aproximaciones sucesivas por un


procedimiento iterativo

2. Aproximar la distribución t de Student mediante la curva


normal.
Si aún no hemos obtenido la muestra ¿cómo podemos saber cuál
es la varianza insesgada en nuestra muestra? El procedimiento más
cómodo y efectivo es obtener un valor aproximado para la
desviación típica insesgada . A partir de estudios previos, o de
la realización de un estudio piloto, partiendo de este valor de
se calcula el tamaño muestral (n) y se procede a la selección de la
muestra, medida de las variables, etc.
10.6.2 Tamaño muestral para el parámetro proporción

También podría gustarte