Está en la página 1de 31

FINAL DE ESTADÍSTICA MUIÑOS.

Botella capítulo 1. Conceptos generales.

1.1. INTRODUCCIÓN
¿Qué es la estadística actual?
La estadística actual no sólo es un conjunto de técnicas para resumir y transmitir información
cuantitativa, sino que sirve también, y fundamentalmente, para hacer inferencias, generalizaciones y
extrapolaciones de un conjunto relativamente pequeño de datos a un conjunto mayor. Una de las
aplicaciones más importantes de éstas técnicas es en la actualidad el propio trabajo de adquisición
de conocimiento mediante la investigación científica, a la que ha proporcionado unos poderosos
instrumentos para el análisis de datos y la toma de decisiones.

Clásicamente la estadística se ha dividido en dos partes, la estadística descriptiva y la estadística


inferencial. Estas dos partes reflejan las dos grandes épocas de su historia, y la profundidad de los
análisis que se realizan o, incluso, las fases de un estudio, puesto que para hacer un estudio
inferencial primero hay que hacer un estudio descriptivo de los datos. Es decir, un estudio descriptivo
se agota en la descripción, mientras que uno inferencial comienza por la descripción y luego aborda
la inferencia.

Mientras que la estadística descriptiva puede abordarse sin conocimientos previos, aparte del
álgebra elemental, para el estudio de la estadística inferencial es imprescindible adquirir unas
nociones básicas de probabilidad.

ESTADÍSTICA ES LA CIENCIA QUE SE OCUPA DE LA ORDENACIÓN Y ANÁLISIS DE DATOS


PRECEDENTES DE MUESTRAS, Y DE LA REALIZACIÓN DE INFERENCIAS ACERCA DE LAS
POBLACIONES DE LAS QUE ESTAS PROCEDEN.

Las técnicas más sofisticadas y desconocidas de la estadística son las que se utilizan para extraer
conclusiones de poblaciones a partir de la observación de unos pocos casos son las que integran la
estadística inferencial.

Por ejemplo: si nos interesa conocer la opinión de los vecinos de nuestro bloque acerca de una serie
de cuestiones que afectan a la convivencia, podemos pasarles una encuesta. Con los datos recogidos
podremos calcular promedios, porcentajes, etc., y con estos resúmenes numéricos podremos
transmitir la información contenida en esos datos brutos utilizando los formatos compactos y de gran
calidad informativa que nos proporciona la estadística descriptiva. Sin embargo, el estudio se agota
en esos mismos datos; es por tanto, un estudio descriptivo. Si, por el contrario, queremos hacernos
una idea de las opiniones de los habitantes de nuestra ciudad sobre esas mismas cuestiones, no
podremos preguntarles a todos. Probablemente utilizaríamos la estrategia de seleccionar un grupo
de vecinos, pasarles la encuesta, y a partir de sus resultados hacernos una idea de cuál es el estado de
opinión del conjunto de los habitantes de la ciudad. En este caso se trata de hacer inferencias acerca
de toda la ciudad a partir de los datos observados en unos pocos de sus habitantes; se trata por tanto,
de un estudio inferencial.

1.2. CONCEPTOS CENTRALES


SE LLAMA POBLACIÓN ESTADÍSTICA AL CONJUNTO DE TODOS LOS ELEMENTOS QUE CUMPLEN
UNA O VARIAS CARACTERÍSTICAS O PROPIEDADES.

A los elementos que componen una población se los denomina entidades estadísticas o individuos.
Pueden ser personas, animales, objetos o, simplemente, números.
Dependiendo del número de elementos que la compongan, la población puede ser finita o infinita.

● Poblaciones finitas: los elementos se pueden contar, obteniendo un número finito. Ejemplo: los
niños que estudian EGB en la ciudad de Madrid, los niños invidentes españoles, las empresas de tal
lugar, etc.
● Poblaciones infinitas: teóricamente no tienen un límite, y por muchas observaciones que
realicemos siempre podríamos recolectar algunas más. Ejemplos: el número de lanzamientos
posibles de un dado, el conjunto de los números pares, etc.

En la estadística hay procedimientos de cálculo que varían dependiendo de que la población sea
finita o infinita. En esta estadística se trabaja generalmente con poblaciones infinitas.

Cuando un investigador aborda un trabajo empírico debe definir claramente la población sobre la
cual se interesa. La población ha de ser el marco o conjunto de referencia sobre el cuál van a recaer
las conclusiones e interpretaciones, y éstas no pueden exceder ese marco.

Que las poblaciones sean, por lo general, muy numerosas, suele hacer inaccesible la descripción de
sus propiedades. De ahí que se trabaje fundamentalmente con muestras.

UNA MUESTRA ES UN SUBCONJUNTO DE LOS ELEMENTOS DE UNA POBLACIÓN.

La muestra nos va a ofrecer una serie de datos que podemos ordenar, simplificar y describir. Pero el
objetivo fundamental es el de poder describir la población de partida mediante lo que podamos
encontrar en la muestra. Para poder extraer esas conclusiones lo más importante es que las muestras
de observaciones sean representativas.

Con respecto a la muestra, lo que nos interesa es extraer conclusiones generales acerca de “la
eficacia de la técnica, la forma general de responder en la tarea”.

El objetivo más importante de toda investigación suele ser la extracción de conclusiones acerca de la
población a partir de la información contenida en la muestra observada, es claro que ese objetivo sólo
se alcanzará plenamente en la medida en que esa información se aproveche correctamente y en
todas sus posibilidades.
Por ello un primer objetivo de la estadística descriptiva consiste en conseguir resúmenes de los datos
e índices compactos y de gran calidad informativa.

Glosario:

● Población de individuos: el conjunto de todos los elementos sobre los cuales se observa una o
más características de interés. Frecuentemente se alude a ella como población objetivo, en razón de
que sobre ella recae el objetivo o interés del estudio. Ejemplos: -El conjunto de aspirantes al empleo
del restaurante X, -El conjunto de las escuelas primarias públicas de Lomas de Zamora y -El conjunto
de semanas a lo largo del último año.
● Muestra de individuos: es un subconjunto o parte de una población de individuos. Ejemplos: -
Los cinco primeros entrevistados, -Las escuelas nro. 12, 16, 17, 23, 34, 55, 62, 70, 84, y 97 de Lomas de
Zamora y -Las semanas 1, 6, 12, 19, 27, 36, y 46 del último año.
Notas:
*Es importante destacar que, tanto cuando hablamos de las unidades como de la población objetivo
o de individuos o de la muestra de individuos, éstas entidades deben ser situadas en el espacio
(situación geográfica) y en el tiempo (año o fecha).
*Para favorecer la representatividad de las muestras, la llamada teoría del muestreo ha desarrollado
diversidad de métodos. Uno de ellos es la selección al azar de las unidades muestrales, como las
escuelas del ejemplo, pueden haber sido seleccionadas por sorteo.
● Población de observaciones: es el conjunto de todos los valores que puede tomar una variable
estadística sobre la población de individuos. Nótese que sobre una misma población de individuos se
pueden definir muchas poblaciones de observaciones, tantas como variables de interés.
● Muestra de observaciones: es el conjunto de valores que toma una variable estadística sobre
una muestra de individuos, es decir, es un subconjunto de la población de observaciones.

Las poblaciones pueden caracterizarse a partir de unas constantes denominadas parámetros. Como
los parámetros son desconocidos (normalmente), una de las tareas de la estadística es la de hacer
conjeturas lo más acertadas posibles acerca de esas cantidades análogas obtenidas en las muestras,
que se denominan estadísticos.

UN PARÁMETRO ES UNA PROPIEDAD DESCRIPTIVA DE UNA POBLACIÓN.

UN ESTADÍSTICO ES UNA PROPIEDAD DESCRIPTIVA DE UNA MUESTRA.

El estrés medio de los seres humanos o el tiempo medio que invertiría un sujeto en todas las
hipotéticas realizaciones de una tarea, son ejemplos de parámetros. Como éstas cantidades son
desconocidas, normalmente hacemos conjeturas sobre ellas a partir de cantidades similares
obtenidas en las muestras.
Si la muestra utilizada es realmente representativa, probablemente la media poblacional, o
parámetro, no difiera mucho de la media muestral, o estadístico.
Los parámetros y estadísticos no sólo son medias, sino que pueden ser otros tipos de cantidades,
como porcentajes. Los parámetros se suelen representar por letras griegas, mientras que los
estadísticos se suelen simbolizar por letras latinas (X, S, P,Etc.). En la primera fase de una investigación
se obtienen los estadísticos y en la segunda se utilizan los valores obtenidos para hacer inferencias
acerca de los parámetros.
En la práctica basta con obtener una única muestra y, por tanto, a partir de ella tratar de estimar el
parámetro. Para ello es fundamental que la muestra sea representativa de la población y que el
estadístico calculado reúna la información necesaria y suficiente para que a partir de él podamos
decir algo acerca de “la verdadera eficacia del tratamiento, el verdadero porcentaje de los que se
rehabilitaron con ese nuevo método”, es decir, el parámetro.

Glosario:

● Parámetro: es una característica física, generalmente numérica, de la población de valores de


una variable. Por ejemplo: si la variable es el tiempo de reacción de sujetos entrenados ante un
estímulo, un parámetro es el tiempo promedio de reacción de todos los individuos de población de
interés si estos fueran entrenados (este es un ejemplo de una población hipotética). Nótese que al
promediar todos los valores de la población se obtiene un único valor, fijo para toda la población. Otro
parámetro podría ser el tiempo mínimo de reacción que surgiría de comparar los tiempos de todos
los sujetos de la población y que, por tanto, también es único; lo mismo puede decirse del tiempo
máximo. Si la variable es actitud de los consumidores hacia un nuevo producto, un parámetro puede
ser el porcentaje de consumidores hacia un nuevo producto, un parámetro puede ser el porcentaje
de consumidores de toda la población objetivo que tiene una actitud positiva.
● Estadístico: es una característica muestral y, como tal, es una variable porque sus valores
dependen de la muestra que salga seleccionada (piense que dada una población pueden extraerse
muchas muestras diferenciales). Cada valor del estadístico se obtiene como función de las
observaciones de una muestra. Por ejemplo, tiempo promedio de reacción de los individuos que
fueron entrenados. Porcentaje de consumidores entre 100 encuestados que manifestaron tener una
actitud positiva frente al producto.
● Estimador: es un estadístico cuyos valores se consideran próximos a un parámetro que, por ser
generalmente desconocido, se desea estimar.

Cuando estudiamos las entidades que conforman una población nos interesamos por alguna de las
propiedades de sus elementos, y esas propiedades adoptan distintas variedades. Estas son
característica y modalidad.

CARACTERÍSTICA: ES UNA PROPIEDAD O CUALIDAD DE UN INDIVIDUO.

MODALIDAD: CADA UNA DE LAS MANERAS COMO SE PRESENTA UNA CARACTERÍSTICA.

Ejemplos: característica: sexo - modalidad: varón, mujer.


característica: estado civil - modalidad: soltero, casado, viudo.
Cada una de las características puede mostrar distintas modalidades.

1.3. MEDICIÓN

La estadística realiza sus funciones sobre números que representan las modalidades.

SE LLAMA MEDICIÓN AL PROCESO DE ATRIBUIR NÚMEROS A LAS CARACTERÍSTICAS.

Atribuyendo números a las características podemos ver que unos individuos exhiben en iguales o
diferentes medidas a estas. Ejemplo: las modalidades que adopta la variable estatura son tales que se
podría decir que una determinada modalidad es una estatura superior a otra determinada
modalidad.
El objetivo de la medición de una característica es conectar un sistema relacional empírico (porque
se refiere a entidades y relaciones reales) y un sistema relacional numérico, de tal forma que las
relaciones entre las entidades se reflejen en las relaciones entre los números que los simbolizan.
La medición estudia las condiciones de construcción de representaciones numéricas, y los modelos
desarrollados para la medición se llaman escalas.

Sistema de clasificación de escalas propuesto por Stevens:


Se utiliza una clase por cada una de las modalidades que adopta la característica que se está
estudiando. Las clases son mutuamente exclusivas y exhaustivas, es decir, cada observación es
incluida en una y sólo una clase.
En su forma más simple y primitiva, un esquema no es más que una regla que permite organizar las
observaciones en clases de equivalencia, de manera que las observaciones que son incluidas en la
misma clase son consideradas como cualitativamente iguales, y las que son incluidas en clases
diferentes son consideradas como cualitativamente diferentes.

-ESCALAMIENTO CUALITATIVO O NOMINAL- CONJUNTO DE CLASES


ESCALA NOMINAL: asignar números, símbolos, letras, palabras que serán utilizados como simples
códigos de identificación. Ejemplo: - Sexo, asignar el valor 1 a los varones y el valor 0 a las mujeres. Tras
realizar esa operación tendremos a los elementos de la muestra clasificados en dos clases de
equivalencia, una por cada modalidad, que son son mutuamente exclusivas (ninguno de los
elementos es incluido simultáneamente en más de una clase) y exhaustivas (todos los elementos han
sido asignados a alguna de las clases utilizadas). -Diagnósticos psicopatológicos, -Estado civil, -Tipos
de sangre, etc.
La clave de estas escalas de medida es que sólo informan de la igualdad o desigualdad de los
individuos en una característica, pero no de posibles ordenaciones, puesto que la característica a la
que se refieren no se tiene en mayor o menor medida, sino que simplemente adopta formas
cualitativamente distintas.
Transformación admisible: (unicidad de la medida) existen diversas representaciones alternativas que
pueden ser correctas, por cumplir las condiciones exigidas en la escala correspondiente.

ESCALA ORDINAL: números que nos permiten inferir relaciones del tipo “mayor que” o “menor que”.
Se hace una medición a nivel ordinal. Además de poder decir que son diferentes en una
característica, también puede decirse cual es mayor y cual es menor, es decir, que los objetos pueden
ser ordenados.
En la psicología son muchas las características cuya medición se considera que está a nivel ordinal,
pues son muchos los casos en los que lo único que puede decirse es que un individuo es más
extravertido que otro, que un niño es más hiperactivo que otro, o que el aprendizaje es más rápido
con el método A que con el método B.
Transformación admisible: todas aquellas que preserven las características de la escala ordinal, o sea
todas aquellas transformaciones que cumplan con la condición de ser transformaciones crecientes.

ESCALAS CUANTITATIVAS:
ESCALA DE INTERVALO: Sea una función lineal de la magnitud real que ese objeto presenta en la
característica en cuestión. Se cuenta con una unidad de medida, sin importar que tanto esta unidad
de medida como el origen de la escala sean arbitrarios. Podemos extraer consecuencias acerca de la
igualdad o desigualdad de diferencias. Es decir, que si la diferencia entre los números asignados a
otros dos, entonces también son iguales las diferencias en magnitudes entre estos dos pares. Y, por el
contrario, una mayor diferencia entre los números asignados implica una mayor diferencia entre las
magnitudes representadas.
La principal limitación de este tipo de escalas es que, aunque cuenta con una unidad de medida, no
tiene un cero absoluto. Es decir, el número cero no representa realmente la ausencia de esa
característica. En el caso de la temperatura es claro que el valor cero no significa temperatura nula,
puesto que pueden observarse temperaturas inferiores. La siguiente escala supera esta limitación.

ESCALA DE RAZÓN: posee una condición que cumple la función de preservar el significado del valor
cero, de forma que siempre represente la ausencia de esa característica. Ejemplo: medición de
distancia, cuando se dice que algo mide cero significa lo mismo. La consecuencia fundamental de la
presencia de un origen absoluto, y no arbitrario, es que además de poder extraer conclusiones acerca
de la igualdad o desigualdad de diferencias, también puede hablarse de la igualdad o desigualdad de
razones.
TIPO INFORMACIÓN DEDUCTIBLE TRANSFORMACIÓN ADMISIBLE EJEMPLOS

NOMINAL Relaciones “igual que” “distinto que” Aplicaciones inyectivas Sexo, estado civil, diagnóstico clínico.

ORDINAL Relaciones “mayor que” “igual que” Funciones crecientes Dureza, nivel socioeconómico, grado
de asertividad

INTERVALO Igualdad o desigualdad de diferencias A+B.X Temperatura, calendario, inteligencia.


(B>0)

RAZÓN Igualdad o desigualdad de razones B.X Longitud, Peso.


(B>0)

1.3.1. LAS VARIABLES: CLASIFICACIÓN Y NOTACIÓN


(Botella y Glosario)

UNA VARIABLE ES UNA REPRESENTACIÓN NUMÉRICA DE UNA CARACTERÍSTICA.

VARIABLE O CARACTERÍSTICA: es una característica de un fenómeno observable en los individuos de


una población. Es una variable propiamente dicha cuando presenta diferentes modalidades (dos o
más) entre los individuos. Si se presenta bajo una única modalidad, se dice que es una característica
constante. Ejemplos: 1- Memoria de los aspirantes al empleo, 2- Nivel de deserción escolar, 3- volúmen
de ventas.

VARIABLE ESTADÍSTICA: es una representación, a través de números u otros símbolos de una


variable. Esta representación se obtiene mediante algún procedimiento de medición.
Ejemplos: 1- Cantidad de palabras recordadas de una lista de 12. 2- Porcentaje de deserción escolar
(cantidad de estudiantes que abandonaron los estudios en determinado período dividido el total de
alumnos que ingresaron, multiplicado por 100). 3-Total en pesos de los productos vendidos en una
semana.

Las variables estadísticas se clasifican de acuerdo con el tipo de valores que pueden tomar en:

● VARIABLE CUALITATIVA: Es aquella que cuyos valores expresan atributos. Ejemplo: Tipo
de trastorno que presentan los pacientes de un servicio de salud mental (de ansiedad,
de sueño, de atención, etc.).
● VARIABLE CUASI-CUANTITATIVA: Es aquella cupos valores indican un orden o jerarquía.
Ejemplo: Nivel de deserción escolar (bajo,medio,alto).
● VARIABLE CUANTITATIVA: Es aquella cuyos valores expresan cantidades numéricas.
Dentro de las variables cuantitativas se diferencian las llamadas discretas de las
continuas. Se consideran discretas aquellas cuyos valores son puntos aislados; esto es,
cuando todo valor tiene un consecutivo (dos valores son consecutivos cuando no puede
existir un valor de la variable entre ellos). Ejemplo: Cantidad de palabras recordadas. Se
consideran continuas a las variables que, al menos teóricamente, pueden tomar
cualquier valor dentro de un intervalo numérico. Ejemplo: Tiempo de reacción ante un
estímulo. Hay variables que no son discretas ni continuas.

Las variables estadísticas se simbolizan por letras mayúsculas latinas: U, V, X, Y,..., generalmente con
un subíndice i , que sirve para indicar, además, la posición que ocupa un determinado valor en el
conjunto de valores de una variable. El símbolo Xn lo utilizamos para identificar el último valor de la
serie. el Xi se dice que es el término general y representa a cualquier valor de la serie.

1.4. ESTADÍSTICA E INFORMÁTICA


Hoy en día casi todos los análisis estadísticos se hacen por ordenador, mediante programas
especialmente diseñados para ello, y que con frecuencia se agrupan en los llamados paquetes
estadísticos.

Reuchlin. FUENTES DE VARIACIÓN SISTEMÁTICAS Y FORTUITAS. VARIACIONES PREVISIBLES E


IMPREVISIBLES.

Las variaciones de las conductas son previsibles cuando se conoce la situación, el momento o la
persona.
Las variaciones de las conductas son imprevisibles a partir de las informaciones de las que dispone el
observador.
*El psicólogo utiliza a menudo el método estadístico precisamente porque este método permite
tratar con más eficacia las observaciones que presentan a la vez variaciones imprevisibles y
variaciones previsibles.

Las variaciones son imprevisibles porque no están asociadas a ninguna fuente de variación
sistemática. No se ha introducido ninguna diferencia sistemática entre dos presencias de la misma
bombilla roja ó entre el exámen de un niño de 9 años y el exámen de otro niño de 9 años. Las
variaciones imprevisibles se atribuyen así a un conjunto de fuentes fortuitas de variación para el
experimentador o el encuestador.

Las variaciones son previsibles porque están asociadas a fuentes sistemáticas de variación. Si el
experimentador compara 20 tiempos de reacción frente a un estímulo que debe escogerse entre tres
estímulos posibles (bombillas roja, verde, amarilla), es porque prevé que el proceso mental, más
complejo en la segunda experiencia agrandará de manera significativa los tiempos de reacción. Si el
encuestador compara 100 niños de 9 años con otros 100 niños de 10 años es porque prevé que este
cambio sistemático sustituirá la fuente de una variación significativa de los resultados en el test.

Botella capítulo 2. Organización y representación de datos.

2.1. INTRODUCCIÓN

Cuando la cantidad de números recolectados es demasiado grande, y éste es el caso más frecuente,
se hace difícil hacer una inspección directa que sea realmente comprensiva. Por eso el primer paso
suele consistir en reorganizar los datos utilizando un formato más inteligible que la simple
yuxtaposición de números. Un instrumento para conseguir esa ordenación es la denominada
distribución de frecuencias, y a partir de ella es frecuente también construir representaciones
gráficas.

2.2. DISTRIBUCIÓN DE FRECUENCIAS

La distribución de frecuencias es un instrumento diseñado para cumplir tres funciones:


a) proporcionar una reorganización y ordenación racional de los datos recogidos;
b) ofrecer la información necesaria para hacer representaciones gráficas;
c) facilitar los cálculos necesarios para obtener los estadísticos muestrales.
X variable con la que trabajamos y que puede adoptar distintos valores, X1, X2, X3…
ni Frecuencia absoluta de un valor Xi. Número de veces que se repite el valor Xi en la muestra
Pi Frecuencia relativa de un valor Xi. Cociente entre la frecuencia absoluta de ese valor y el tamaño de
la muestra. es decir Pi: ni/n
na Frecuencia absoluta acumulada de un valor Xi. Número de veces que se repite en la muestra ese
valor Xi o cualquier valor inferior.
pa Frecuencia relativa acumulada de un valor Xi. Cociente entre su frecuencia acumulada y el tamaño
de la muestra. Es decir: Pa: na/n
En porcentajes las relativas se ponen en mayúsculas, se multiplican por 100. Pi: pi x 100 Pa: pa x 100.
*Las frecuencias absolutas suelen aparecer casi siempre..

>los valores que toma la variable se ponen en la primera columna, estos valores van creciendo de
abajo hacia arriba.
>Para la columna de frecuencias absolutas contamos el número de veces que se repite cada valor (la
suma de ni es igual a n (total).
>Para la columna de frecuencias relativas dividimos cada frecuencia absoluta por n. La suma de las pi
es igual a 1.
>Para las frecuencias absolutas acumuladas sumamos para cada valor su frecuencia absoluta más la
absoluta acumulada del valor anterior. Frecuencia absoluta acumulada del valor mayor es igual a n.
>Para las frecuencias relativas acumuladas dividimos cada frecuencia absoluta acumulada por n. La
frecuencia relativa acumulada tiene que ser igual a 1.

Xi ni na na pa

4 1 0,05 20 1,00

3 3 0,15 19 0,95

2 7 0,35 16 0,80

1 6 0,30 9 0,45

0 3 0,15 3 0,15

n 20 1,00

*En las frecuencias absolutas comprobamos que el tamaño de familia más frecuente en la muestra es
el de dos hijos, seguido de sólo un hijo. las familias sin hijos no son muy frecuentes. De la columna de
frecuencias relativas acumuladas deducimos que sólo una proporción de 0,20 de las familias (una de
cada 5) supera la barrera de la autorreproducción, es decir, tiene más de dos hijos. Lo que significaría
que por cada pareja de adultos nacería un par de hijos.

Glosario:
FRECUENCIA ABSOLUTA: Es la cantidad de veces que cada uno de los valores de la variable aparece
en un conjunto de datos. La suma de todas las frecuencias absolutas coincide con la totalidad de los
datos.

INTERVALOS
>AGRUPACIÓN EN INTERVALOS: Consiste en formar grupos de valores consecutivos, llamados
intervalos, y poner uno de estos grupos en cada fila, en lugar de poner cada valor individual por
separado. Cada uno de estos grupos suele indicarse en la distribución de frecuencias poniendo los
valores mayor y menor incluidos en él.
En las distribuciones de frecuencias con valores agrupados en intervalos aparecen algunos
elementos nuevos:
>Se llama intervalo a cada uno de los grupos de valores que ocupan una fila en una distribución de
frecuencias.
>Se llaman límites aparentes o informados de un intervalo a los valores mayor y menor que puede
adoptar la variable dentro de ese intervalo, según el instrumento de medida utilizado.
>Se llaman límites exactos de un intervalo a los valores máximos y mínimos incluidos en el intervalo y
que podrían medirse si se contara con un instrumento de precisión perfecta.
>Se llama punto medio de un intervalo a la suma de sus límites exactos partido por dos.
>Se llama amplitud de un intervalo a la diferencia en su límite exacto superior y su límite exacto
inferior. suele representarse con la letra I.

Para hacer una distribución de frecuencias no hay unas normas muy rigurosas. Nosotros vamos a
plantear tres reglas y algunas directrices. Las tres normas son las siguientes:
>El intervalo superior debe incluir al mayor valor observado.
>El intervalo inferior debe incluir al menor valor observado.
>Cada intervalo debe incluir el mismo número de valores.

Intervalos abiertos: no se pone límite inferior del intervalo que incluye los valores menores, el límite
superior del intervalo que incluye los valores mayores, o no se pone ninguno de los dos.
Problema de los bordes: suele añadirse al listado de valores distintos observados algunos otros
valores no observados en la muestra. Estos valores, por supuesto, tendrán frecuencias absolutas
iguales a cero, pero nos permitirán conseguir un número de valores distintos que sea múltiplo del
número de intervalos que queremos hacer.
Supuestos de distribución intra intervalo: Concentración en el punto medio: se tratan a los dos datos
como si fueran dos valores iguales (64 y 69 pm: 66,5) en el punto medio de su intervalo. Esta forma de
actuar supone una cierta cantidad de error. A medida que los intervalos tienen frecuencias mayores
estos errores se van reduciendo, dado que mientras que la sustitución de algunos de ellos por el
punto medio supone un incremento artificial, en otros lo que se produce es una reducción artificial y,
en general, tenderán a compensarse los dos tipos de error. Distribución homogénea: los incluidos en
un intervalo se reparten con absoluta uniformidad en su interior… Es decir, que si en un intervalo hay
cinco observaciones, aceptaremos que sus valores son los que tendríamos si partieramos al intervalo
en cinco subintervalos de igual amplitud y asignáramos a cada individuo el punto medio de un
intervalo.

2.3. REPRESENTACIONES GRÁFICAS

A partir de las distribuciones de frecuencias se pueden construir representaciones gráficas. La


función de éstas es dar informaciones globales mediante un solo golpe de vista.

2.3.1. Representaciones gráficas de uso frecuente

a) Diagrama de rectángulos:
Se colocan en el eje de abscisas las modalidades (o los números que las representan), y en el eje de
ordenadas las frecuencias (pueden ser absolutas o relativas, simples o acumuladas) sobre cada
modalidad se levanta un rectángulo cuya altura es la frecuencia correspondiente. La base de los
rectángulos será arbitraria, pero igual para todos. Se usa para variables nominales (ej. Estado civil) y
variables ordinales (ej. Nivel cultural).

b) Perfil ortogonal: Se utiliza mucho en informes psicopedagógicos o de rendimiento.

c) Pictograma: Son representaciones en forma de círculos en las que estos son divididos en secciones
cuya superficie es proporcional a la frecuencia de la modalidad correspondiente. A veces, cuando el
interés del trabajo lo aconseja, se separa una de las secciones para captar la atención del lector.

d) Diagrama de barras: (o diagrama de bastones) se utiliza para variables cuantitativas discretas. En el


eje de abscisas se colocan los distintos valores de la variable y en el eje de las ordenadas las
frecuencias. Sobre cada valor de la variable se traza una línea o barra perpendicular cuya altura debe
ser igual a la frecuencia.
e) Histograma: Se utiliza para variables cuantitativas continuas con datos agrupados en intervalos. En
el eje de las abscisas se colocan los límites exactos de los intervalos, y en el eje de las ordenadas las
frecuencias. Sobre cada intervalo se levanta un rectángulo cuya altura sea igual a la frecuencia
correspondiente.

f) Polígono de frecuencias: Para variables discretas, el polígono de frecuencias es la figura que resulta
de unir los extremos superiores de las que hubieran sido las barras si se hubiera hecho una gráfica
como la del diagrama de barras. Si se trata de una variable continua, podemos decir lo mismo pero
referido a los puntos medios de las bases superiores de los rectángulos correspondientes a un
hipotético histograma construido con esos mismos datos.

g) Diagrama de barras acumulativo: Se utiliza en variables discretas. En el eje de abscisas se colocan


los valores de la variable, y en el de ordenadas las frecuencias acumuladas, ya sean absolutas o
relativas. Sobre cada valor se traza una perpendicular cuya longitud sea igual a la frecuencia
acumulada. Desde el extremo superior de cada una de estas barras se traza una línea horizontal que
se une con la barra situada a su derecha.

f) Polígono de frecuencias acumuladas: Se utiliza en variables continuas. El eje de abscisas se


construye igual que en los histogramas, pero en el de las ordenadas se incluyen las frecuencias
acumuladas, ya sean absolutas o relativas. Sobre cada límite se levanta una perpendicular cuya
longitud sea idéntica a la frecuencia acumulada y se unen los extremos superiores de dichas
perpendiculares. Con frecuencia en este tipo de gráficos se utilizan para el eje de ordenadas los
porcentajes.

2.3.2. Convenciones sobre las representaciones gráficas


> En el eje de abscisas colocamos los valores de la variable, y en el de ordenadas las frecuencias
(absolutas o relativas, simples o acumuladas).
> Las puntuaciones más bajas estarán a la izquierda, y las más altas a la derecha; en el de ordenadas
los valores pequeños estarán abajo y los más altos arriba.
> Si el valor mínimo del eje de abscisas fueran excesivamente grande, se debe cortar la línea.
> Conviene incluir en cada gráfico toda la información posible para evitar ambigüedades y facilitar su
interpretación por otras personas o por nosotros mismos al cabo del tiempo.
> Cuando en un mismo gráfico se representan dos o más grupos simultáneamente, y éstos son de
tamaño considerablemente distintos, se deben utilizar frecuencias relativas.

2.3.3. Tendenciosidad en las representaciones gráficas


Las representaciones gráficas pueden utilizarse de manera tendenciosa para inducir impresiones
engañosas e interesadas. Un primer método consiste en recortar el eje de ordenada (y por tanto las
barras, los histogramas o la figura que se ha ya utilizado), eliminando los menores valores de
frecuencias con la excusa de que no hay ninguna observación que las adopte. Eso tiene como
consecuencia que pequeñas diferencias parezcan mayores. Un segundo tipo de distorsión se
produce cuando se utilizan figuras representativas en aquello que se está midiendo.
2.3.4. Cuatro propiedades de la distribución de frecuencias
>Tendencia central
>Variabilidad
>Asimetría o sesgo
>Curtosis -Leptocúrtica
-Platicúrtica
-Mesocúrtica

2.4. Diagrama de tallo y hojas


Es otro medio para resumir y exponer conjuntos de datos.
Su obtención requiere separar cada puntuación en dos partes: el primer o primeros dígitos, que
reciben el nombre de tallo, y el dígito o dígitos restantes, que reciben el nombre de hojas, por
ejemplo, X = 56 se puede separar en 5 (tallo) y 6 (hoja).
Se identifican los valores máximo y mínimo observados, se toma una decisión acerca del número
más apropiado de tallos distintos, se listan todos los tallos distintos en una columna, ordenados de
forma creciente de arriba hacia abajo, se escribe cada hoja junto al tallo que le corresponda,
preferiblemente ordenados según su valor.
Permite identificar cada puntuación individual. Ofrece simultáneamente tanto un listado de las
puntuaciones como un dibujo de la distribución. Al contener los valores de cada observación, más
fácil de modificar para obtener un dibujo con un nivel de detalle distinto, mayor o menor, de la
distribución. Pueden representarse dos conjuntos de datos simultáneamente en el mismo diagrama,
con lo que se facilita la comparación.

Botella Capítulo 3. Medidas de posición.

3.1. INTRODUCCIÓN

Para hacer valoraciones relativas a, por ejemplo, puntajes se pueden utilizar las llamadas medidas de
posición, que son índices diseñados especialmente para revelar la situación de una puntuación con
respecto a un grupo, utilizando a éste como un marco de referencia.

3.2. CENTILES O PERCENTILES

Son 99 valores de la variable que dividen a la distribución en 100 secciones, cada una conteniendo a
la centésima parte de las observaciones. Representación: Ck (k: 1,2,3,...,99)
Con C28 se simboliza a aquella puntuación que deja por debajo de sí al 28 por 100 de las obs. y que es
superada por el 72 por 100. Si disponemos de esos 99 valores podremos hacer valoraciones relativas a
las puntuaciones individuales. Por ejemplo, si un individuo obtiene una puntuación 35 y sabemos que
C90: 35, quiere decir que la puntuación de ese sujeto coincide con la del centil 90 y por tanto, supera a
las 90 por 100 de las obs. del grupo de referencia, mientras que es superada por el 10 por 100. <<El
valor al que no llega el n por 100 de un grupo grande de mediciones, y es superado por el otro 100-n,
se dice que es su n percentil>> (Galton, 1885)
Dado que los valores correspondientes a los centiles se determinan en función de los porcentajes de
observaciones, normalmente las distancias entre ellos, en términos de puntuación, no serán
constantes. Generalmente las distancias entre los centiles intermedios serán menores que las
distancias entre centiles extremos. Normalmente los centiles se obtienen sobre datos agrupados en
intervalos, y en su cálculo se asume el supuesto de distribución homogénea intraintervalo.
Fórmula: Ck: Li + I/n1 . (k . n/100 - na)
Ck es la puntuación correspondiente al centil k. - Li es el límite exacto inferior al intervalo crítico.
I es la amplitud de los intervalos. - ni es la frecuencia absoluta del intervalo crítico.
k es el porcentaje de observaciones inferiores a Ck. - n es el número de observaciones hechas.
na es la frecuencia absoluta acumulada hasta Li.

3.3. OTROS CUANTILES

Se utilizan otras particiones de las distribuciones distintas a los centiles.

3.3.1. DECILES
Son nueve puntuaciones que dividen a la distribución en 10 partes. Cada una conteniendo al 10 por
100 de las observaciones. Representación: Dk (k: 1, 2,..., 9) Ejemplo: D 4 es la puntuación que deja por
debajo de sí al 40 por 100 de las observaciones y por encima de sí al 60 por 100. Equivalencia: C 10: D1
C20: D2... Misma fórmula se calcula en centiles.

3.3.2. CUARTILES

Son tres puntuaciones que dividen a la distribución en cuatro partes, cada una conteniendo al 25 por
100 de las observaciones. Representación: Qk (k: 1,...3) Ejemplo: Q1 es la puntuación que deja por
debajo de sí al 25 por 100 de las observaciones y por encima de sí al 75 por 100.

Botella Capítulo 4. Medidas de tendencia central.

4.1. INTRODUCCIÓN

Para informar de un conjunto de valores suelen obtenerse algunos índices, que actúan como
resúmenes numéricos de las observaciones hechas. REPRESENTAN LA MAGNITUD GENERAL
OBSERVADA. También sirven para comparar conjuntos de valores.
Dado que no se pueden comparar distribuciones completas, lo que se comparan son ciertas
características resumen de éstas.
Índices más utilizados para describir esa característica de las distribuciones de frecuencias. Son
valores únicos que capten y comuniquen mejor la distribución como un todo.

4.2. LA MEDIA ARITMÉTICA


(El cálculo tiene sentido desde el nivel intervalar)

Es el índice de tendencia central más utilizado. Se define como la suma de los valores observados,
dividida por el número de ellas. Se representa con la misma letra que representa la variable, en
mayúsculas, con una barra horizontal encima. Por tanto si recogemos n observaciones de la variable
X, entonces la media de los valores observados es: (c/raya) ✖: 𝚺X1/n donde se deduce que 𝚺 X1: n.✖
Con 10 observaciones, la suma de los 10 valores observados es igual a 63, su media sería:
✖: 63/10: 6,3
Una interpretación geométrica de esto dice que la media se comporta como si fuera el centro de
gravedad de la distribución.
4.2.1. CÁLCULO EN UNA DISTRIBUCIÓN DE FRECUENCIAS
Para hacer los cálculos se asume el supuesto de concentración en el punto medio del intervalo.
✖: (𝚺n1.X1)/n Se diferencia de la otra fórmula en que: el sumatorio no tiene n sumandos, sino tantos
como intervalos tenga la distribución. Y las X1 no son datos directos, sino los puntos medios de los
intervalos. Si se trata de una distribución de frecuencias pero los datos no están agrupados en
intervalos, la segunda diferencia no se aplicaría.

4.2.2. PROPIEDADES DE LA MEDIA ARITMÉTICA

Primera propiedad: la suma de las diferencias de n puntuaciones con respecto a su media o


puntuaciones diferenciales, es igual a cero: 𝚺 X1: 0. La razón por la que la suma de diferenciales es
igual a cero es que unas son positivas y otras negativas (las que superan la media y las que quedan
por debajo de ella) y se compensan unas con otras. Esto no pasaría si tomáramos esas diferencias en
valor absoluto o las elevamos al cuadrado.
Segunda propiedad: la suma de los cuadrados de las desviaciones de unas puntuaciones con
respecto a su media es menor que con respecto a cualquier otro valor.
Tercera propiedad: Si sumamos una constante a un conjunto de puntuaciones, la media aritmética
quedará aumentada en esa misma constante.
Cuarta propiedad: Si multiplicamos por una constante a un conjunto de puntuaciones, la media
aritmética quedará multiplicada por esa misma constante.
Quinta propiedad: (media ponderada) La media total de un grupo de puntuaciones, cuando se
conocen los tamaños y medias de varios subgrupos hechos a partir del grupo total, mutuamente
exclusivos y exhaustivos, puede obtenerse ponderando las medias parciales a partir de los tamaños
de los subgrupos en que han sido calculados.
Sexta propiedad: Una variable definida como la combinación lineal de otras variables tiene como
media la misma combinación lineal de las medias de las variables intervinientes en su definición.

4.3. LA MEDIANA

Toma aquella puntuación que es superada por la mitad de las observaciones, pero no por la otra
mitad. Representación: Mdn. Su cálculo tiene sentido desde el nivel ordinal. Es el valor que supera y es
superado como máximo, por la mitad de las observaciones. Para su cálculo podemos encontrarnos
en dos casos generales, aquel en que nos encontramos con un número impar de observaciones y
aquel en que nos encontramos con un número par de ellas. En el primero se toma como mediana el
valor central; en el segundo se da la circunstancia de que cualquier valor comprendido entre los dos
centrales cumple con la definición de la mediana. Cálculo de centiles: la mediana corresponde al C 50 ,
al D5 y al Q2 por lo tanto, la mediana como el C50 si es continua. Si es discreta se acumulan las
frecuencias porcentuales en ambos sentidos.

4.4. LA MODA

Puede usarse en todos los niveles de medición. Es el valor más frecuentemente observado. El valor de
la variable con mayor frecuencia absoluta. Representación: Mo.
>Como norma, para obtener la moda ordenamos los valores de menor a mayor para así facilitar la
identificación del de mayor frecuencia. El caso más directo y sencillo, elegir el valor que más veces se
repite. Cuando todos los valores tienen la misma frecuencia, es un caso donde la moda no se puede
calcular; se dice que es una distribución amodal. Cuando hay dos valores con la misma y máxima
frecuencia, se dice que la distribución tiene dos modas, o que es una distribución bimodal. Cuando
hay dos valores que comparten la misma máxima frecuencia, pero los valores son adyacentes, se
toma como moda la media aritmética de eso dos valores. Cuando los valores están agrupados en una
distribución de frecuencias, se toma como moda el punto medio del intervalo con mayor frecuencia.

4.5. COMPARACIÓN ENTRE MEDIDAS DE TENDENCIA CENTRAL

Si no hay ningún argumento de peso en contra, se preferirá siempre la media. La media es el mejor
estimador de su parámetro que la mediana y la moda. En términos generales, las medias halladas
sobre muestras representativas se parecen más a la media poblacional que lo que se parecen las
medianas y modas muestrales a la mediana y la moda poblacional.
Tres situaciones en las que se prefiere la mediana a la media: a) cuando la variable esté medida en
una escala ordinal, b) cuando haya valores extremos que distorsionen la interpretación de la media.
Ej: punt: 33, 4, 8, 5, 6, 124, la media de esos valores es 25, pero no está claro que este valor sea una
buena representación de su tendencia central, puesto que se ve muy influida por un valor extremo: el
124. c) cuando haya intervalos abiertos. Este tercer y último caso se refiere a situaciones en las que el
intervalo superior carece de límite superior <<300.001 o más>>, el intervalo inferior carece de límite
inferior, o ambas cosas a la vez /tiene muchos intervalos/. En casos así no se puede hayar la media,
porque el intervalo abierto carece de punto medio. La mediana será la segunda candidata para
representar la tendencia central y, por tanto, si no hay argumentos de peso en contra, se preferirá la
mediana a la moda. (cuando no esté incluida en un intervalo abierto).
Moda sobre mediana: a) cuando se trate de una variable medida en una escala nominal (se usa sólo
moda), b) cuando haya intervalos abiertos y la mediana pertenezca a uno de ellos. La fórmula de los
centiles supone una distribución homogénea intraintervalo. Esto puede hacerse sólo si el intervalo
está cerrado. Cuando no se da esta circunstancia, no queda otro remedio que utilizar la moda).

En algunos casos los tres índices de ‘tendencia central dan valores parecidos, o incluso pueden
coincidir exactamente, pero no necesariamente ha de ser así. Por ejemplo, en distribuciones
unimodales simétricas coinciden exactamente, cuando más asimétricas las distribuciones, más
diferencias suelen haber entre ellos. Por eso, cuando hay valores extremos es preferible la mediana a
la media, dado que lo valores extremos tienen efectos de asimetrización.

Botella Capítulo 5. Medidas de variación.

5.1. INTRODUCCIÓN

Los conjuntos de datos no deben describirse sólo mediante medidas de tendencia central, puesto
dos conjuntos de puntuaciones pueden tener la misma media y ser, sin embargo, muy distintos. Para
conseguir una visión completa y comprensiva de los datos hay que complementar las medidas de
tendencia central con las otras propiedades de los mismos. Una de las propiedades más importantes
de los conjuntos de datos es el grado en que éstos se parecen o se diferencian entre sí. Esta
propiedad se denomina variabilidad, dispersión u homogeneidad, y es diferente a la tendencia
central.
La tendencia central y la variabilidad son propiedades diferentes, puede haber grupos de datos con
la misma tendencia central, diferente variabilidad, y viceversa.
Hay una dimensión de los datos diferente a la simple media, que merece la pena tener en cuenta a la
hora de informar de un conjunto de datos.
La comparación de la variabilidad no debe hacerse mediante apreciaciones subjetivas del grado de
dispersión, sino que, como en el caso de la tendencia central, hay procedimientos para cuantificar
esta propiedad. Se trata de medir el grado de variación que hay en un conjunto de datos.
5.2. MEDIDAS DE VARIACIÓN
Los dos procedimientos más importantes para cuantificar la variabilidad son la varianza y la
desviación típica.

5.2.1. VARIANZA Y DESVIACIÓN TÍPICA


(Teóricas, contenidos de las clases. Atorresi - Galibert)
La varianza es el promedio del cuadrado de las distancias de los valores de la media.
La varianza permite comparar la variabilidad de dos o más conjuntos de valores en una misma
variable, si las medias son “similares”. Llegando a conclusiones como la siguiente: <<La población de
hombres presenta una mayor variabilidad en su estatura que la población de mujeres, que son más
homogéneas en esa característica.
Carece de sentido comparar la varianza de variables distintas. Tampoco es razonable comparar las
varianzas cuando las medias son “muy diferentes”. Por ejemplo al estudiar la variabilidad del peso de
un conjunto de bebés y otro de adultos. Como las medias son muy distintas las varianzas respectivas
contienen este efecto y por lo tanto se tornan incomparables.
(Botella)
Una idea que se ha demostrado útil a la hora de cuantificar la variabilidad es la de trabajar con las
distancias desde los valores hasta algún poste central, que podría ser la media aritmética, y basar la
medición de la dispersión en algún tipo de <<separación promedio>> hasta ese poste. Calculando
esas distancias; para ello obtenemos las diferencias entre cada puntuación y su media (recuerde el
lector que a estas diferencias las habíamos denominado puntuaciones diferenciales).
...una solución al problema de que las distancias con respecto a la media sumen cero consiste en
elevar al cuadrado esas distancias antes de hallar su promedio, dado que los cuadrados son siempre
positivos. El índice basado en ésta idea se llama varianza.
La fórmula se reduce por tanto, al cálculo del promedio de las desviaciones cuadráticas con respecto
a la media. Dado que en el numerador lo que aparecen son puntuaciones diferenciales, esta fórmula
podría también reescribirse como el promedio de éstas elevadas al cuadrado.
Entre la media y la varianza pueden haber grandes discrepancias ya que las distancias no se han
tratado como tales, sino que para evitar el problema de que las diferencias sumen cero se han
elevado éstas al cuadrado. Por ello es frecuente con objeto de retomar las unidades originales de esas
distancias, se calcule la raíz cuadrada de la cantidad obtenida. Al índice así hallado se llama
desviación típica y se define como la raíz cuadrada de la varianza.
La desviación típica es un mejor descriptor de la variabilidad, aunque la varianza tenga algunas
notables propiedades matemáticas que la hacen idónea para basar en ella los análisis estadísticos
complejos. <<Por tanto, al analizar las causas de la variabilidad es deseable tratar con el cuadrado de
la desviación típica como medida de variabilidad. Llamaremos varianza a esta cantidad (Fisher, 1918,
pág. 399).
Las variaciones entre los datos están reflejando variaciones en las características que están
estudiando, y que en psicología suelen ser indicadores indicadores de variables psicológicas o
mediciones de comportamiento. La variabilidad de los datos está reflejando el hecho incuestionable
de las diferencias individuales, y éstas son uno de los objetos de estudio primordiales de la psicología.
De hecho, uno de los objetos de estudio de la psicología es precisamente la explicación sistemática
de esas diferencias, en tanto en cuanto presentan regularidades asociadas a segundas o terceras
variables.
*En muchos libros se define la varianza de una forma ligeramente distinta, dividiendo por n - 1 en
lugar de dividir por n. Es la cuasivarianza.
Ya que en algunos casos la media no es el índice más apropiado para representar la tendencia
central, cualquiera sea el caso, tampoco deberían utilizarse índices que se basen en la media, como la
varianza y la desviación típica.
5.2.2. CÁLCULO Y PROPIEDADES DE LA VARIANZA

Hay métodos alternativos para calcular la varianza. -


Hay que destacar que un conjunto de valores puede mostrar un mayor o menor grado de
homogeneidad, pero el grado más pequeño posible de homogeneidad se produce cuando todos los
valores son idénticos. En ese caso las desviaciones de los valores con respecto a su media son todas
cero, y en consecuencia también es igual a cero la media de sus cuadrados; por tanto, ese es el
mínimo valor que puede adoptar la varianza. Igualmente, como desviación típica se toma la raíz
positiva de la varianza. Podemos describir esta característica de la siguiente forma:
Primer propiedad: La varianza y la desviación típica, como medidas de la dispersión, son valores
esencialmente positivos.
Segunda propiedad: Si sumamos una constante a un conjunto de puntuaciones, su varianza no se
altera.
Tercera propiedad: Si multiplicamos por una constante a un conjunto de puntuaciones, la varianza
quedará multiplicada por el cuadrado de la constante, y la desviación típica por el valor absoluto de
esa constante.
Cuarta propiedad: La varianza total de un grupo de puntuaciones, cuando se conocen los tamaños,
las medias y las varianzas de varios subgrupos hechos a partir del grupo total, mutuamente
exclusivos y exhaustivos, puede obtenerse sumando la media (ponderada) de las varianzas y la
varianza (ponderada) de las medias.

5.2.3. OTRAS MEDIDAS DE VARIACIÓN


AMPLITUD TOTAL, RANGO O RECORRIDO: Una forma muy sencilla de indicar el grado de dispersión
consiste en calcular la distancia entre el mayor y el menor de los valores observados. Se utiliza rango
excluyente. Junto a la gran ventaja de su sencillez de cálculo, la principal desventaja de este índice es
que es muy sensible a los valores extremos, y nada sensible a los intermedios, pudiendo carecer de
toda representatividad. Otro inconveniente de este índice es que está ligado al tamaño de la muestra
utilizada. Si se quiere comparar la variabilidad de las dispersiones de dos conjuntos de datos de
tamaño marcadamente distinto, es probable que la muestra de mayor tamaño presente una mayor
amplitud aunque las poblaciones de referencia tengan la misma varianza. Estas dos dificultades
hacen que este índice no sea muy recomendable como medida única de variabilidad, aunque sí que
resulta recomendable incluirlo como complemento de la varianza o la desviación típica.
DESVIACIÓN MEDIA: Consiste en tomar las desviaciones con respecto a la media, o puntuaciones
diferenciales, en valor absoluto. Representa un promedio de distancias tomadas en valor absoluto y,
por tanto, representa bien el concepto de dispersión y sus cuantificación, aunque no es muy utilizado
en psicología debido a la dificultad que supone el trabajo con valores absolutos, y que hace que no
haya muchas técnicas de análisis estadístico basadas en ella.
AMPLITUD SEMI-INTERCUARTIL: Cuando en las puntuaciones hay algún valor extremo que pudiera
distorsionar la representatividad de la varianza se puede utilizar otro índice, propuesto por Galton, y
basado sólo en las puntuaciones correspondientes a los cuartiles primero y tercero. Las puntuaciones
extremas no lo afectan. Este índice tiene tradición en la psicología, sobre todo cuando por las
características de los datos resulta recomendable utilizar como índice de tendencia central la
mediana en lugar de la media, y en especial para la selección de ítems en escalas de actitudes.
COEFICIENTE DE VARIACIÓN: Para comparar la variabilidad de grupos cuya media es claramente
distinta. Pearson propuso relativizar la desviación típica con respecto a la media. Se expresa como un
porcentaje. Este coeficiente puede también considerarse como un índice de la representatividad de
la media. Cuanto mayor es el coeficiente de variación, menos es representativa es la media. Un
ejemplo de este tipo de situaciones sería aquella en la que queremos comparar el grado de
variabilidad en los tiempos empleados por dos grupos de varones y mujeres en correr los cien metro
lisos. Los hombres son, en promedio, más rápidos que las mujeres, y una mayor media muchas veces
va acompañada de una mayor varianza. En este caso podrían compararse los coeficientes de
variación, y no varianzas.

Botella capítulo 6. Puntuaciones típicas y escalas derivadas.

6.2. PUNTUACIONES TÍPICAS (puntaje z.)

PUNTUACIÓN DIFERENCIAL: La distancia, o diferencia, entre esa puntuación y la media del grupo de
puntuaciones.

Puede suceder que al comparar puntuaciones pertenecientes a diferentes sujetos/grupos o variables


que tienen la misma puntuación diferencial sus valores representen cosas bien distintas. Ejemplo:
dos sujetos pertenecientes a diferentes grupos tienen una puntuación de 48, una media de 38 y una
puntuación diferencial de 10. Sin embargo, esta igualdad en las puntuaciones diferenciales puede
estar ocultando realidades muy diferentes. Las puntuaciones de un grupo podrían ser más
homogéneas o más extremas y esto se debería a tener desviaciones típica muy diversas. El desvío
típico es 5 y 10.
Una solución a este problema de interpretación consiste en no medir las diferencias en términos
absolutos, sino con relación a la variabilidad del grupo de referencia. Se trataría de indicar cómo de
grande es una distancia en términos de las distancias observadas en general en esas puntuaciones.
Esa distancia se mide con la desviación típica y por lo tanto la podemos utilizar como unidad de
medida. Las puntuaciones así conseguidas se llaman puntuaciones típicas.
El proceso de obtención de las puntuaciones típicas se llama tipificación. Así tipificando
encontramos que las puntuaciones típicas de los sujetos son 2 y 1. La diferencia entre ambos queda
así reflejada en esos valores, mientras que en las puntuaciones diferenciales no se había reflejado. Los
sujetos están a 2 y 1 desviaciones típicas de la media.

LA PUNTUACIÓN TÍPICA DE UNA OBSERVACIÓN INDICA EL NÚMERO DE DESVIACIONES TÍPICAS


QUE ESA OBSERVACIÓN SE SEPARA DE LA MEDIA DEL GRUPO DE OBSERVACIONES.

Las puntuaciones típicas permiten, por tanto, hacer comparaciones entre unidades de distintos
grupos, entre variables medidas de distintas formas, o incluso entre variables diferentes. En cualquier
caso, las puntuaciones típicas siempre nos indicarán el número de desviaciones típicas (las de ese
grupo y variable) que se separan de la media (de ese grupo y variable), y si esa desviación es por
encima o por debajo de la media (según el signo de la puntuación típica). Esta simplificación es de
suma utilidad, y se traduce en que las puntuaciones típicas tienen una característica de tendencia
central y variabilidad constantes tal como vamos a ver a continuación al deducir su media y varianza.
Aplicando las propiedades de la media y la varianza referidas a la suma y producto de constantes,
vemos que:

LA MEDIA DE LAS PUNTUACIONES TÍPICAS ES CERO, MIENTRAS QUE SU VARIANZA Y DESVIACIÓN


TÍPICA SON IGUALES A UNO.

Las puntuaciones típicas reflejan, en cierto sentido, las relaciones esenciales entre las puntuaciones,
con independencia de la unidad de medida que se haya utilizado en la medición. Cuando en dos
conjuntos de puntuaciones, emparejadas con algún criterio, a los elementos de cada par les
corresponde la misma puntuación típica dentro de su conjunto, puede decirse que mantienen la
misma estructura interna, y se dice entonces que son puntuaciones equivalentes.

6.3. ESCALAS DERIVADAS (T)

Las puntuaciones típicas tienen algunos inconvenientes. En concreto, dado que su media es cero y
su desviación típica un, buena parte de las puntuaciones suelen ser negativas, y casi todas decimales.
Esto hace que resulte incómodo su tratamiento y que muchas veces se busquen procedimientos que
permitan superar esta dificultad. Un procedimiento consiste en transformar las puntuaciones típicas
en otras que retengan todas las relaciones que manifiestan las puntuaciones originales, por tanto que
sean puntuaciones equivalentes, pero evitando la dificultad operativa, y que constituyen lo que se
denomina una escala derivada.

Si transformamos linealmente las puntuaciones típicas, multiplicándolas por una constante “a”, y
sumando una constante “b”, entonces las puntuaciones transformadas tendrán como media la
constante sumada “b”, como desviación típica el valor absoluto de la constante multiplicada, |a|, y
como varianza el cuadrado de esta constante “a” al cuadrado.

La construcción de una escala derivada parte de unas puntuaciones directas, éstas se tipifican, y
después se transforman linealmente en otras puntuaciones.

La cuestión fundamental de las escalas derivadas consiste en transformar las puntuaciones


originales, Xi, en otras puntuaciones transformadas, Ti, tales que sean más cómodos de tratar e
interpretar, pero que a la vez retengan las relaciones esenciales entre los valores, es decir, que sean
puntuaciones equivalentes.

*Las puntuaciones T tienen media 50 y desviación típica 10, y constituyen la transformación general
más conocida. Otras también bastante conocidas son las puntuaciones S, o de estaninos, que tienen
media 5 y desviación típica 2, y las que desarrolló el ejército norteamericano para sus pruebas de
clasificación, que tienen media 100 y desviación típica 20. Sin embargo, la transformación más
conocida es la del cociente intelectual o CI, que se refiere a la medición de la inteligencia, y que tiene
media 100 y desviación típica 15. El término cociente intelectual no tiene que ver con lo que se mide,
pero se ha mantenido por tradición histórica. Concretamente, Stern (1912) propuso obtener la razón
entre la edad mental y la edad cronológica, multiplicando luego por 100.

Botella Capítulo 7. Índices de asimetría y curtosis.

7.1. INTRODUCCIÓN
Además de la tendencia central y la variabilidad hay otras dos características con las que se pueden
describir y comparar las distribuciones de frecuencias.
7.2. ÍNDICES DE ASIMETRÍA
El grado de asimetría de una distribución hace referencia al grado en que los datos se reparten
equilibradamente por encima y por debajo de la tendencia central. Ejemplo: (En psicología) Los tests
de inteligencia suelen presentar distribuciones bastantes simétricas cuando se administran a
muestras relativamente grandes; una variable que se utiliza mucho en el estudio de los procesos
superiores es el tiempo de reacción, cuya distribución suele tener asimetría positiva, en tareas
perceptivas de dificultad baja en las que se cuentan el número de <<blancos>> detectados suele
darse como <<efecto techo>>, puesto que hay muchos sujetos que detectan todos los <<blancos>> y,
por tanto, la distribución suele mostrar asimetría negativa.
TRES ÍNDICES:
El primero de ellos se basa en la relación entre la media y la moda, y se define como la distancia entre
la media y la moda, medida en desviaciones típicas.
ASIMETRÍA NEGATIVA: La media es inferior a la moda, y por tanto el índice dará un valor negativo. El
índice da valores menores que cero.
ASIMETRÍA POSITIVA: La media es superior a la moda, y por tanto el índice dará un valor positivo. El
índice da valores mayores que cero.
SIMETRÍA: Coinciden los dos índices de tendencia central, y por tanto el índice de asimetría dará cero.
Se dice que son distribuciones simétricas, puesto que no están inclinadas hacia ningún lado; este
índice da en ellas valores en torno a cero, y si la simetría es perfecta entonces da exactamente cero.
Este índice tiene la dificultad de que sólo se puede calcular en distribuciones unimodales.
Un segundo índice es llamado índice de asimetría de Pearson; es igual al promedio de las
puntuaciones típicas elevadas al cubo. (igual a asimetría negativa, positiva y simetría). Es el índice
más utilizado.
El tercer, índice de asimetría intercuartílico se basa, como su nombre lo indica, en los cuartiles. Posee
igual valoración, asimetría negativa, positiva, y simétrica. Tiene una ventaja sobre los otros índices, y
es que tiene un valor mínimo y un valor máximo (+1 y -1), con lo que facilita su interpretación en
términos relativos.
------------
7.3. ÍNDICE DE CURTOSIS
Se estudia el que se basa en el promedio de las típicas elevadas a la cuarta potencia.
Al restar un tres al índice lo que se consigue es utilizar ese modelo como patrón de comparación. Una
distribución en la que el índice sea igual a cero tiene un grado de curtosis similar al de una
distribución normal y siguiendo la terminología propuesta por Pearson, se dice que es mesocúrtica,
mientras que si es positivo su grado de apuntalamiento es mayor que el de la distribución normal y
se dice que es una distribución leptocúrtica, negativo su apuntalamiento es menor que el de la
distribución normal y se dice platicúrtica.
---------------
Botella capítulo 8. Correlación lineal.
<procedimientos objetivos capaces de distinguir entre los tres tipos de relación lineal)

8.3. CUANTIFICACIÓN DE UNA RELACIÓN LINEAL


...Este problema de la valoración de la covarianza se solucionaría si el índice tuviera unos valores
máximo y mínimo que sirvieran de diferencia. La solución a este problema consistirá en utilizar unas
puntuaciones cuyas varianzas no cambien al modificar las unidades de medida, sino que sean
siempre iguales. Estas puntuaciones van a ser, naturalmente, las puntuaciones típicas, cuya varianza
es siempre 1. Un segundo índice de la asociación lineal consistirá en hallar también un promedio de
productos cruzados, pero no de puntuaciones diferenciales, sino de puntuaciones típicas. Este índice
fue desarrollado y propuesto por Francis Galton y Karl Pearson, aunque fue este último el que le dio
su fórmula definitiva por lo que se lo conoce como coeficiente de correlación de Pearson, y se lo
representa con r.
La correlación no es más que una covarianza hallada sobre puntuaciones tipificadas, por eso se dice
que la correlación es una covarianza estandarizada o que es una covarianza adimensional.
8.3.1. PROPIEDADES DEL COEFICIENTE DE CORRELACIÓN DE PEARSON
Primera propiedad: el coeficiente de correlación es un valor comprendido entre -1 y 1. (no puede valer
más de +1 ni menos de -1) (rango)
Segunda propiedad: si hacemos transformaciones lineales de una o dos variables, en las constantes
multiplicadoras son positivas, la correlación de Pearson no se altera.
8.3.2. VALORACIÓN E INTERPRETACIÓN DE UNA CORRELACIÓN
En la interpretación de una correlación de Pearson hay que separar dos aspectos distintos: su cuantía
y su sentido. La cuantía se refiere al grado en que la relación entre dos variables queda bien descrita
con un índice de asociación lineal como r, mientras que el sentido se refiere al tipo de relación. Una
correlación en torno a cero indica una relación lineal baja o nula; una correlación positiva indica una
relación lineal directa, mientras que una correlación negativa indica una relación lineal inversa.
Podemos imaginarnos a los coeficientes de correlación situados en un eje imaginario. Cuanto más
cercano quede un coeficiente del valor cero, menos apto es el modelo lineal como descripción de la
relación entre las variables. Por el contrario, cuanto más se acerque a los extremos, mejor describe
esa relación.
Hay otros factores que alteran las expectativas sobre el valor de r, como son la variabilidad, la
mediación de terceras variables, etc.
Los coeficientes deben valorarse comparando unos con otros o comparándolos con los valores que
típicamente se suelen encontrar en el campo de estudio específico del que se trate.
Además, hay que tener otras precauciones a la hora de interpretar coeficientes de correlación. La
obtención de una correlación igual (o cercana) a cero puede llevar pensar que no hay relación entre
las variables sin ser cierto. La correlación de Pearson mide el grado de adecuación de unos datos a un
modelo lineal, pero entre las variables puede existir otro tipo de relación.
No conviene analizar la relación entre dos variables exclusivamente mediante el cálculo del
coeficiente de correlación, sino que conviene representar gráficamente el diagrama de dispersión
para observar esa relación. Otros ejemplos de situaciones engañosas son los de las variables con
rango restringido o los de la mezcla de grupos no homogéneos. Los primeros se refieren a aquellos
casos en los que los valores X recopilados no son representativos de los valores posibles. Otro peligro
que corren los recién llegados a la estadística es el interpretar los coeficientes de correlación en
términos de relaciones causales entre ellas.

Botella capítulo 13. Modelos de distribución de probabilidad.

13.2.2. DISTRIBUCIÓN BINOMIAL


La distribución binomial es una de las que se conocen desde más antiguo, pues fue extensamente
estudiada por Jacob Bernouilli, y de hecho en muchos textos se dice que es la distribución del
número de aciertos en una serie de ensayos de Bernouilli.
Para que la distribución de probabilidad de una variable se ajuste al modelo binomial deben
cumplirse una serie de requisitos. El primero es que se base en una variable dicotómica. Una variable
dicotómica es una variable que sólo admite dos valores, y que habitualmente son los valores 1 y 0. Las
variables que están en la base de una variable binomial pueden definirse como aquellas que adoptan
la regla de asignar un 1 si se cumple una cierta condición y un 0 si no se cumple.
El segundo requisito es que haya una repetición de n ensayos de la variable dicotómica en los que la
probabilidad de que en cada repetición se verifique la condición, y por tanto se asigne un uno, sea
constante. Dicho de otra forma, la verificación de la condición en cada ensayo debe ser
independiente de la verificación en los anteriores.
El tercer y último requisito es que se defina una variable, X, como el <<número de casos que en la
secuencia de n ensayos dicotómicos verifican la condición especificada>>, o lo que es lo mismo, el
número de unos observados.
Entonces la variable X se ajusta a un modelo binomial con parámetros n y π.

De la forma de generar una variable aleatoria binomial se deducen algunas de sus características:
a) Los valores de una variable binomial oscilan entre 0 y n, donde n es el número de ensayos
dicotómicos realizados. Es decir, el número más pequeño posible de casos en los que se verifica la
condición es ninguno y el máximo es todos.
b) Si representamos el resultado de cada ensayo dicotómico con ceros y unos, el valor que adopta la
variable X no es más que la suma de esa secuencia de unos y ceros.
c) El valor esperado de una variable binomial se obtiene a partir de las propiedades de la suma de
variables aleatorias y de la definición de valor esperado. Dado que una binomial es la suma de una
secuencia de n valores, y cada uno de ellos puede considerarse una variable aleatoria dicotómica, su
valor esperado será igual a la suma de los valores esperados de cada una de ellas.

Para abreviar los cálculos en la obtención de la función de probabilidad se han construido tablas en
las que se han recogido las probabilidades asociadas a los valores de variables binomiales.

13.2.3. DISTRIBUCIÓN MULTINOMIAL


------------------------------------------------

13.3. MODELOS PARA VARIABLES CONTINUAS


Hay que hacer una mención especial a la curva normal, dado que, además de ser un instrumento
para la inferencia estadística, es el modelo al que se ajustan muchas variables de interés en
psicología.

13.3.1. DISTRIBUCIÓN RECTANGULAR


------------------------------------------------

13.3.2. DISTRIBUCIÓN NORMAL

Se trata de un fenómeno natural, puesto que es frecuente encontrar variables con distribuciones muy
semejantes a la de la normal.
El primero en llegar a su fórmula fue De Moivre, en un intento por dar solución práctica al cálculo de
las probabilidades acumuladas asociadas a la binomial cuando n es un número grande. También
recibe los nombres de distribución de Gauss o de Laplace-Gauss. Otros nombres hacen referencia a la
forma de su figura, com el de <campana> de Gauss.
Muchas variables de interés para los psicólogos, así como otras variables proceden de la biología o la
física, tienen distribuciones que se asemejan a la normal lo suficiente como para trabajar <como si>
fueran normales sin cometer grandes errores. La estatura, el peso, la agudeza visual, la fuerza, etc.,
son variables que se ajustan a este modelo. Ya dentro de la psicología, variables como el cociente
intelectual, la extraversión o el razonamiento espacial, son variables con distribuciones también
normales.
En la mayor parte de las variables existe un valor central (la media) en torno al cual se concentran la
mayor parte de los individuos, y a medida que nos vamos fijando en valores más alejados de la media
observamos que éstos son menos frecuentes. Esta reducción gradual en la frecuencia no es lineal,
sino que es mayor al principio y menor después (la curva pasa de convexa a cóncava al alejarse de la
media). Cuanto más se alejan los valores de la media, más difícil es encontrar individuos que adopten
estos valores.
La variable de los errores tuvo especial importancia en el estudio y desarrollo de la curva normal. El
estudio de los valores registrados en errores perceptivos cometidos por seres humanos para una
misma magnitud mostró que éstos adoptan una forma parecida a la de la curva normal.
Una variable aleatoria se distribuye según el modelo normal, con parámetros μ y σ.
La fórmula la descubrió De Moivre, pero el uso del nombre curva normal para designarla es posterior.
La desviación típica es 1 y el valor esperado es 0.
PROPIEDADES:
a) Es simétrica con respecto a un valor central (μ), y en ese valor central coinciden la media (o valor
esperado), la mediana (divide la curva en dos zonas de igual área a su izquierda y a se derecha) y la
moda (es el punto de la curva con máxima ordenada).
b) Es asintótica con respecto al eje de abscisas.
c) Hay toda una familia de curvas normales, dependiendo de los valores μ y σ. De entre ellas la más
importante es la que tiene media 0 y desviación típica 1, la distribución normal unitaria.
d) Los puntos de inflexión se encuentran en los puntos correspondientes a la media más/menos una
desviación típica.
e) Cualquier combinación lineal de variables aleatorias normales se ajusta también al modelo normal.

La mayor parte del trabajo práctico con variables aleatorias normales consiste en hallar
probabilidades asociadas a valores. Se han construido tablas apropiadas con áreas ya halladas y su
uso se basa en la aplicación de un teorema de gran interés aplicado, y que nosotros llamaremos
teorema de tipificación. Según este teorema, la función de distribución asociada a un valor de una
variable aleatoria, X, con distribución normal, es la misma función de distribución de la tipificada de
ese valor en la normal unitaria. Para obtener las áreas asociadas a un valor de cualquier otra
distribución normal basta con tipificar ese valor (las típicas son una transformación lineal con media 0
y desviación típica 1, y por tanto su distribución es la normal unitaria) y acudir con la z obtenida a la
tabla correspondiente.
La distribución normal se utiliza también para obtener por aproximación las probabilidades
asociadas a otros modelos, como el binomial.

WELKOWITZ
• RANGO PERCENTILAR
Una forma de suministrar la información adicional consiste en transformar la puntuación original
(puntuación directa) en una nueva puntuación que mostrar de forma inmediata la situación de un
individuo en comparación con los demás estudiantes de la clase: los percentiles.
El rango percentil de un valor dado es un número que expresa el tanto por ciento de casos en el
grupo específico de referencia, cuyo valor es igual o inferior al dado. Por ejemplo: a una puntuación
de 41 le corresponde un rango 85, significa que el 85% de la clase obtuvo una puntuación igual o
inferior a 41 puntos, mientras que sólo un 15% de la clase recibió puntuaciones más elevadas. Un
percentil es un valor no superado por un tanto por ciento dado de los casos registrados. Una
puntuación que nos colocase en el percentil 5° debería inquietarnos, pues significaría que el 95% de la
clase lo hizo mejor que nosotros y solo un 5% se comportó peor o igual. Así, el percentil muestra
directamente como un valor concreto se compara con los demás en un grupo específico.
No puede interpretarse correctamente un percentil si no se conoce perfectamente un grupo de
referencia en cuestión.
Un percentil compara un valor con un grupo específico de valores.
- PROCEDIMIENTO DE CÁLCULO: para encontrar el rango del percentil correspondiente a la
calificación de 41, solo hay que hacer lo siguiente:
1. Localizar el intervalo de clase al que pertenece dicha calificación (intervalo crítico)
2. Clasificar las frecuencias (f) en tres categorías: las correspondientes a todas las calificaciones
superiores al intervalo crítico, las correspondientes a todas las calificaciones del intervalo crítico y las
correspondientes a todas las calificaciones inferiores a dicho intervalo.
En orden a determinar exactamente nuestra situación en el intervalo crítico debemos cerciorarnos de
cuál es el límite inferior real del mismo. Una regla conveniente consiste en situar el límite inferior real
de un intervalo exactamente en el punto medio entre la calificación más baja de este intervalo y la
más alta inmediatamente inferior.
DISTRIBUCIÓN DE LA MEDIA MUESTRAL

La media y la varianza muestrales son estadísticos pues se calculan en función de las observaciones
muestrales. Por tal motivo tienen un carácter variable ya que cada muestra de valores de una variable
X arrojará un valor medio y varianza.
Hablar de valor “poco probable” para la media muestral, a varianza muestral o cualquier estadístico
implica que tiene sentido pensar en una cierta distribución de probabilidades para tales estadísticos.
Serán más probables medias muestrales próximas a la media poblacional y menos probables las más
distantes.
X es más variable que X ya que el promediar los valores muestrales tiene el efecto de “emparejarlos”.

TEOREMA CENTRAL DEL LÍMITE

Si X es una variable, μ la media de todos sus valores y s su varianza σ (sigma al cuadrado), la media X
de muestras de n observaciones tiene distribución aproximadamente normal con la misma media μ y
la n-ésima parte de la varianza.
La distribución de X será tanto más normal cuanto mayor sea el tamaño de la muestra.
uando el tamaño muestral es suficientemente grande la distribución de X es aproximadamente
normal (tanto más normal cuanto mayor el tamaño de la muestra) con media µ y varianza o2 /n.
Estandarizando X obtenemos el estadístico: X - µ/ o √n que sigue aproximadamente la distribución
normal estándar y se usa en inferencia estadística para probar hipótesis acerca de la media
poblacional. Si X es una variable, u la media de todos sus valores y s su varianza o2 , la media X de
muestras de n observaciones tiene distribución aproximadamente normal con la misma media u y la
n-ésima? Parte de la varianza. La distribución de X será tanto más normal cuanto mayor sea el
tamaño de la muestra.
------------------------------------------------

Pardo capítulo 3. Contraste de hipótesis.

INFERENCIA ESTADÍSTICA
El objetivo último del análisis de datos es el de extraer conclusiones de tipo general a partir de unos
pocos datos particulares. Es decir, el de extraer conclusiones sobre las propiedades de una población
a partir de la información contenida en una muestra precedente de esa población. Ese salto de lo
concreto (la muestra) a lo general (la población) se conoce con el nombre de inferencia estadística.
Dos formas básicas de inferencia estadística son la estimación de parámetros y el contraste de
hipótesis. Estimación de parámetros: el proceso consistente en asignar a las propiedades
desconocidas de una población las propiedades conocidas de una muestra extraída de esa población.
Contraste de hipótesis: proceso mediante el cual se trata de comprobar si una afirmación sobre
alguna propiedad poblacional puede ser sostenida a la luz de la información muestral disponible. Un
método de toma de decisiones: un contraste de hipótesis, también llamado prueba de significación o
prueba estadística, es un procedimiento que nos permite decidir si una proposición (hipótesis
científica) acerca de una población puede ser mantenida o debe ser rechazada.
CONTRASTE DE HIPÓTESIS

El proceso de verificación de hipótesis habitualmente utilizado en las ciencias empíricas sigue los
pasos del contraste de hipótesis.

3.1. LA LÓGICA DEL CONTRASTE DE HIPÓTESIS


El primer paso del proceso de verificación de una hipótesis consiste en formular estadísticamente la
hipótesis científica que se desea contrastar; es decir, en transformar la hipótesis científica en hipótesis
estadística. Esto supone que una hipótesis científica puede ser formulada en términos de la forma de
una o varias distribuciones poblacionales, o en términos del valor de uno o más parámetros de esa o
esas distribuciones.
Formulada la hipótesis estadística, el segundo paso del proceso de verificación consiste en buscar
evidencia capaz de informar sobre si la hipótesis establecida es o no sostenible. <una hipótesis será
compatible con los datos empíricos cuando a partir de ella sea posible deducir o predecir un
resultado muestral (un estadístico) con cierta precisión.
*Una discrepancia importante entre la información propuesta en nuestra hipótesis y el resultado
muestral encontrado puede estar indicando dos cosas diferentes: bien nuestra hipótesis es correcta y
la discrepancia observada es producto de fluctuaciones esperables por azar, bien nuestra hipótesis es
incorrecta y, por tanto, incapaz de proporcionarnos predicciones acertadas.
Necesitamos, y este es el tercer paso del proceso, una regla de decisión. Y esa regla de decisión debe
establecerse en términos de probabilidad. La necesidad de trabajar con muestras en lugar de con
poblaciones nos obliga a establecer una regla de decisión en términos de probabilidad. (porque si
pudiéramos trabajar con poblaciones no sería necesario recurrir a la probabilidad y al contraste de
hipótesis ya que conoceríamos todos los valores).
El número de reglas de decisión que podemos establecer en una situación es casi ilimitado. La teoría
de la decisión se ha encargado de proporcionarnos unos cuantos principios elementales que
podemos trasladar al contexto del contraste de hipótesis. En general, la regla decisión que
utilizaremos será una afirmación de este tipo: si el resultado muestral observado es, suponiendo
correcta nuestra hipótesis, muy poco probable, consideramos que nuestra hipótesis es incompatible
con los datos; por el contrario, si el resultado muestral observado es, suponiendo correcta nuestra
hipótesis, probable, consideraremos que nuestra hipótesis es compatible con los datos.
EJEMPLO: Imaginemos que deseamos averiguar si un psicólogo posee o no la capacidad de detectar,
por medio de la escritura, la presencia de trastornos de tipo neurótico. Podemos formular la hipótesis
de que <el psicólogo no posee tal capacidad>. Si nuestra hipótesis es correcta, al presentar al
psicólogo un par de muestras de escritura, una perteneciente a un sujeto con trastorno y otra
perteneciente a uno sin trastorno, cabe esperar que éste responda al azar (si nuestra hipótesis es
correcta), por lo que la probabilidad de que acierte será de 0,5. Por el contrario, si nuestra hipótesis es
incorrecta, la probabilidad de que acierte será mayor de 0,5 (mayor que la probabilidad de aceptar
por azar). Para someter a contraste esa hipótesis podemos presentar, en lugar de un par de muestras
de escritura, 10 pares. Si nuestra hipótesis es correcta, debemos encontrarnos con no más de cinco
aciertos (no más de los esperables por azar). Si nuestra hipótesis es incorrecta debemos encontrarnos
con un número de aciertos superior a 5 (más de los esperables por azar).

UN CONTRASTE DE HIPÓTESIS ES UN PROCESO DE DECISIÓN EN EL QUE UNA HIPÓTESIS


FORMULADA EN TÉRMINOS ESTADÍSTICOS ES PUESTA EN RELACIÓN CON LOS DATOS EMPÍRICOS
PARA DETERMINAR SI ES O NO COMPATIBLE CON ELLOS.

3.1.1. LAS HIPÓTESIS ESTADÍSTICAS


Una hipótesis estadística es una afirmación sobre una o más distribuciones de probabilidad: más
concretamente, sobre la forma de una o más distribuciones de probabilidad, o sobre el valor de uno o
más parámetros de esas distribuciones.
Las hipótesis estadísticas se suelen representar por la letra H seguida de una afirmación que da
contenido a la hipótesis:
Ejemplos: H: la variable X se distribuye normalmente con μ: 100 y σ:15
H: π= 0,5 ---- H: μ ≤ 30 ---- H: mdn1 = mdn2 ---- H: μ1= μ2= μ3= μ4 ----

Una hipótesis estadística surge a partir de una hipótesis científica. Pero entre una hipótesis científica
y una hipótesis estadística no existe una correspondencia exacta. La primera proporciona la base para
la formulación de la segunda, pero no son la misma cosa. Mientras una hipótesis científica se refiere al
algún aspecto de la realidad, una hipótesis estadística se refiere a algún aspecto de una distribución
de probabilidad. Existen varias formas diferentes de expresar estadísticamente una hipótesis
científica concreta.
/El primer paso en el proceso de verificación de una hipótesis consiste en formular en términos
estadísticos la afirmación contenida en la hipótesis científica que se desea verificar./

Todo contraste de hipótesis se basa en la formulación de dos hipótesis:


1. LA HIPÓTESIS NULA, REPRESENTADA POR Ho.
2. LA HIPÓTESIS ALTERNATIVA, REPRESENTADA POR H 1.

La hipótesis nula Ho es la hipótesis que se somete a contraste. Consiste generalmente en una


afirmación concreta sobre la forma de una distribución de probabilidad o sobre el valor de alguno de
los parámetros de esa distribución.
La hipótesis alternativa H1, es la negación de la nula. Incluye todo lo que Ho excluye. Mientras que Ho
suele ser una hipótesis exacta (tal cosa igual tal otra), H1 suele ser inexacta (tal cosa es distinta, mayor
o menor que tal otra).
Cuando en H1 aparece el signo ≠, decimos que el contraste es bilateral o bidireccional. Cuando en H 1
aparecen los signos <>, decimos que el contraste es unilateral o unidireccional.
Las hipótesis nula y alternativa suelen plantearse como hipótesis rivales. Son hipótesis exhaustivas y
mutuamente exclusivas, lo cual implica que si una es verdadera, la otra es necesariamente falsa.

3.1.2. SUPUESTOS
Los supuestos de un contraste de hipótesis hacen referencia al conjunto de condiciones que deben
cumplirse para poder tomar una decisión sobre la hipótesis nula Ho basada en una distribución de
probabilidades conocida. Esto significa que, para apoyar nuestra decisión en una distribución de
probabilidad conocida, necesitamos, por un lado, especificar por completo la distribución poblacional
a partir de la cual se establecen las predicciones formuladas en Ho (normalidad, simetría, etc) y, por
otro, definir las características de los datos con los que se contrastarán esas predicciones(datos
muestrales) (muestra aleatoria, nivel de medida, etc).
LOS SUPUESTOS DE UN CONTRASTE DE HIPÓTESIS SON UN CONJUNTO DE AFIRMACIONES QUE
NECESITAMOS ESTABLECER (SOBRE LA POBLACIÓN DE PARTIDA Y SOBRE LA MUESTRA
UTILIZADA) PARA CONSEGUIR DETERMINAR LA DISTRIBUCIÓN DE PROBABILIDAD EN LA QUE SE
BASARÁ NUESTRA DECISIÓN SOBRE Ho.

3.1.3. EL ESTADÍSTICO DE CONTRASTE

UN ESTADÍSTICO DE CONTRASTE ES UN RESULTADO MUESTRAL QUE CUMPLE CON LA DOBLE


CONDICIÓN DE 1) PROPORCIONAR INFORMACIÓN EMPÍRICA RELEVANTE SOBRE LA AFIRMACIÓN
PROPUESTA EN LA HIPÓTESIS NULA Y 2) POSEER UNA DISTRIBUCIÓN MUESTRAL CONOCIDA.

Una vez planteadas las hipótesis, es necesario seleccionar el estadístico de contraste capaz de
proporcionarnos información relevante sobre ellas y establecer los supuestos necesarios para
conseguir determinar la distribución muestral de ese estadístico. En el ejemplo sobre el psicólogo
supuestamente capaz de diagnosticar trastornos de tipo neurótico a través de la escritura se había
planteado las siguientes hipótesis: Ho: aciertos ≤ 0,5; H1: aciertos > 0,5. Existen dos estadísticos (en
realidad los dos son el mismo, pues uno es transformación lineal del otro) capaces de
proporcionarnos información relevante sobre las hipótesis planteadas.
T1: X (número de aciertos o diagnósticos correctos)
T2: P (proporción de aciertos o de diagnósticos correctos)

3.1.4. REGLA DE DECISIÓN


La regla de decisión es el criterio que vamos a utilizar para decidir si la hipótesis nula planteada debe
o no ser rechazada. Este criterio se basa en la partición de la distribución muestral del estadístico de
contraste en dos zonas mutuamente exclusivas: la zona de rechazo y la zona de aceptación.
La zona de rechazo, también llamada zona crítica, es el área de la distribución muestral que
corresponde a los valores del estadístico de contraste que se encuentran tan alejados de la
afirmación establecida en Ho, que es muy poco probable que ocurran si Ho, como se supone, es
verdadera. Su probabilidad es x , valor que se llama nivel de significación o nivel de riesgo.
La zona de aceptación es el área de la distribución muestral que corresponde a los valores del
estadístico de contraste próximos a la afirmación establecida en Ho. Es por tanto, el área
correspondiente a los valores del estadístico de contraste que es probable que ocurra si Ho, como se
supone, es verdadera. Su probabilidad es 1- a, valor que se llama nivel de confianza.

LA REGLA DE DECISIÓN CONSISTE EN RECHAZAR Ho SI EL ESTADÍSTICO DE CONTRASTE TOMA UN


VALOR PERTENECIENTE A LA ZONA DE RECHAZO O CRÍTICA; MANTENER Ho SI EL ESTADÍSTICO DE
CONTRASTE TOMA UN VALOR PERTENECIENTE A LA ZONA DE ACEPTACIÓN.

3.1.5. LA DECISIÓN
Planteada la hipótesis, formulados los supuestos, definido el estadístico de contraste y su distribución
muestral, y establecida la regla de decisión, el paso siguiente consiste en obtener una muestra
aleatoria de tamaño n, calcular el estadístico de contraste y tomar una decisión. Tal decisión, ya lo
sabemos, se toma, siempre, respecto a Ho, y consiste en rechazarla o mantenerla de acuerdo con el
valor tomado por el estadístico de contraste y las condiciones establecidas en la regla de decisión: si
el estadístico de contraste cae en la zona crítica, se rechaza Ho; si el estadístico de contraste cae en la
zona de aceptación, se mantiene Ho.

CUANDO DECIDIMOS MANTENER UNA HIPÓTESIS NULA, QUEREMOS SIGNIFICAR CON ELLO QUE
CONSIDERAMOS QUE ESA HIPÓTESIS ES COMPATIBLE CON LOS DATOS.
CUANDO DECIDIMOS RECHAZAR UNA HIPÓTESIS NULA, QUEREMOS SIGNIFICAR CON ELLO QUE
CONSIDERAMOS PROBADO QUE ESA HIPÓTESIS ES FALSA.

3.2. ERRORES DE TIPO 1 Y 2


Según acabamos de ver, todo contraste de hipótesis desemboca en una decisión consistente en
mantener o rechazar la Ho planteada. La realidad también es doble: Ho puede ser verdadera o puede
ser falsa. Si Ho es verdadera y la mantenemos, estaremos tomando una decisión correcta; si es falsa y
la rechazamos, también estaremos tomando una decisión correcta. Pero si Ho es verdadera y la
rechazamos, estaremos cometiendo un error; e igualmente estaremos cometiendo un error si Ho es
falsa y la mantenemos.
LLAMAREMOS ERROR DE TIPO I AL QUE SE COMETE CUANDO SE DECIDE RECHAZAR UNA Ho QUE
EN REALIDAD ES VERDADERA. LA PROBABILIDAD DE COMETER ESE ERROR ES α. LLAMAMOS
ERROR DE TIPO II AL QUE SE COMETE CUANDO SE DECIDE MANTENER UNA Ho QUE EN REALIDAD
ES FALSA. LA PROBABILIDAD DE COMETER ESE ERROR ES β.

La probabilidad de cometer un error de tipo I con nuestra decisión es una probabilidad conocida,
pues el valor de α lo fija el propio investigador. Sin embargo, la probabilidad de cometer un error de
tipo II, es decir, β, es un valor desconocido que, en un contraste concreto, depende de tres factores: 1)
la verdadera H1, 2) el valor de α 3) el tamaño del error típico de la distribución muestral utilizada para
efectuar el contraste.

Por tanto I –α será la probabilidad de tomar una decisión correcta cuando Ho es verdadera. Y 1-beta
será la probabilidad de tomar una decisión correcta cuando Ho es falsa.

POTENCIA
La potencia (1-B) de un contraste es la probabilidad de rechazar una hipótesis nula que en realidad es
falsa.
Cuando hablamos de la potencia de un contraste, por tanto, nos estamos refiriendo a la capacidad de
ese contraste para detectar que una hipótesis concreta es falsa. Para poder calcular la potencia de un
contraste necesitamos referirnos a una afirmación de las muchas definidas en Hi.

NIVEL CRÍTICO Y TAMAÑO DEL EFECTO


La probabilidad de cometer un error de tipo I se establece antes de efectuar el contraste para evitar
que influya en la decisión final. En ese sentido, podemos entender el nivel de significación como el
riesgo máximo que estamos dispuestos a asumir al tomar la decisión de rechazar la hipótesis
concreta.
Efectuar un contraste estableciendo previamente un nivel de significación es lo que se hace, aunque
trae inconvenientes:
-La decisión sobre Ho puede depender decisivamente del nivel de significación establecido. Podemos
decidir mantener la hipótesis con α = 0.01 y rechazarla con α = 0.05.
-Decidir si Ho es o no falsa no proporciona ningún tipo de información sobre el grado en el que la
evidencia muestral se muestra incompatible con esta hipótesis.
Si consideramos que cometer un error de tipo I es muy grave, adoptaremos para alfa un valor más
pequeño que si consideramos que cometer ese error no tiene consecuencias graves. Pero
recordemos que al hacer más pequeño el valor de alfa, la potencia del contraste disminuye
automáticamente (que es igual que decir que la potencia de que se produzca un error II se
incrementa). Eso puede llevar a cometer un error II por querer evitar el I.
Llamamos nivel crítico y lo representamos por p, al nivel de significación más pequeño al que una
hipótesis nula puede ser rechazada con el estadístico de contraste obtenido.
Podemos definir el nivel crítico, más brevemente, como la probabilidad asociada al estadístico de
contraste. En términos generales, en un contraste unilateral, el nivel crítico es la probabilidad
asociada a los valores mayores (contraste unilateral derecho) o menores (contraste unilateral
izquierdo) que el estadístico de contraste obtenido; en un contraste bilateral, el nivel crítico es la
probabilidad asociada a los valores que se centran tan alejados de Ho como, al menos, el estadístico
de contraste. Según esto, el nivel crítico se obtiene, a diferencia de lo que ocurre con el nivel de
significación, después de efectuar el contraste, es decir, una vez obtenido el estadístico de contraste.
Decidir si una hipótesis es o no falsa no constituye, en la mayor parte de las situaciones
experimentales, un criterio suficiente para determinar si el experimento realizado contribuye o no de
la forma significativa al desarrollo de una teoría o de una línea de investigación. Esto es así porque la
decisión a la que se llega en un contraste de hipótesis sobre la base del grado de discrepancia
existente entre la Ho planteada y la evidencia muestral observada depende directamente, según
hemos señalado ya, del tamaño de la muestra utilizada. Tamaños muestrales grandes pueden
llevarnos a considerar estadísticamente significativas discrepancias muy pequeñas y tamaños
muestrales muy pequeños pueden llevarnos a considerar estadísticamente insignificantes
discrepancias teóricamente relevantes.
El nivel crítico, no solo nos ayuda a tomar una decisión sobre Ho, sino que su tamaño nos informa
sobre el grado de compatibilidad o discrepancia existente entre la evidencia muestral observada y
esa Ho. Podemos decir que el tamaño del nivel crítico nos está informando sobre el grado en el que la
evidencia empírica obtenida se muestra incompatible con la Ho planteada. La utilización del nivel
crítico como una medida del grado de discrepancia entre la Ho planteada y la evidencia muestral
observada tiene el inconveniente de que el valor del nivel crítico está condicionado por el tamaño de
la muestra concreta utilizada. Necesitamos, por tanto, otra medida de ese grado de discrepancia que
no dependa del tamaño de la muestra ➝tamaño del efecto
Decidir si una hipótesis es o no falsa no constituye un criterio suficiente para determinar si el
experimento realizado contribuye o no de forma significativa al desarrollo de una teoría o de una
línea de investigación. Esto es así porque la decisión a la que se llega en un contraste de hipótesis
sobre la base del grado de discrepancia existente entre Ho planteada y la evidencia muestral
observada depende directamente del tamaño de la muestra utilizada. Tamaños muestrales grandes
pueden llevar a considerar como estadísticamente significativas discrepancias muy pequeñas; y
tamaños muestrales muy pequeños pueden llevarnos a considerar estadísticamente insignificante
discrepancias teóricamente relevantes.
CONTRASTE BILATERALES Y UNILATERALES
Cuando un investigador desea comprobar si un parámetro toma o no un determinado valor, si dos
grupos difieren entre sí en alguna variable, si dos variables son independientes, etc., puede someter a
contraste de hipótesis como estas: Ho: µ= 0,5; Hi: µ ≠ 0,5 Las hipótesis formuladas no contienen
ninguna predicción sobre la dirección en la que se puede producir un resultado muestral
incompatible con la afirmación establecida en Ho. Lo cual está reflejado en Hi, con el signo de" =" Así,
por ejemplo, si se quiere estudiar si los varones y las mujeres difieren en inteligencia, y no existen una
expectativa justificada sobre cuál de los dos grupos es más inteligente, lo razonable será plantear un
contraste bilateral: Ho: µv = µm; Hi: µv ≠ µm Cuando se utiliza la distribución normal o la distribución t
de Student en un contraste bilateral, la zona crítica está repartida en partes iguales, entre las dos
colas de la distribución muestral. De ahí el nombre bilateral. Cuando un investigador desea
comprobar si el valor de un parámetro ha aumentado, si un grupo supera o es mejor que otro en
alguna variable, si dos variables se encuentran negativamente relacionadas, etc. puede someter a
contraste hipótesis como estas: Ho: µ ≤ 0,65; Hi: ≠ 0,65 A este tipo de contraste se les llama
unilaterales. Las hipótesis contienen una predicción concreta sobre la dirección en la que se puede
producir un resultado muestral incompatible con la afirmación establecida en Ho. Lo cual está
reflejado en Hi, con los signos "< y >" Cuando se utiliza la distribución normal o la distribución t de
Student en un contraste bilateral, la zona crítica está en una de las dos colas de la distribución.

ENTROPÍA
La entropía es un medida de variación para variables cualitativas. La entropía es nula cuando la
variable es determinística; es decir, cuando todas las probabilidades son nulas salvo una que vale uno.
La entropía mide “el grado de desorden de un sistema”, a mayor entropía mayor desorden. Si
tuviéramos que buscar un zapato que sabemos que está en alguno de los cuatro dormitorios de una
casa, el mayor desorden es cuando la probabilidad es ¼, pues si así no lo fuera empezaríamos por
buscarlo por el dormitorio de mayor probabilidad (la moda) y así sucesivamente. Por tanto la entropía
se puede pensar como la cantidad media de información, pues es la esperanza de la cantidad de
información

También podría gustarte